Меню
Онлайн-инструментОнлайнБесплатно

Калькулятор линейной регрессии

Бесплатный онлайн калькулятор линейной регрессии. Вычисление коэффициента наклона, свободного члена, уравнения прямой, R² и коэффициента корреляции по методу наименьших квадратов.

Обновлено: 14 мая 2026 г.
ФормулыБыстроПриватно

Калькулятор линейной регрессии

Вычислите параметры линейной регрессии по методу наименьших квадратов: коэффициент наклона, свободный член, уравнение прямой и коэффициент детерминации R².

Свободный член a
ед.
Коэфф. наклона b
ед.
Коэфф. детерминации R²
доля
Коэфф. корреляции r
безразм.
Уравнение: y = a + b·x

Как пользоваться калькулятором

1
Введите значения независимой переменной X в первое поле. Числа можно разделять запятыми, пробелами, точками с запятой или переносами строк. Например: 1, 2, 3, 4, 5.
2
Введите соответствующие значения зависимой переменной Y во второе поле. Количество значений Y должно точно совпадать с количеством X. Например: 2.1, 3.9, 5.8, 8.1, 10.2.
3
При желании укажите значение X, для которого нужно предсказать Y. Это поле необязательно — если оставить его пустым, прогноз не будет рассчитан.
4
Нажмите кнопку «Рассчитать». В правой панели появятся: свободный член a, коэффициент наклона b, уравнение прямой, коэффициент детерминации R², коэффициент корреляции r и прогноз (если задан X).

Примеры расчёта

Пример 1: Рост и вес
X (рост в см): 160, 165, 170, 175, 180
Y (вес в кг): 55, 62, 68, 74, 80
Результат: a ≈ −42,00, b ≈ 0,680, уравнение: y = −42 + 0,68x, R² ≈ 0,998. Модель отлично описывает данные — вес почти линейно зависит от роста в этом диапазоне.
Пример 2: Часы учёбы и балл на экзамене
X (часы подготовки): 2, 4, 6, 8, 10
Y (балл): 45, 55, 62, 72, 85
Результат: a ≈ 35,50, b ≈ 4,85, уравнение: y = 35,5 + 4,85x, R² ≈ 0,992. Каждый дополнительный час подготовки повышает балл примерно на 4,85.
Пример 3: Слабые данные
X: 1, 2, 3, 4, 5
Y: 5, 2, 8, 1, 6
Результат: a ≈ 4,40, b ≈ 0,00, R² ≈ 0,00. R² близок к нулю — линейной зависимости между X и Y нет, точки разбросаны хаотично.

Формулы расчёта

Калькулятор использует метод наименьших квадратов (МНК) для нахождения параметров линейной регрессии y = a + b·x.

b = (n·Σxy − Σx·Σy) / (n·Σx² − (Σx)²) a = (Σy − b·Σx) / n

Где n — количество точек данных, Σx — сумма всех значений X, Σy — сумма всех Y, Σxy — сумма попарных произведений, Σx² — сумма квадратов X.

R² = 1 − SSres / SStot r = (n·Σxy − Σx·Σy) / √[(n·Σx² − (Σx)²)·(n·Σy² − (Σy)²)]

SSres — сумма квадратов остатков (разниц между фактическими и предсказанными Y). SStot — общая сумма квадратов отклонений Y от среднего. R² показывает долю дисперсии Y, объяснённую моделью. Коэффициент корреляции r принимает значения от −1 до 1.

Пошаговое объяснение

Рассмотрим простой пример с тремя точками: (1, 2), (2, 3), (3, 5).

1
Собираем суммы: Σx = 1+2+3 = 6, Σy = 2+3+5 = 10, Σxy = 1·2+2·3+3·5 = 23, Σx² = 1+4+9 = 14, n = 3.
2
Вычисляем наклон: b = (3·23 − 6·10) / (3·14 − 6²) = (69−60) / (42−36) = 9/6 = 1,5.
3
Вычисляем свободный член: a = (10 − 1,5·6) / 3 = (10−9) / 3 = 0,3333.
4
Уравнение: y = 0,3333 + 1,5x. Для x=4 прогноз: y = 0,3333 + 1,5·4 = 6,3333.
5
Считаем R²: среднее Y = 3,3333. SStot = (2−3,33)²+(3−3,33)²+(5−3,33)² = 4,6667. Предсказания: ŷ = {1,8333; 3,3333; 4,8333}. SSres = (2−1,8333)²+(3−3,3333)²+(5−4,8333)² = 0,1667. R² = 1 − 0,1667/4,6667 = 0,9643. Модель объясняет 96,43% вариации Y.

Где применяется

  • Экономика и финансы: прогнозирование продаж, анализ зависимости спроса от цены, оценка трендов на бирже.
  • Медицина и биология: зависимость дозировки лекарства от веса пациента, анализ связи между факторами риска и заболеваемостью.
  • Инженерное дело: калибровка датчиков, построение градуировочных кривых, анализ прочности материалов.
  • Социология и психология: изучение связи между уровнем образования и доходом, анализ результатов опросов и тестирований.
  • Сельское хозяйство: зависимость урожайности от количества удобрений, прогноз надоя молока от кормовой базы.
  • Машинное обучение: линейная регрессия — базовая модель, с которой начинают знакомство с предиктивной аналитикой.

Важные нюансы

  • Для расчёта необходимо минимум 2 точки. С двумя точками линия пройдёт точно через них, и R² всегда будет равен 1 — это не говорит о высоком качестве модели, данных слишком мало.
  • Если все значения X одинаковы, расчёт невозможен — знаменатель в формуле b обратится в ноль. Калькулятор покажет ошибку.
  • не показывает причинно-следственную связь. Высокий R² означает лишь хорошее совпадение линии с данными, но не доказывает, что X влияет на Y.
  • Линейная регрессия предполагает линейную зависимость. Если данные имеют явную криволинейную форму (парабола, экспонента), линейная модель будет плохо их описывать.
  • Результаты округляются до 4 знаков после запятой. При использовании в ответственных расчётах учитывайте накопление погрешности округления.
  • Наличие выбросов (аномально далёких точек) может сильно исказить линию регрессии. Перед расчётом полезно визуально оценить данные.

Частые ошибки

  • Разное количество X и Y: самая распространённая ошибка. Проверьте, что каждому значению X соответствует ровно одно значение Y, и наоборот.
  • Скрытые нечисловые символы: буквы, лишние запятые, символы валют в полях ввода. Калькулятор ожидает только числа и разделители.
  • Путаница между X и Y: X — независимая переменная (предиктор), Y — зависимая (отклик). Если перепутать их местами, уравнение и прогноз будут неверными.
  • Интерпретация R² как «процента точности»: R² = 0,85 не означает «точность 85%». Это доля объяснённой дисперсии. Модель может иметь высокий R², но систематически ошибаться на определённых участках.
  • Экстраполяция за пределы данных: прогноз для X, выходящего далеко за диапазон исходных данных, может быть крайне ненадёжным. Линейная зависимость, справедливая в узком диапазоне, часто нарушается за его пределами.
  • Игнорирование остатков: даже при высоком R² полезно проверить, нет ли закономерностей в остатках (разницах между фактическими и предсказанными Y). Наличие паттернов говорит о нелинейности.

Ответы на частые вопросы

В: Что означает коэффициент b?
Ответ: b показывает, на сколько единиц в среднем изменится Y при увеличении X на 1 единицу. Если b положительный — зависимость прямая (растут оба), если отрицательный — обратная.
В: Что такое свободный член a?
Ответ: a — это значение Y при X = 0. Интерпретировать его имеет смысл только если ноль входит в диапазон данных или хотя бы близок к нему.
В: Какой R² считается хорошим?
Ответ: Зависит от области. В физике и химии R² ниже 0,95 может считаться плохим. В социологии и психологии R² около 0,3–0,5 часто приемлем из-за высокой вариабельности человеческого поведения.
В: Чем R² отличается от r?
Ответ: r (коэффициент корреляции Пирсона) принимает значения от −1 до 1 и показывает направление связи. R² = r², он всегда от 0 до 1 и показывает долю объяснённой дисперсии, игнорируя знак.
В: Можно ли использовать калькулятор для более чем двух переменных?
Ответ: Нет, этот калькулятор — для парной линейной регрессии (одна независимая переменная X). Для множественной регрессии (несколько X) нужны более сложные инструменты.
В: Нужно ли упорядочивать данные по возрастанию X?
Ответ: Нет, порядок ввода точек не влияет на результат — суммы и произведения коммутативны. Можете вводить данные в любом порядке.

Источники и справочные данные

Расчёт основан на классическом методе наименьших квадратов (МНК), впервые опубликованном Карлом Фридрихом Гауссом в 1809 году. Формулы соответствуют стандартному курсу математической статистики и эконометрики. Коэффициент детерминации R² и коэффициент корреляции Пирсона r вычисляются по общепринятым формулам. Для учебных и справочных целей; при ответственных инженерных или научных расчётах рекомендуется проверять результат в специализированном ПО (R, Python/scikit-learn, Excel Analysis ToolPak).

Линейная регрессия: что это такое и как её применять

Линейная регрессия — это статистический метод, который моделирует зависимость между двумя переменными с помощью прямой линии. Если вы когда-либо строили график по точкам и проводили через них «наилучшую» прямую — вы уже интуитивно применяли линейную регрессию. Этот метод лежит в основе огромного количества прикладных задач: от прогнозирования продаж до анализа медицинских данных.

Суть метода наименьших квадратов

Представьте, что у вас есть набор точек на плоскости. Вы хотите провести прямую, которая проходит максимально близко ко всем точкам одновременно. Критерий «близости» в методе наименьших квадратов — это сумма квадратов вертикальных расстояний от точек до прямой. Прямая, минимизирующая эту сумму, и называется линией регрессии.

Почему именно квадраты? Во-первых, квадратичная функция штрафует большие отклонения сильнее, чем маленькие, что интуитивно правильно. Во-вторых, математически задача сводится к системе линейных уравнений, которая имеет элегантное аналитическое решение — те самые формулы для a и b, которые использует наш калькулятор.

Что означают коэффициенты a и b

Уравнение прямой записывается как y = a + b·x. Коэффициент b — это тангенс угла наклона прямой к оси X. Если b = 2,5, то при увеличении X на единицу Y в среднем возрастает на 2,5 единицы. Если b отрицательный, зависимость обратная: с ростом X значение Y падает.

Коэффициент a — точка пересечения прямой с осью Y. Формально это значение Y при X = 0. Однако интерпретировать a имеет смысл только тогда, когда ноль находится в разумной близости от ваших данных. Например, если вы изучаете зависимость веса от роста для взрослых людей, X = 0 см не имеет физического смысла, и a будет лишь вспомогательной величиной для построения прямой.

Коэффициент детерминации R² — мера качества модели

R² показывает, какая доля вариации (разброса) зависимой переменной Y объясняется влиянием X. Если R² = 0,85, это значит, что 85% изменчивости Y можно объяснить линейной зависимостью от X, а оставшиеся 15% приходятся на случайные факторы или неучтённые переменные.

Важно не абсолютизировать R². В социальных науках значение 0,3 может считаться приемлемым, потому что поведение людей зависит от множества факторов. В физическом эксперименте R² = 0,95 может указывать на наличие систематической ошибки в измерениях, если теория предсказывает идеальную линейную связь.

Коэффициент корреляции Пирсона r

В отличие от R², коэффициент r сохраняет знак и показывает не только силу, но и направление связи. Значение r = 1 означает идеальную положительную линейную зависимость (все точки лежат на прямой с положительным наклоном), r = −1 — идеальную отрицательную. Значение r = 0 говорит об отсутствии линейной связи, хотя нелинейная зависимость при этом может присутствовать.

Когда линейная регрессия не работает

Метод предполагает, что связь между переменными линейна. Если данные образуют параболу, экспоненту или синусоиду, линейная модель даст плохие результаты, и R² будет низким. В таких случаях применяют преобразования переменных (логарифмирование, возведение в степень) или нелинейные модели.

Другая проблема — выбросы. Одна точка, расположенная далеко от остальных, способна кардинально изменить наклон прямой. Перед применением регрессии полезно построить диаграмму рассеяния и визуально оценить данные на наличие аномалий.

Также линейная регрессия чувствительна к нарушению предположений: гомоскедастичность (постоянная дисперсия остатков), независимость наблюдений, нормальность распределения ошибок. Для серьёзного статистического анализа эти условия необходимо проверять.

Практические советы по использованию

Начинайте с визуализации — постройте график ваших данных. Это поможет заметить нелинейность, выбросы и кластеры до того, как вы начнёте считать цифры. Используйте не менее 10–15 точек для получения статистически значимых оценок. При меньшем количестве данных доверительные интервалы для коэффициентов будут широкими, и модель окажется ненадёжной.

Всегда проверяйте прогнозы на здравый смысл. Если модель предсказывает отрицательный вес или температуру ниже абсолютного нуля — где-то ошибка в данных или в предположениях. И помните: корреляция не равна причинности. Тот факт, что продажи мороженого и количество утоплений растут одновременно, не означает, что одно вызывает другое — просто оба показателя зависят от температуры воздуха.

Резюме

Линейная регрессия — мощный и при этом простой инструмент анализа данных. Она не требует глубоких математических знаний для применения, но требует вдумчивости при интерпретации результатов. Используйте наш калькулятор для быстрых расчётов, проверяйте свои гипотезы и всегда сопоставляйте цифры с реальным смыслом задачи. Хорошая модель — та, которая не только хорошо подогнана под данные, но и согласуется со здравым смыслом и теорией предметной области.

Нужен другой инструмент?

Все инструменты в категории