Это один из самых простых и широко используемых методов в машинном обучении и статистике для моделирования зависимости между одной зависимой переменной (целевой) и одной или несколькими независимыми переменными (предикторами).
Линейная регрессия проста в понимании и интерпретации. Коэффициенты регрессии показывают, насколько изменится зависимая переменная при изменении независимой переменной на одну единицу.
Для простой линейной регрессии требуется всего два параметра (угол наклона и пересечение с осью Y), а для множественной линейной регрессии – один параметр для каждого предиктора плюс один для пересечения с осью Y.
Линейная регрессия вычислительно несложна и может быть быстро выполнена даже на больших наборах данных.
Линейная регрессия может использоваться для прогнозирования, анализа взаимосвязей и тестирования гипотез.
Она легко реализуется с использованием большинства стандартных библиотек машинного обучения, таких как scikit-learn в Python.
Когда между независимыми переменными и зависимой переменной существует линейная зависимость.
Когда данные относительно чистые и не содержат много выбросов или шумов.
Когда сложные нелинейные модели не нужны, и простая модель дает достаточное качество предсказания.
Пример
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
# Пример данных
X = np.array([[1], [2], [3], [4], [5]])
y = np.array([1.5, 3.0, 4.5, 6.0, 7.5])
# Создание и обучение модели линейной регрессии
model = LinearRegression()
model.fit(X, y)
# Предсказание
y_pred = model.predict(X)
# Построение графика
plt.scatter(X, y, color='blue', label='Исходные данные')
plt.plot(X, y_pred, color='red', label='Линейная регрессия')
plt.xlabel('Независимая переменная')
plt.ylabel('Зависимая переменная')
plt.legend()
plt.title('Пример Линейной Регрессии')
plt.show()
Ставь 👍 и забирай 📚 Базу знаний