Начала регрессионного анализа

Регрессионный анализ исследует и оценивает связь между зависимой или объясняемой переменной и независимыми или объясняющими переменными. Зависимую переменную иногда называют результативным признаком, а объясняющие переменные— предикторами, регрессорами или факторами.

Обозначим зависимую переменную у, а независимые — Ж1, Жг, ..., хПри к = 1 имеется только одна независимая переменная х и регрессия называется парной. При к > 1 имеется множество независимых переменных х , Ж2, ..ж* и регрессия называется множественной.

Парная линейная регрессия

Рассмотрим построение модели парной регрессии:

где у — зависимая случайная переменная; х—независимая детерминированная переменная; /Зо> /?1 — постоянные параметры уравнения; е—случайная переменная, называемая также ошибкой.

Будем считать, что истинная зависимость между х и у —линейная, то есть существует некоторая зависимость у = фа + ?3х. Задача регрессионного анализа заключается в получении оценок коэффициентов @0, р1-

Величина слагаемого е, соответствует отклонению эмпирических данных от прямой регрессии и может быть связана с ошибками измерений, неверно выбранной формой зависимости между переменными ж и у и другими причинами.

Вид зависимости обычно выбирают графически, проверяя качество моделей на контрольной выборке, либо используя априорные соображения.

Для оценивания параметров ро, Ри ???, /3к обычно применяют метод наименьших квадратов (МНК). Однако существуют и другие методы оценки: метод максимального правдоподобия, метод наименьших модулей и тому подобное.

 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ ОРИГИНАЛ   След >