Всего на сайте:
303 тыс. 117 статей

Главная | Статистика

Лекция 7. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ  Просмотрен 126

Каждой величине, которую получают в результате проведения эксперимента, присущий элемент случайности, оказывается большей или меньшей степени в зависимости от ее природы.

При совместном появлению двух и более величин в результате проведения эксперимента исследователь имеет основания для установления определенной зависимости между ними, связи. Идея связи между переменными величинами имеет особое, принципиальное значение в исследованиях, где осуществляется проверка на адекватность созданных математических моделей реальным процессам, в которых соотношение между переменными связаны функциональной зависимостью.

Строгой функциональной зависимости между переменными, в буквальном смысле этого слова, в реальном мире не существует, потому что они находятся под влиянием случайных факторов, последствия которого предвидеть практически невозможно. Поэтому между переменными существует особая форма связи, которую называют стохастической и которая в математической статистике трансформируется, не меняя своей сущности, в статистическую зависимость.

Показателем, который измеряет стохастический связь между переменными, является коэффициент корреляции, который свидетельствует с определенной степенью вероятности, насколько связь между переменными близок к строгой линейной зависимости.

Значительно увеличивается ценность коэффициента корреляции для случайных переменных, имеющих закон распределения вероятностей, близкий к нормальному. Для таких величин отсутствие корреляции одновременно означает и отсутствие какой-либо зависимости между ними. Кроме этого, как и в дисперсионном анализе, корреляционный анализ оценивает, насколько значительные случайно переменные в случайных величинах в процессе проведения эксперимента.

При наличии корреляционной связи между переменными необходимо выявить его форму функциональной зависимости (линейная или нелинейная), а именно

(1)

(2)

(3)

Приведенные зависимости между переменными и (1) – (3) называют функциями регрессии. Форму связи между переменными и можно установить, применяя корреляционные поля, которые изображены на рисунках 1 – 3.

 

 

Рис. 1. Рис. 2. Рис. 3.

 

Итак, на основе размещения точек корреляционного поля исследователь имеет основания для гипотетического предположения о линейные или нелинейные зависимости между признаками и .

Для двумерного статистического распределения выборки признаков понятие статистической зависимости между признаками та имеет следующее определение:

Статистической зависимостью от называют такую, при которой при изменении значений признака , изменяется условное статистическое распределение признака .

Статистической зависимостью признака от называют такую, при которой при изменении значений признака , изменяется условное статистическое распределение признака .

В случае изменения условных статистических распределений меняться и условные числовые характеристики. Отсюда следует определение корреляционной зависимости между признаками и .

Корреляционной зависимостью признака от называется функциональная зависимость условного среднего от аргумента , которую можно записать так: .

Аналогично,

Корреляционной зависимостью признака от называется функциональная зависимость условного среднего от аргумента , которую можно записать так: .

Между признаками и может существовать статистическая зависимость и при отсутствии корреляционной. Но когда существует корреляционная зависимость между признаками, то обязательно между ними будет существовать и статистическая зависимость.

Понятие парной регрессии.

Регрессией в теории вероятностей и математической статистике принято называть зависимость среднего значения какой-либо величины (y) от некоторой другой величины или от нескольких величин .

Парной регрессией называется модель, выражающая зависимость среднего значения зависимой переменной y от одной независимой переменной х

(2.1)

где у – зависимая переменная (результативный признак); х – независимая, объясняющая переменная (признак–фактор).

Парная регрессия применяется, если имеется доминирующий фактор, обуславливающий большую долю изменения изучаемой объясняемой переменной, который и используется в качестве объясняющей переменной.

Множественной регрессией называют модель, выражающую зависимость

среднего значения зависимой переменной y от нескольких независимых переменных .

. (2.2)

Множественная регрессия применяется в ситуациях, когда из множества факторов, влияющих на результативный признак, нельзя выделить один доминирующий фактор и необходимо учитывать одновременное влияние нескольких факторов.

Используя уравнение регрессии (2.1), соотношение между значениями переменными у и х (модель связи) можно записать как

(2.3)

где первое слагаемое можно интерпретировать как ту часть значения y, которая объяснена уравнением регрессии (2.1), а второе слагаемое как необъясненную часть значения y (или возмущение). Соотношение между этими частями характеризует качество уравнения регрессии, его способность представлять зависимость между переменными х и y. При построении уравнения регрессии рассматривается как ошибка модели, представляющая собой случайную величину, удовлетворяющую определенным предположениям.

Наличие составляющей обусловлено такими причинами, как наличие дополнительных факторов, оказывающих влияние на переменную y, неверный

вид функциональной зависимости , ошибки измерения, выборочный характер исходных данных.

По виду аналитической зависимости различают линейные и нелинейные

регрессии.

Линейная парная регрессия описывается уравнением:

(2.4)

Примеры наиболее часто используемых нелинейных регрессий:

– полиномы разных степеней ,

– равносторонняя гипербола ,

– степенная ,

– экспоненциальная ,

– показательная ,

– логистическая .

 

Предыдущая статья:Схема решения системы линейных уравнений методом простой итерации Следующая статья:Постановка задачи, Постановка задачи: по имеющимся данным n наблюдений за совместным изме..
page speed (0.0127 sec, direct)