4 Измерение тесноты связи

 

Чтобы измерить тесноту прямолинейной связи между двумя признаками, пользуются парным коэффициентом корреляции, который обозначается r.

Так как при корреляционной связи имеют дело не с приращением функции в связи с изменением аргумента, а с сопряженной вариацией результативных и факторных признаков, то определение тесноты связи, по существу, сводится к изучению этой сопряженности, т.е. того, в какой мере отклонение от среднего уровня одного признака сопряжено с отклонением другого. Это значит, что при наличии полной прямой связи все значения (х-X) и (у-Y) должны иметь одинаковые знаки, при полной обратной - разные, при частичной связи знаки в преобладающем числе случаев будут совпадать, а при отсутствии связи - совпадать примерно в равном числе случаев.

Для оценки существенности коэффициента корреляции пользуются специально разработанной таблицей критических значений r.

Коэффициент корреляции r применяется только в тех случаях, когда между явлениями существует прямолинейная связь. Если же связь криволинейная, то пользуются индексом корреляции, который рассчитывается по формуле:

где у - первоначальные значения;

- среднее значение;

Y - теоретические (выровненные) значения переменной величины.

Показатель остаточной, случайной дисперсии определяется по формуле:

Она характеризует размер отклонений эмпирических значений результативного признака у от теоретических Y, т.е. случайную вариацию.

Общая дисперсия:

характеризует размер отклонений эмпирических значений результативного признака у от , т.е. общую вариацию.

Отношение случайной дисперсии к общей характеризует долю случайной вариации в общей вариации, а

есть не что иное, как доля факторной вариации в общей, потому что по правилу сложения дисперсий общая дисперсия равна сумме факторной и случайной дисперсий:

σ22Y20.

Подставим в формулу индекса корреляции соответствующие обозначения случайной, общей и факторной дисперсий и получим:

Таким образом, индекс корреляции характеризует долю факторной вариации в общей:

однако с той лишь разницей, что вместо групповых средних берутся теоретические значения Y.

Индекс корреляции по своему абсолютному значению колеблется в пределах от 0 до 1.

При функциональной зависимости случайная вариация , индекс корреляции равен 1. При отсутствии связи R = 0, потому что Y=y.

Коэффициент корреляции является мерой тесноты связи только для линейной формы связи, а индекс корреляции - и для линейной, и для криволинейной. При прямолинейной связи коэффициент корреляции по своей абсолютной величине равен индексу корреляции:

|r|=R.

Если индекс корреляции возвести в квадрат, то получим коэффициент детерминации

R22Y2.

Он характеризует роль факторной вариации в общей вариации и по построению аналогичен корреляционному отношению η2.

Как и корреляционное отношение, коэффициент детерминации R2может быть исчислен при помощи дисперсионного анализа, так как дисперсионный анализ позволяет расчленить общую дисперсию на факторную и случайную.

Однако при дисперсионном анализе для разложения дисперсии пользуются методом группировок, а при корреляционном анализе - корреляционными уравнениями.

Коэффициент детерминации является наиболее конкретным показателем, так как он отвечает на вопрос о том, какая доля в общем результате зависит от фактора, положенного в основание группировки.

При прямолинейной парной связи факторную дисперсию можно определить без вычисления теоретических значений Y по следующей формуле:


5 Множественная корреляция

До сих пор мы рассматривали корреляционные связи между двумя признаками: результативным (у) и факторным (х). Например, выпуск продукции зависит не только от размера основного капитала, но и от уровня квалификации рабочих, состояния оборудования, обеспеченности и качества сырья и материалов, организации труда и т.д. В связи с этим возникает необходимость в изучении, измерении связи между результативным признаком, двумя и более факторными. Этим занимается множественная корреляция.

Множественная корреляция решает три задачи. Она определяет:

-     форму связи;

-     тесноту связи;

-     влияние отдельных факторов на общий результат.

Определение формы связи.

Определение формы связи сводится обычно к отысканию уравнения связно с факторами x,z,w,...v. Так, линейное уравнение зависимости результативного признака от двух факторных определяется по формуле

=a0+a1x+a2z

Для определения параметров а0, a1и а2, по способу наименьших квадратов необходимо решить следующую систему трех нормальных уравнений:

Измерение тесноты связи.

При определении тесноты связи для множественной зависимости пользуются коэффициентом множественной (совокупной) корреляции, предварительно исчислив коэффициенты парной корреляции. Так, при изучении связи между результативным признаком y и двумя факторными признаками - х и z, нужно предварительно определить тесноту связи между у и х, между у и z, т.е. вычислить коэффициенты парной корреляции, а затем для определения тесноты связи результативного признака от двух факторных исчислить коэффициент множественной корреляции по следующей формуле:

где rxy, rzy, rzx - парные коэффициенты корреляции.

Коэффициент множественной корреляции колеблется в пределах от 0 до 1. Чем он ближе к 1, тем в большей мере учтены факторы, определяющие конечный результат.

Если коэффициент множественной корреляции возвести в квадрат, то получим совокупный коэффициент детерминации, который характеризует долю вариации результативного признака у под воздействием всех изучаемых факторных признаков.

Совокупный коэффициент детерминации, как и при парной корреляции, можно исчислить по следующей формуле:

R22y2y

где σ2Y - дисперсия факторных признаков,

σ2y - дисперсия результативного признака.

Однако вычисление теоретических значений Y при множественной корреляции и сложно, и громоздко. Поэтому факторную дисперсию σ2Yисчисляют по следующей формуле:

Проверка существенности связи при множественной корреляции по сути ничем не отличается от проверки при парной корреляции.

Поскольку факторные признаки действуют не изолированно, а во взаимосвязи, то может возникнуть задача определения тесноты связи между результативным признаком и одним из факторных при постоянных значениях прочих факторов. Она решается при помощи частных коэффициентов корреляции. Например, при линейной связи частный коэффициент корреляции между х и у при постоянном z рассчитывается по следующей формуле:

В настоящее время на практике широкое распространение получил многофакторный корреляционный анализ;

6 Методы измерения тесноты связи

Измерение тесноты связи при помощи дисперсионного и корреляционного анализа связано с определенными сложностями и требует громоздких вычислений. Для ориентировочной оценки тесноты связи пользуются приближенными показателями, не требующими сложных, трудоемких расчетов. К ним относятся: коэффициент корреляции знаков Фехнера, коэффициент корреляции рангов, коэффициент ассоциации и коэффициент взаимной сопряженности.

Коэффициент корреляции знаков основан на сопоставлении знаков отклонений от средней и подсчете числа случаев совпадения и несовпадения знаков, а не на сопоставлении попарно размеров отклонений индивидуальных значений факторного и результативного признаков от средней

(x- ) и (y- ):

i=(u-v)/(u+v),

где u - число пар с одинаковыми знаками отклонений х и у от и ;

v - число пар с разными знаками отклонений х и у от и .

Коэффициент корреляции знаков колеблется в пределах от -1 до +1. Чем ближе коэффициент к 1, тем теснее связь. Если и<v, то i>0, так как число согласованных знаков больше, чем несогласованных, и связь прямая. При и< v имеем i<0, потому что число несогласованных знаков больше, чем согласованных, и связь обратная.

Если и = v, то i =0, и связи нет.

Коэффициент корреляции рангов исчисляется не по первичным данным, а по рангам (порядковым номерам), которые присваиваются всем значениям изучаемых признаков, расположенным в порядке их возрастания.

Если значения признака совпадают, то определяется средний ранг путем деления суммы рангов на число значений. Коэффициент корреляции рангов определяется по формуле

где d2 - квадрат разности рангов для каждой единицы, d=x-y;

n - число рангов;

s - средний ранг.

Коэффициент корреляции рангов также колеблется в пределах от -1 до +1. Если ранги по обоим признакам совпадают, то ηd2=0, значит, ρ=1 и, следовательно, связь полная прямая. Если ρ= -1, связь полная обратная, при ρ=0 связь между признаками отсутствует.

Коэффициент ассоциации применяется для установления меры связи между двумя качественными альтернативными признаками.

Для его вычисления строится комбинационная четырехклеточная таблица, которая выражает связь между двумя альтернативными явлениями.

Коэффициент ассоциации рассчитывается по формуле:

Коэффициент ассоциации также изменяется от -1 до +1. Чем А ближе к единице, тем сильнее связаны между собой изучаемые признаки. При ad>bc связь прямая, а при ad<bc связь обратная, при ad = bc A = 0 и связь отсутствует.

Коэффициент взаимной сопряженности применяется в тех случаях, когда требуется установить связь между качественными признаками, каждый из которых состоит из трех и более групп.

Различия между условным и безусловным распределением свидетельствуют о влиянии факторного признака на распределение совокупности по результативному признаку, т.е. о наличии связи между факторным и результативным признаками, а чем больше эти различия, тем в большей мере признаки связаны между собой, тем теснее связь между ними.

Для определения степени тесноты связи вычисляется специальный показатель, который называется коэффициентом взаимной сопряженности. Он определяется по следующей формуле:

где n - число единиц совокупности;

m1и m2 - число групп по первому и второму признакам;

X2 - показатель абсолютной квадратической сопряженности Пирсона.

Показатель абсолютной квадратической сопряженности Пирсона характеризует близость условных распределений к безусловным.

Этот показатель, как и критерий X2, исчисляется по формуле:

где ωij - частости условного распределения в i-й строке;

ωj - частости безусловного распределения;

j - номер столбца.

Если признаки независимы, то ωijj, откуда X2=0 и, значит, С = 0. Если же связь функциональная, то коэффициент взаимной сопряженности будет равен единице.


Информация о работе «Корреляционный анализ»
Раздел: Математика
Количество знаков с пробелами: 16634
Количество таблиц: 0
Количество изображений: 0

Похожие работы

Скачать
32142
1
1

... а) строгая положительная корреляция, б) сильная положительная корреляция, в) слабая положительная корреляция, г) нулевая корреляция, д) отрицательная корреляция, е) строгая отрицательная корреляция, ж) нелинейная корреляция, з) нелинейная корреляция. 3. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ Корреляционный анализ (от лат. «соотношение», «связь») применяется для проверки гипотезы о статистической зависимости ...

Скачать
32535
0
2

... изменения другого. Корреляционная зависимость - это изменения, которые вносят значения одного признака в вероятность появления разных значений другого признака (Е.В. Сидоренко, 2000). Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к ...

Скачать
20994
5
2

имического региона (СБГХР). Целью данной работы явилось определение корреляционной взаимосвязи морфологических структур сосудов плацент жительниц СБГХР Кадамджая, а также проживающих в территориальной близости. Материал и методы. Объектом исследования явились 142 плаценты рожениц (средний возраст 25,8 лет) после естественного родоразрешения (39-41нед). Исследуемый материал был распределен на 3 ...

Скачать
54063
10
15

... Составляющие магнитного поля. // Солнечно-земная физика. 2-я часть. М.: «Мир» — 1974. —с. 96-99. 11.  С.-И. Акасофу, C. Чепмен. Геомагнитные индексы. // Солнечно-земная физика. 2-я часть. М.: «Мир» — 1974. —с. 293-301. 12.  А.М. Грецкий,Н.Н. Евсюков. Корреляционный анализ солнечно-земных связей.//Астрофизические приложения методов теории случайных функций. Харьков ХГУ 1988 —с.10-14. 13.   И.П. ...

0 комментариев


Наверх