Критерии согласия

Видеоуроки по Statgraphics Учебные пособия по статистике Введение в математическую статистику Генеральная совокупность и выборка Статистические шкалы Эмпирические распределения Числовые характеристики выборки Стандартная ошибка среднего арифметического Представление результатов исследования Точечное и интервальное оценивание числовых характеристик Элементы теории вероятностей Нормальный закон распределения (закон нормального распределения) Статистические гипотезы Критерии проверки статистических гипотез Критерии согласия Условия применения параметрических критериев Обоснование выбора критерия значимости Статистические операции в номинальной шкале Представление данных статистического анализа Корреляционный анализ Представление данных корреляционного анализа Регрессионный анализ Представление результатов регрессионного анализа

Критерии согласия

Определения

Критерием согласия называется критерий значимости, применяемый для проверки гипотезы о законе распределения генеральной совокупности, из которой взята выборка.

Чаще всего исследователя интересует, соответствует ли распределение экспериментальных данных нормальному закону. Поэтому примеры будут связаны с проверкой экспериментального распределения на нормальность. Наиболее часто используются следующие критерии:

  • Критерий Шапиро-Уилки
  • Критерий хи-квадрат
  • Критерий лямбда Колмогорова-Смирнова

Критерий Шапиро-Уилки

Условия применения: выборка небольшого объема

Н0 – распределение генеральной совокупности из которой получена выборка совокупности соответствует нормальному закону.

Н1— распределение генеральной совокупности из которой получена выборка совокупности не соответствует нормальному закону.

Имеем следующие значения: 11,8; 12; 12,1; 12,3; 12,6; 12,6; 12,8; 13; 13,2; 13,8. Алгоритм расчета представлен в табл.1.

Таблица 1 – Алгоритм расчета критерия Шапиро-Уилки.

xxΔkkankankΔk
1234567
111,813,8210,57391,1478
21213,21,220,32910,39492
312,1130,930,21410,19269
412,312,80,540,12240,0612
512,612,6050,03990
612,612,6
712,812,3Сумма=b = 17966
81312,1
913,212
1013,811,8

 Алгоритм расчета критерия Шапиро-Уилки

  1. Формулируем гипотезу Н0 о соответствии распределения генеральной совокупности, из которой получены данные нормальному закону. Назначаем уровень значимости α=0,05.
  2. Получаем выборку экспериментальных данных (столбец 2 табл.1). В нашем случае n=10.
  3. Рассчитываем значение выборочной дисперсии. Для приведенно примера дисперсия равна: S2=0, 37.
  4. Ранжируем выборку в возрастающем и убывающем порядке (столбцы 2 и 3)
  5. Считаем разности Δk (столбец 5) между значениями столбцов 2 и 3.
  6. Из таблицы 6 Приложения (см. В.С.Иванов, 1990) находим значения коэффициентов ank (столбец 6)
  7. Находим произведение ank*Δk
  8. Вычисляем b=сумма ankΔk= 1,7966
  9. Рассчитываем значение критерия Wф по формуле:

Формула расчета критерия Шапиро-Уилки

 

  1. Из табл. 7 Приложения (см. В.С.Иванов, 1990) находим критическое значение критерия Шапиро-Уилки для α=0,05 Wкрит= 0,842.
  2. Вывод. Так как Wф>Wкрит, можно говорить, что экспериментальные данные соответствуют нормальному закону на уровне значимости 0,05.

Критерий хи-квадрат

Разработан Карлом Пирсоном. Основан на построении интервального вариационного ряда и сравнении эмпирических (nэм) и теоретических (nт) частот (Рис.1). Значения эмпирических частот видны на рисунке 1.

Гистограмма, характеризующая эмпирическое распределение и функция плотности вероятностей нормального распределения.
Рис.1. Гистограмма, характеризующая эмпирическое распределение и функция плотности вероятностей нормального распределения.

 

Статистическая гипотеза заключается в том, что плотность распределения генеральной совокупности, из которой взята выборка, соответствует теоретической модели нормального распределения.

Значение фактического критерия хи-квадрат вычисляется по формуле:

Формула расчета критерия хи-квадрат

Если фактическое значение критерия хи-квадрат больше или равно чем критическое значение критерия хи-квадрат, можно сделать вывод, что эмпирическое распределение не соответствует нормальному закону на уровне значимости α

Критерий  Колмогорова-Смирнова (лямбда)

Разработан Андреем Николаевичем Колмогоровым и Николаем Васильевичем Смирновым.

Статистическая гипотеза заключается в том, что функция распределения генеральной совокупности (рис. 2 ), из которой взята выборка, соответствует функции распределения нормального закона.

Кумулята, построенная на основе экспериментальных данных (красные точки) и теоретическая функция распределения (нормальное распределение, синяя линия)
Рис.2. Красные точки — кумулята, построенная на основе экспериментальных данных, синяя кривая — теоретическая функция распределения (нормальное распределение).

 

Значение критерия λф вычисляется по формуле:

Формула расчета критерия лямбда (Колмогорова-Смирнова)

Вывод: если λф> λкрит – эмпирическое распределение не соответствует нормальному на уровне значимости α.

Литература

  1. Высшая математика и математическая статистика: учебное пособие для вузов / Под общ. ред. Г. И. Попова. – М. Физическая культура, 2007.– 368 с.
  2. Основы математической статистики: Учебное пособие для ин-тов физ. культ / Под ред. В.С. Иванова.– М.: Физкультура и спорт, 1990. 176 с.
  1. Учебные пособия по статистике
  2. Видеоуроки по Statgraphics
  3. Введение в математическую статистику
  4. Генеральная совокупность и выборка
  5. Статистические шкалы
  6. Эмпирические распределения
  7. Числовые характеристики выборки
  8. Стандартная ошибка среднего арифметического
  9. Представление результатов исследования
  10. Точечное и интервальное оценивание числовых характеристик
  11. Элементы теории вероятностей
  12. Нормальный закон распределения (закон нормального распределения)
  13. Статистические гипотезы
  14. Критерии проверки статистических гипотез
  15. Критерии согласия
  16. Условия применения параметрических критериев
  17. Обоснование выбора критерия значимости
  18. Статистические операции в номинальной шкале
  19. Представление данных статистического анализа
  20. Корреляционный анализ
  21. Представление данных корреляционного анализа
  22. Регрессионный анализ
  23. Представление результатов регрессионного анализа