2009_2_r_dreper_regresion_analise

7
Прикладной регрессионный анализ Авторы: Норман Р. Дрейпер и Гарри Смит 3-е издание 2007 год. – 912 с. Размер 234 Мб. Полное классическое введение в фундаментальные основы регрессионного анализа. В книге описываются методы подбора и исследования линейных и нелинейных регрессионных моделей различной степени сложности, а также рассматриваются практические аспекты их применения, в том числе с использованием специальных компьютерных программ. Помимо стандартного набора тем, составляющих ядро курса регрессионного анализа, в это издание включены отдельные главы, посвященные мультиколлинеарности, обобщенным линейным моделям, геометрическим свойствам регрессии, робастной регрессии и процедурам тиражирования выборки (бутстрепа). Содержит множество примеров и упражнений (с полными или частичными решениями), а также вопросы для самоконтроля. Предназначена для аналитиков, экспериментаторов и студентов высших учебных заведений. Может служить основой курса регрессионного анализа для работников промышленных предприятий и служащих государственных учреждений, сталкивающихся с необходимостью анализа статистических данных, а также прекрасным справочным пособием для специалистов по статистике и ученых различных профилей. ISBN 978-5-8459-0963-3, 0-471-17082-8 СОДЕРЖАНИЕ Предисловие к третьему изданию Глава 1. Предварительные сведения 1.1. Распределения: нормальное, t и F 1.2. Доверительные интервалы и t-критерий 1.3. Элементы матричной алгебры Глава 2. Подбор прямой методом наименьших квадратов 2.1. Введение: потребность в статистическом анализе 2.2. Прямолинейная зависимость между двумя переменными 2.3. Прямолинейная регрессия: подбор методом наименьших квадратов 2.4. Дисперсионный анализ 2.5. Доверительные интервалы и проверки для и 2.6. F- критерий значимости регрессии 2.7. Корреляция между X и Y 2.8. Резюме к подбору линейной регрессии 1

Transcript of 2009_2_r_dreper_regresion_analise

Page 1: 2009_2_r_dreper_regresion_analise

Прикладной регрессионный анализ

Авторы: Норман Р. Дрейпер и Гарри Смит 3-е издание 2007 год. – 912 с.Размер 234 Мб.

Полное классическое введение в фундаментальные основы регрессионного анализа. В книге описываются методы подбора и исследования линейных и нелинейных регрессионных моделей различной степени сложности, а также рассматриваются практические аспекты их применения, в том числе с использованием специальных компьютерных программ. Помимо стандартного набора тем, составляющих ядро курса регрессионного анализа, в это издание включены отдельные главы, посвященные мультиколлинеарности, обобщенным линейным моделям, геометрическим свойствам регрессии, робастной регрессии и процедурам тиражирования выборки (бутстрепа). Содержит множество примеров и упражнений (с полными или частичными решениями), а также вопросы для самоконтроля. Предназначена для аналитиков, экспериментаторов и студентов высших учебных заведений. Может служить основой курса регрессионного анализа для работников промышленных предприятий и служащих государственных учреждений, сталкивающихся с необходимостью анализа статистических данных, а также прекрасным справочным пособием для специалистов по статистике и ученых различных профилей. ISBN 978-5-8459-0963-3, 0-471-17082-8

СОДЕРЖАНИЕПредисловие к третьему изданиюГлава 1. Предварительные сведения 1.1. Распределения: нормальное, t и F 1.2. Доверительные интервалы и t-критерий 1.3. Элементы матричной алгебры Глава 2. Подбор прямой методом наименьших квадратов 2.1. Введение: потребность в статистическом анализе 2.2. Прямолинейная зависимость между двумя переменными2.3. Прямолинейная регрессия: подбор методом наименьших квадратов 2.4. Дисперсионный анализ 2.5. Доверительные интервалы и проверки для и 2.6. F- критерий значимости регрессии2.7. Корреляция между X и Y 2.8. Резюме к подбору линейной регрессии 2.9. Экскурс в историю Приложение 2А. Данные о работе паровой котельниГлава 3. Исследование уравнения регрессии 3.1. Неадекватность и чистая ошибка 3.2. Проверка однородности чистой ошибки 3.3. Исследование остатков: основные графики3.4. Проверка нормальности по остаткам 3.5. Проверки временной зависимости, постоянства дисперсии, необходимости преобразования отклика и кривизны3.6. Нестандартные графики остатков3.7. Критерий Дарбина-Уотсона

1

Page 2: 2009_2_r_dreper_regresion_analise

3.8. Список литературы по анализу остатковПриложение ЗА. Нормальные графики Приложение ЗБ. Команды системы MINITABГлава 4. Подбор прямой: специальные темы 4.1. Краткий обзор главы и начальные сведения4.2. Стандартная ошибка для Y4.3. Обратная регрессия (случай прямой лини) 4.4. Практические планы экспериментов4.5. Случай, когда обе переменные подвержены ошибкам Упражнения к главам 2-4Глава 5. Регрессия в матричных терминах: случай прямой линии 5.1. Подбор прямой линии в матричнх терминах5.2. Случай вырожденной матрицы5.3. Дисперсионный анализ в матричных уравнениях5.4. Дисперсия и ковариация коэффициентов и 5 6 Резюме для невырожденного случая 5.7. Случай обшей регрессии Упражнения к главе 5 Глава 6. Случай общей регрессии 6.1. Общая линейная регрессия 6.2. Свойства наименьших квадратов6.3. Свойства наименьших квадратов при е ~ N(0 ; l ) 6.4. Сравнение доверительных интервалов и областей6.5. Дополнительные аспекты сравнения доверительных интервалов и областей Приложение 6А. Полезные сведения о матрицахГлава 7. Дополнительная сумма квадратов и критерии для нескольких параметров 7.1. Принцип дополнительной суммы квадратов 7.2. Пример для случая двух предикторов 7.3. Сумма квадратов для набора линейных функций откликов Приложение 7А. Ортогональные столбцы в матрице X Приложение 7Б. Последовательные суммы квадратов в случае двух предикатовУпражнения к главам 6 и 7Глава 8. Сериальная корреляция остатков и критерий Дарбина-Уотсона8.1. Сериальная корреляция остатков 8.2. Критерий Дарбина-Уотсона для некоторых видов сериальной корреляции 8.3. Исследование серий на графиках временной последовательности остатков: критерий серий8.4. ЛитератураУпражнения к главе 8 Глава 9. Подробнее о проверке подобранных моделей9.1. Матрица-крышечка и различные типы остатков 9.2. График включенной переменной и частные остатки9.3. Определение влияющих наблюдений: статистика Кука9.4. Другие статистики для измерения влияния 9.5. Литература по анализу остатковУпражнения к главе 9 Глава 10. Множественная регрессия: дополнительные вопросы 10.1. Проверка общей линейной гипотезы

2

Page 3: 2009_2_r_dreper_regresion_analise

10.2. Обобщенный МНК и взвешенный МНК 10.3. Пример использования взвешенного МНК10.4. Численный пример использования взвешенного МНК10.5. МНК при наличии ограничений 10.6. Обратная регрессия (случай нескольких предикторов) 10.7. Планарная регрессия в случае, когда все переменные подвержены ошибкам Приложение 10А. Метод неопределенных множителей ЛагранжаУпражнения к главе 10Глава 11. Смещение регрессионных оценок, математическое ожидание средних квадратов и сумм квадратов11.1. Смещение регрессионных оценок11.2. Влияние смещения на результаты дисперсионного анализа в МНК11.3. Вычисление математического ожидания средних квадратов11.4. Математическое ожидание дополнительной суммы квадратовУпражнения к главе 11Глава 12. Полезность регрессионных уравнений, большие значения F и R12.1. Полезно ли подобранное уравнение?12.2. Некоторые свойства статистики R2

Приложение 12А. Насколько значимой должна быть регрессия?Упражнения к главе 12 Глава 13. Модели, содержащие различные функции предикторов. Полиномиальные модели13.1. Более сложные модельные функции13.2. Примеры подбора поверхностей второго порядка для трех и двух предикторов13.3. Сохранение членов в полиномиальной моделиУпражнения к главе 13 Глава 14. Преобразование переменной отклика14.1. Введение и предварительные замечания 14.2. Семейство степенных преобразований отклика: метод Бокса-Кокса 14.3. Второй метод оценивания 14.4. Преобразования отклика: другие интересные и полезные графики 14.5. Другие виды преобразований отклика14.6. Стабилизация дисперсии путем преобразования откликаУпражнения к главе 14 Глава 15. Фиктивные переменные 15.1. Фиктивные переменные, разделяющие блоки данных с различными свободными членами в единой модели 15.2. Члены взаимодействия, содержащие фиктивные переменные 15.3. Фиктивные переменные в сегментированных моделяхУпражнения к главе 15Глава 16. Выбор наилучшего регрессионного уравнения 16.1. Введение 16.2. Все возможные регрессии и «лучшие подмножества» регрессии 16.3. Шаговый метод построения регрессии 16.4. Метод исключения 16.5. Уровни значимости в процедурах отбора16.6. Модификации процедур и заключение16.7. Применение процедур отбора к данным про парПриложение 16А. Данные задачи Хальда, корреляционная матрица и все 15 возможных регрессий

3

Page 4: 2009_2_r_dreper_regresion_analise

Упражнения к главе 16 Глава 17. Плохо обусловленные данные регрессии 17 1 Введение 17.2. Центрирование данных регрессии17.3 Центрирование и масштабирование данных регрессии 17.4. Измерение мультиколлинсарности17.5. Метод Белели для выявления мультиколлинеарностиПриложение 17А. Преобразование матрицы X с целью ортогонализации столбцов Упражнения к главе 17 Глава 18. Гребневая регрессия 18.1. Введение 18.2 Базовая форма гребневой регрессии 18.3. Применение гребневой регрессии к данным Хальда 18.4. В каких случаях следует использовать гребневую регрессию18.5. Интерпретация с точки зрения фиктивных данных18.6. Заключительные замечания18.7. Литература Приложение 18А. Связь гребневых оценок с МНК-оценками Приложение 18Б. Гребневая регрессия и среднеквадратичная ошибкаПриложение 18В. Каноническая форма гребневой регрессииУпражнения к главе 18 Глава 19. Обобщенные линейные модели (GLIM) 19.1. Введение 19.2. Семейство экспоненциальных распределений19.3. Подбор обобщенной линейной модели19.4. Пример вычислений19.5. ЛитератураУпражнения к главе 19Глава 20.Ингридиенты смеси в качестве предикторов 20.1. Эксперименты со смесями: пространство решений20.2. Модели для экспериментов со смесями20.3. Эксперименты по составлению смесей в ограниченной допустимой области20.4. Пример 1 20.5. Пример 220.6. ЛитератураПриложение 20A. Преход от q переменных смешивания к q-1 рабочей переменнойУпражнения к главе 20 Глава 21. Геометрия метода наименьших квадратов21.1. Основы геометрии 21.2. Теорема Пифагора и дисперсионный анализ21.3. Дисперсионный анализ и F-критерии для всей регрессии 21.4. Случай вырожденной матрицы Х'Х: пример 21.5. Ортогонализаиия в случае общей регрессии 21.6. Образ и ядро матрицы М 21.7. Алгебра и геометрия чистой ошибкиПриложение 21А. Обобщенные обратные матрицы Упражнения к главе 21 Глава 22. Больше о геометрии метода наименьших квадратов22.1. Геометрия нуль-гипотезы: простой пример

4

Page 5: 2009_2_r_dreper_regresion_analise

22.2. Общий случай Н0: А = с. Алгебра проекторов22.3. Геометрические иллюстрации 22.4. Геометрия проверки нуль-гипотезы при помощи F-критерия 22.5. Геометрия критерия R2 22.6. Изменение R2 при наличии условия А = 0 не включающего 22.7. Множествення регрессия с двумя оцениваемыми параметрами как последовательность прямолинейных регрессий Упражнения к главе 22 Глава 23. Ортогональные полиномы и сводные данные23.1. Введение23.2. Ортогональные полиномы23.3. Регрессионный анализ сводных данныхУпражнений к главе 23 Глава 24. Приложение множественного регрессионного анализа к задаче анализа дисперсии24.1. Введение24.2. Односторонняя классификация: стандартный анализ и пример24.3. Регрессионный подход к односторонней классификации: пример24.4. Регрессионный подход к односторонней классификации с использованием исходной модели 24.5. Регрессионный подход к односторонней классификации: независимые нормальные уравнения24.6. Двусторонняя классификация с равным количеством наблюдений в ячейках: пример 24.7. Регрессионный подход к двусторонней классификации: пример 24.8. Двусторонняя классификация с равным количеством наблюдений в ячейках24.9. Регрессионный подход к двусторонней классификации с равным количеством наблюдений в ячейках24.10. Двусторонняя классификация: пример24.11. Выводы и комментарииУпражнения к главе 24Глава 25. Введение в нелинейное оценивание25.1. Метод наименьших квадратов для нелинейных моделей25.2. Оценивание параметров нелинейной системы25.3. Пример25.4. Несколько слов о репараметризации модели25.5. Геометрия метода наименьших квадратов в линейном случае25.6. Геометрия метода наименьших квадратов в нелинейном случае25.7. Нелинейные модели роста25.8. Нелинейные модели: другие работы25.9. ЛитератураУпражнения к главе 25Глава 26. Робастная регрессия26.1. Регрессия наименьших абсолютных отклонений (L -регрессия)26.2. М-оwенки 26.3. Пример: занятость в сталелитейной промышленности26.4. Пример исследования роста деревьев26.5. Метод найменьшей медианы квадратов26.6. Робастная регрессия с ранжированием остатков26.7. Другие методы

5

Page 6: 2009_2_r_dreper_regresion_analise

26.8. Мнения и комментарии26.9. ЛитератураУпражнения к главе 26Глава 27. Процедуры тиражирования выборки (бутстреп) 27.1. Процедуры тиражирования выборки для регрессионных моделей 27.2. Пример: подбор прямой линии 27.3. Пример: планарное уравнение, три предиктора27.4. ЛитератураПриложение 27А. Пример программы для системы MINITAB: бутстреп с использованием остатков Приложение 27Б. Пример программы для системы MINITAB: бутстреп с использованием парДополнительные замечанияУпражнения к главе 27 ЛитератураКонтрольные вопросыОтветы к упражнениям Таблицы Список сокращений Предметно-именной указатель

6