Полиномиальная регрессия.ppt
- Количество слайдов: 6
Полиномиальная регрессия
Полиномиальная регрессия. Если в общей многомерной линейной модели регрессии мы положим то получим полиномиальную модель k-той степени (k-го порядка): (1) Известно, что по n наблюдениям можно подобрать точно полином (n -1) - ой степени. Однако при n >5 матрица X, соответствующая (1), становится плохо обусловленной. То есть, например, при предположении, что приблизительно равномерно распределить на отрезке (0; 1) и k=9, получаем: ошибка в при определении одного элемента вектора приводит к ошибке порядка 3 в определении элементов вектора
Один из способов уменьшения влияния плохой обусловленности матрицы - использование полиномов Чебышева. Пусть - полином Чебышева первого рода степени r. Тогда вместо (1) можем рассматривать модель: Полиномы Чебышева можно получить с помощью рекуррентного соотношения: причём Тогда: и т. д.
Отметим, что в вычислительном плане приведенные соотношения почти не отличаются от рекуррентного соотношения Заметим, что одночлены разлагаются по полиномам Чебышева следующим образом: и т. д.
На практике значения обычно “нормируются”, чтобы они приняли значения из отрезка [-1; 1]. Это позволяет увеличить устойчивость численных процедур. Нормирование для значения x имеет вид: Полиномы Чебышева обладают рядом интересных свойств. Например, справедливо соотношение где - нули многочлена
При определённом расположении значений x матрица X имеет приблизительно ортогональные столбцы. При этом у матрицы недиагональные элементы будут относительно малы. Такие матрицы хорошо обусловлены. Заметим, что в задачах, где существенную роль играет именно физическая интерпретация, уместно выразить полученный полином в виде линейной комбинации одночленов, а не полиномов Чебышева.
Полиномиальная регрессия.ppt