Почему модель, обученная на главных компонентах, работает существенно хуже, чем обученная на истинных предикторах?

Для некоторого набора предикторов после анализа главных компонент были получены новые предикторы, описывающие примерно 99% вариаций исходных данных. Была обучена модель (не знаю, важно ли это, но это было регрессионное дерево решений) на исходных предикторах и на главных компонентах. Качество модели на главных компонентах получилось примерно на 17% хуже, чем на исходных предикторах. В чем причина, ведь главные компоненты описывают практически всю картину в данных?
  • Вопрос задан
  • 213 просмотров
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы
19 апр. 2024, в 03:01
1000 руб./за проект
18 апр. 2024, в 21:56
2000 руб./за проект
18 апр. 2024, в 21:00
150 руб./за проект