@khrisanfov
Программист

Kaggle, конкурс Titanic. Test Accuracy 0.87, лидерборд 0.75 почему?

Тренирую модель в R с помощью caret. Разделил данные на обучающую и тестовую выборку (80/20). Обучил модель используя repeated кросс-валидацию 5x10. Получил точность предсказаний при кросс-валидации в районе 0.85 со стандартным отклонение около 0.02. Затем применил модель на тестовой выборке и получил точность: 0.8701, 95% CI : (0.8114, 0.9158). Как же так получается, что предсказания на тестовой выборке и кросс-валидация говорит мне что я в самом худшем случае получу точность в районе 0.80, а когда загружаю решение то получаю 0.75? Такая ситуация происходит с тремя моделями: Random Forest, CatBoost и XGBoost. Получается, что обучающая выборка и тестовая выборка это разные популяции? Тогда какой смысл конкурса?
  • Вопрос задан
  • 501 просмотр
Пригласить эксперта
Ответы на вопрос 1
angrySCV
@angrySCV
machine learning, programming, startuping
хех чувак, если бы обучающая и тестовая выборка были одинаковые, тогда можно было просто загрузить ответы из обучающей выборки в тест и не морочить голову, получив 100% верный результат.
смысл конкурса, научится строить модель которая работает в ОБЩЕМ случае, для любых примеров данных.
П. С.
ты свою модель подгоняешь под свои тестовые данные, в итоге если результаты на других тестовых данных получаются сильно хуже - то это говорит лишь о том что ты переподогнал свою модель под свои тестовые данные, и она хуже работает в общем случае.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы