На тесте нет хорошего результата.
Возможно модель устаревает доходя до теста.
Тест слишком далеко от обучения.
Можно использовать смешивание отборочной и обучающих выборок.
Нужно провести эксперименты по исследованию устаревания модели.
На разных уровнях точности учим модель и смотрим результат теста для разных глубин тестовой выборки.
пятница, 20 июля 2007 г.
четверг, 19 июля 2007 г.
пятница, 13 июля 2007 г.
10.12. Остановка обучения по выбранной точности
Теперь проводим экспперимент с остановками на разных уровнях точности.
Будем останавливать обучение на разных степенях точности обучающей выборки.
Смотрим какого уровня доходности удается достигать.
Кроме того усредним будем усреднять рекомендации всех обученных сетей на каждом шаге точности и строить игру. Результаты рисуем пунктиром.
На каждом шаге учим по 10 сетей.




Как видно из графиков, модель показывает в тесте положительный отрыв по доходности, чего не было в прошлых экспериментах при ограничении валидацией.
Отрыв по доходности игры по усредненной рекомендации выше чем усредненный отрыв доходности всех сетей.
За пределами 0,03 по точности все графики уходят вниз. Там расчеты не велись.
Это хороший результат.
Теперь необходимо выяснить будет-ли расти тестовая выборка вслед за отборочной при использовании технологии ограничения по точности.
четверг, 12 июля 2007 г.
10.11. Автоматический подбор параметров сети.
Теперь попытаемся в пошаговой генетике подобрать параметры сети.
Для этого разобьем выборки как показано на рисунке.
Результаты следующие.
История доходности на тесте.
История доходности на выборке обучение-остановка-отбор.
История изменения коэффициента доли остановочной выборки в выборке обучение-остановка.
История размера скрытого слоя нейронной сети.
вторник, 10 июля 2007 г.
10.10.4. Оценка на разных долях обучения и отбора
Теперь посмотрим как может зависеть доходность теста от доли отборочной выборки в общей выборке обучение+отбор.


Подписаться на:
Сообщения (Atom)