пятница, 13 июля 2007 г.

10.12. Остановка обучения по выбранной точности


Теперь проводим экспперимент с остановками на разных уровнях точности.

Будем останавливать обучение на разных степенях точности обучающей выборки.

Смотрим какого уровня доходности удается достигать.

Кроме того усредним будем усреднять рекомендации всех обученных сетей на каждом шаге точности и строить игру. Результаты рисуем пунктиром.
На каждом шаге учим по 10 сетей.






























Как видно из графиков, модель показывает в тесте положительный отрыв по доходности, чего не было в прошлых экспериментах при ограничении валидацией.

Отрыв по доходности игры по усредненной рекомендации выше чем усредненный отрыв доходности всех сетей.


За пределами 0,03 по точности все графики уходят вниз. Там расчеты не велись.


Это хороший результат.

Теперь необходимо выяснить будет-ли расти тестовая выборка вслед за отборочной при использовании технологии ограничения по точности.

четверг, 12 июля 2007 г.

10.11. Автоматический подбор параметров сети.

Теперь попытаемся в пошаговой генетике подобрать параметры сети.

Для этого разобьем выборки как показано на рисунке.





Результаты следующие.


История доходности на тесте.



История доходности на выборке обучение-остановка-отбор.



История изменения коэффициента доли остановочной выборки в выборке обучение-остановка.


История размера выборки обучение-остановка.

История размера скрытого слоя нейронной сети.

История сглаживания прогнозируемого сигнала.


История сглаживаний для входных сигналов.

вторник, 10 июля 2007 г.

10.10.4. Оценка на разных долях обучения и отбора

Теперь посмотрим как может зависеть доходность теста от доли отборочной выборки в общей выборке обучение+отбор.





Можно добавить и это в верхнюю генетику.

10.10.3. Оценка на разных размерах слоев (2-х слойная)

Теперь посмотрим на зависимость от количества нейронов в одном скрытом слое.





10.10.2. Оценка на разных глубинах обучений

Теперь посмотрим зависимость от размера выборки обучения и отбора.

Везде по 25 расчетов с усреднением и вычислением стандартного отклонения.
4/5 выборки для обучения, 1/5 выборки для отбора. Выборки смешаны по случайному равномерному закону.

Для сети с одним скрытым слоем.


Для сети с двумя скрытыми слоями.






Как можно видеть по результатам, есть зависимость от глубины обучения.

10.10.1 Оценка на разных сглаживаниях

Теперь посмотрим как отрыв тестовой доходности может зависеть от величины сглаживания.

Для сети с одним скрытым слоем.


Для сети с двумя скрытыми слоями.



Положительного отрыва достичь не удалось, но есть возвышение на 0,5 и 0,9. При детальном изучении скорее всего удастся получить и положительные результаты.
Варьируя сглаживанием на верхнем уровне можно будет получить лучшие результаты.
Далее будем смотреть зависимости от других параметров.
Делаем дальше.

10.9.2 Смешиваем выборки при автоматической остановке

Теперь смешаем обучающую и отборочную выборки.
Результат ниже.


Теперь обучение стало ближе к тестам. Явного положительного результата не видать.
Но это хорошее направление. Делаем дальше.

10.9 Остановка обучения на разных процентах точности

Пробуем методику автоматической остановки обучения. Останавливаемся в экстремуме ошибки обучения.

Сначала смотрим на общий вид полного обучения с проходом всех эпох.



Теперь останавливаемся при достижении экстремума.




В результате имеем следующую симуляцию игры.




Метод автоматической остановки хорош. На обучении нет сильного отрыва от валидации.
Для хороших результатов в тесте нужно подбирать параметры модели.

Продолжим эксперименты по методу автоматической остановки обучения.

понедельник, 9 июля 2007 г.

Об обобщении и переобучении

Из результатов последних экспериментов стало ясно, что модель сильно переобучается.

На тесте нет таких результатов, как на валидации и обучении. На валидации тоже результаты ниже чем в обучении.

Необходимо отработать технологию получения обобщающих моделей. Необходимо более фундаментально подойти к процессу обучения нейронных сетей.

Возможные пути:
1. Особые подходы к выборкам
2. Фундаментальный подход к обучению