четверг, 9 августа 2007 г.

12.01. Первые прогнозы (исследуем шумы)

В связи с неудачами прогнозировать курсы финансовых инструментов делаем возврат.
Поучимся прогнозировать простые вещи.
Пусть есть два сигнала. Второй сигнал - это первый с добавлением некоторого шума.
Первый сигнал генерируем как случайный по нормальному закону с нормой равной 1.
Разделим данные на две равные выборки - обучающую и тестовую. На тестовой выборке сделаем шум равным нулю. Будем учить прогнозировать из первого сигнала второй на обучающей выборке. А на тестовой посмотрим как точно она угадывает закон.
Учим на нейронной сети. Перед подачей на нейронную сеть сигналы нормируем по logsig к равномерному распределению.
Результат (в равномерном представлении) при разных значениях шума ниже.


По горизонтали - исходный второй сигнал, по вертикази - результат прогнозирования.
Синим показана обучающая выборка, красным тестовая, зеленым - идеал к которому стремимся.
Как видно из результатов, модель угадывает закон даже при больших шумах.
только сильно сжимается при повышении шума. Для устранения этого эффекта нужно поработать с нормированием сигнала.
Выводы.
Раз сеть так хорошо может отделаться от шума нужно использовать это ее свойство.
Значит нужно отфильтровывать шум при помощи сети.
Для этого можно взять комптентную сеть, подать на ее входы все сигналы. Обучить ее.
Затем просимулировать и взять значения к которым она сошлась.
Эти значения будут без шума.
Остается только подобрать сложность такой сети.

пятница, 20 июля 2007 г.

Об устаревании модели

На тесте нет хорошего результата.
Возможно модель устаревает доходя до теста.
Тест слишком далеко от обучения.
Можно использовать смешивание отборочной и обучающих выборок.
Нужно провести эксперименты по исследованию устаревания модели.
На разных уровнях точности учим модель и смотрим результат теста для разных глубин тестовой выборки.

10.13.1. Автоматический поиск с ограничением по точности в комитетах (нейроны,точность)
















пятница, 13 июля 2007 г.

10.12. Остановка обучения по выбранной точности


Теперь проводим экспперимент с остановками на разных уровнях точности.

Будем останавливать обучение на разных степенях точности обучающей выборки.

Смотрим какого уровня доходности удается достигать.

Кроме того усредним будем усреднять рекомендации всех обученных сетей на каждом шаге точности и строить игру. Результаты рисуем пунктиром.
На каждом шаге учим по 10 сетей.






























Как видно из графиков, модель показывает в тесте положительный отрыв по доходности, чего не было в прошлых экспериментах при ограничении валидацией.

Отрыв по доходности игры по усредненной рекомендации выше чем усредненный отрыв доходности всех сетей.


За пределами 0,03 по точности все графики уходят вниз. Там расчеты не велись.


Это хороший результат.

Теперь необходимо выяснить будет-ли расти тестовая выборка вслед за отборочной при использовании технологии ограничения по точности.

четверг, 12 июля 2007 г.

10.11. Автоматический подбор параметров сети.

Теперь попытаемся в пошаговой генетике подобрать параметры сети.

Для этого разобьем выборки как показано на рисунке.





Результаты следующие.


История доходности на тесте.



История доходности на выборке обучение-остановка-отбор.



История изменения коэффициента доли остановочной выборки в выборке обучение-остановка.


История размера выборки обучение-остановка.

История размера скрытого слоя нейронной сети.

История сглаживания прогнозируемого сигнала.


История сглаживаний для входных сигналов.

вторник, 10 июля 2007 г.

10.10.4. Оценка на разных долях обучения и отбора

Теперь посмотрим как может зависеть доходность теста от доли отборочной выборки в общей выборке обучение+отбор.





Можно добавить и это в верхнюю генетику.