А.Н. Чернодуб

31
А.Н. Чернодуб Прямий метод навчання нейромереж прямого поширення на основі пакетного фільтра Калмана для багатокрокового прогнозування часових рядів ІПММС НАНУ, м. Киев відділ Нейротехнологій 25 квітня 2013 р.

description

А.Н. Чернодуб. Прямий метод навчання нейромереж прямого поширення на основ і пакетного фільтра Калмана для багатокрокового прогнозування часових рядів. ІПММС НАНУ, м. Киев відділ Нейротехнологій. 25 квітня 2013 р. Аннотація. - PowerPoint PPT Presentation

Transcript of А.Н. Чернодуб

Page 1: А.Н. Чернодуб

А.Н. Чернодуб

Прямий метод навчання нейромереж прямого поширення на основі пакетного фільтра Калмана

для багатокрокового прогнозування часових рядів

ІПММС НАНУ, м. Киев відділ Нейротехнологій

25 квітня 2013 р.

Page 2: А.Н. Чернодуб

Аннотація

2

Доклад присвячено темі багатокрокового прогнозування часових рядів. Розглядаються існуючи методи навчання рекурентних і нерекурентних нейромереж для задач багатокрокового прогнозування, в тому числі методи зворотного поширення похибки у часі і метод розширеного фільтра Калмана. Пропонується новий метод навчання мереж прямого поширення на основі пакетної версії фільтра Калмана і спеціального способу обчислення похідних «прогнозуюче поширення у часі». Надано результати експериментів на хаотичному процесі Маккея-Гласса і даних часового ряда «Santa Fe Laser Data Series».

Page 3: А.Н. Чернодуб

Задача ідентифікації

3

Page 4: А.Н. Чернодуб

Нейромережева ідентифікація динамічного об’єкта

4

Page 5: А.Н. Чернодуб

Типи нейронних мереж для вирішення задачі ідентифікації

5

Існує два базових підходи для надання нейронним мережам прямого поширення властивостей, необхідних для обробки динамічних даних:

• додавання ліній затримок до нейромережі;• додавання рекурентних зв'язків до внутрішньої

структури нейронної мережі;

Page 6: А.Н. Чернодуб

Динамічная лінійна нейронна мережа (DLNN)

6Обчислення похідних для навчання: зворотне проширення похибки (Backpropagation)

Page 7: А.Н. Чернодуб

7Обчислення похідних для навчання: зворотне проширення похибки (Backpropagation)

Динамічний багатошаровий персептрон (DMLP)

Page 8: А.Н. Чернодуб

Рекурентний багатошаровий персептрон (RMLP)

8Обчислення похідних для навчання: зворотне проширення у часі (BPTT)

Page 9: А.Н. Чернодуб

Cхема обчислення динамічних похідних BPTT для мережі RMLP

9Обчислення похідних для навчання: зворотне проширення у часі (BPTT)

Page 10: А.Н. Чернодуб

Нейромережа нелінійної авторегресії із зовнішніми входами (NARX)

10Обчислення похідних для навчання: зворотне проширення у часі (BPTT)

Page 11: А.Н. Чернодуб

Cхема обчислення динамічних похідних BPTT для мережі NARX

11Обчислення похідних для навчання: зворотне проширення у часі (BPTT)

Page 12: А.Н. Чернодуб

Cхема обчислення динамічних похідних BPTT для мережі NARX

12Обчислення похідних для навчання: зворотне проширення у часі (BPTT)

Page 13: А.Н. Чернодуб

Порівняння різних типів архітектур нейронних мереж

13

Усього для кожного з часових рядів було навчено 10 мереж DLNN, 1100 мереж DMLP, 2750 мереж NARX з різними параметрами кількості нейронів у прихованому шарі, вхідних та вихідних затримок.

Page 14: А.Н. Чернодуб

Результати кращіх нейромереж на задачі однокрокового прогнозування

14

Page 15: А.Н. Чернодуб

Навчання нейромереж методом розширеного фільтра Калмана

15

Page 16: А.Н. Чернодуб

Задача багатокрокового прогнозування

16

Page 17: А.Н. Чернодуб

Обчислення похідних методом «прогнозуюче поширення в часі»

17

Page 18: А.Н. Чернодуб

Багатокрокове прогнозування різними типами нейромереж

18

Page 19: А.Н. Чернодуб

Пакетна версія метод розширеного фільтра Калмана для навчання

нейромереж

19

Page 20: А.Н. Чернодуб

Експеримент з прогнозування рядів Маккея-Гласса на горизонт H=14

20

Page 21: А.Н. Чернодуб

Експеримент з прогнозування даних лазера «Санта-Фе» H=100

21

Page 22: А.Н. Чернодуб

Система магнітної левітації

22

Page 23: А.Н. Чернодуб

Програмна модель системи магнітної левітації в Simulink

23

Page 24: А.Н. Чернодуб

Схема з пропусканням похибки через нейроемулятор у режимі

реального часу: навіщо?

24

Page 25: А.Н. Чернодуб

Поведінка навчених нейроемуляторів

25

Page 26: А.Н. Чернодуб

Схема PID-управління

26

Page 27: А.Н. Чернодуб

Результати оптимізації PID-контролерів: 1) Оригінальна модель Simulink

27

Page 28: А.Н. Чернодуб

Результати оптимізації PID-контролерів: 2) Нейроемулятор DMLP + EKF + BP

28

Page 29: А.Н. Чернодуб

Результати оптимізації PID-контролерів: 3) Нейроемулятор DMLP + BEKF + FPTT

29

Page 30: А.Н. Чернодуб

Результати оптимізації PID-контролерів

30

Page 31: А.Н. Чернодуб

Дякую за увагу!

31