Redes Neuronales Recurrentes -...

41
Inteligencia Computacional II Redes Recurrentes Dra. Ma. del Pilar Gómez Gil Ciencias Computacionales, INAOE [email protected] Versión: 8-Junio-2015

Transcript of Redes Neuronales Recurrentes -...

Page 1: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

Inteligencia Computacional II

Redes Recurrentes

Dra. Ma. del Pilar Gómez Gil Ciencias Computacionales,

INAOE [email protected] Versión: 8-Junio-2015

Page 2: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

Presentan retro-alimentación, esto es, la salida de un neurón se usa como entrada a sí mismo, o a otro que eventualmente se conecta a sí mismo.

La salida de la neurona tiene que calcularse usando valores de entrada y salida obtenidos en tiempos anteriores

Presentan características similares a la memoria humana

La operación de estas redes y de los algoritmos que se usan para entrenarlas se caracterizan a través de ecuaciones diferenciales o en diferencia

Redes Neuronales Recurrentes

2

(C) P. Gómez Gil. INAOE 2015

Page 3: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

Neurodinámica

Se refiere al estudio de RNA vistas como sistemas dinámicos

no lineales, dando énfasis en el problema de estabilidad.

La presencia de estabilidad siempre implica alguna forma de

coordinación entre las partes individuales de un sistema.

La estabilidad en redes con retroalimentación global (redes

recurrentes) es difícil de alcanzar.

Fundamentalmente, las redes recurrentes pueden usarse

como memorias asociativas, o como sistemas de entrada-

salida.

[Haykin 2009]

(C) P. Gómez Gil. INAOE 2015 3

Page 4: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

Sistemas dinámicos

Un sistema dinámico es aquel que cambia con

el tiempo

Un sistema dinámico se puede definir con un

modelo en el espacio de estados a través de un

sistema de ecuaciones diferenciales del tipo:

(C) P. Gómez Gil. INAOE 2015 4

))(()( ttdt

dj xFx

Page 5: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 5

Redes recurrentes inspiradas en

Física Estadística

Unidades de cómputo (neurones) no lineales.

Conexiones sinápticas (pesos) simétricas.

Uso abundante de retro-alimentación.

Page 6: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 6

Las Redes de Hopfield

Hopfield conceptualizó las redes neuronales como sistemas dinámicos con energía y mostró su semejanza con ciertos modelos físicos.

Hopfield propuso varios modelos de redes recurrentes. En este tipo de redes, la salida de cada neurón se calcula y se retro-alimenta como entrada, calculándose otra vez, hasta que se llega a un punto de estabilidad.

Supuestamente los cambios en las salidas van siendo cada vez mas pequeños, hasta llegar a cero.

Puede ser que una red recurrente nunca llegue a un punto estable.

Dr. John Hopfield

Page 7: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 7

Dinámica de las Redes

Recurrentes de Hopfield (1/2) Dada una red recurrente de N neurones con

acoplamiento simétrico, esto es wij = wji, donde wij es la

conexión de i a j, la salida del neurón j está dada por la

ecuación:

donde es la no-linealidad de tipo sigmoide del neurón

j.

son funciones en el tiempo.

jjjX

jX

j

j

j

Page 8: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 8

Dinámica de las Redes Recurrentes de

Hopfield (2/2)

Está dada por el conjunto de ecuaciones diferenciales no lineales acopladas del tipo:

Para j = 1,2, ... N

Controla el cambio del potencial (efecto capacitivo).

Pérdidas debido a resistencia en la entrada al elemento j.

j

j

j

jj

N

jii

ji

j

jR

vvW

t

vC

,1

umbralj

jC tv j

jR

Page 9: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 9

Configuración de la Red

Se utiliza principalmente con entradas binarias.

Se puede utilizar como una memoria asociativa, o para resolver problemas de optimización.

Una memoria asociativa o dirigida por contenido es aquella que se puede accesar teniendo una parte de un patrón de entrada, y obteniendo como resultado el patrón completo.

Hopfield también utilizó sus redes para resolver un problema de optimización: El agente viajero. Además construyó una red con circuitos integrados que convierte señales analógicas en digitales.

Page 10: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 10

Modelo Básico de Hopfield

n es el número de nodos en la red.

Las entradas Xo, X1 ... Xn-1 se aplican a la red en el tiempo

t = 0. Pueden tomar valores de +1 ó -1.

Las salidas Uo, U1... Un-1 se van calculando y recalculando, hasta que sus valores ya no cambian. Cuando esto sucede, se tiene la salida de la red, y X’i = Ui para i= 1.. n-1

Page 11: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 11

Algoritmo de Entrenamiento de la red Hopfield

Paso único: Calcule los valores de los pesos que conectan a los nodos,

utilizando la siguiente fórmula:

donde es el peso que va del neurón i al neurón j, y es el valor del i-ésimo elemento de la s-ésima clase; m es el número de clases que se desean aprender. En notación matricial:

Lo que se conoce como el producto externo (outer product) de un vector renglón consigo mismo.

0

1

0

jisi

jisixxt

m

s

jsisij

ijtisx

0 t, ii i

i

T

i XXT

Page 12: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

Algoritmo de evaluación de la red Hopfield

(1/2)

Paso 1. Inicialice la red con un patrón de entrada:

donde n es el número de nodos en la red

(C) P. Gómez Gil. INAOE 2015 12

1ni0XU ii )0(

Page 13: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 13

Algoritmo de evaluación de la red

Hopfield (2/2)

Paso 3. Itere hasta converger siguiendo la siguiente fórmula:

donde F es una función escalón definida como:

Cuando la red converge, su salida representa al patrón que más se parece al

patrón de entrada dado.

cambio)(sin 0 si )(

0 si 1

0 si 1

)(

xtU

x

x

xF

j

1nj0tUtFtUn

i

iijj

))(()1(1

0

Page 14: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 14

Ejemplo

Almacenar en una Red Hopfield los siguientes patrones:

1111

1111

1111

1111

1111

1

1

1

1

1111

1111

1111

1111

1111

1

1

1

1

)1 ,1,1,1(

)1 ,1 ,1 ,1(

22

11

2

1

xx

xx

x

x

T

T

Page 15: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 15

Ejemplo (cont.)

T

diagonalhaciendo

xxxxTTT

0222

2022

2202

2220

0_

,

2222

2222

2222

2222

2211

Page 16: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 16

Ejemplo (cont.) Supongamos que deseamos recuperar el patrón mas cercano a:

En este punto U(1), es igual al U(0), por lo que el sistema ya está estable y el proceso termina.

El patrón mas parecido a A es (1 1 1 -1)

1111 A

AU 0

1111)0(1

6666

0222

2022

2202

2220

1111)0(

TUFU

TU

Page 17: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 17

Ejemplo (cont.)

!12 11112

6666

0222

2022

2202

2220

11111

!01 111101

6222

0222

2022

2202

2220

11110

FINUUU

TU

UUTUFU

TU

2) Ahora hallaremos el patrón mas parecido a 1111 A

Page 18: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 18

Representación del sistema

dinámico de Hopfield

[Zurada 92]

Page 19: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 19

EJEMPLO DE APRENDIZAJE CON HOPFIELD

La siguiente figura, publicada en (Lippman 87), muestra el

resultado obtenido al construir una memoria asociativa utilizando

una red de Hopfield con 120 nodos.

La red fue entrenada con los patrones mostrados en la parte

superior de la figura. Después de entrenada, se le mostró a la

red el número "3", distorsionado de manera aleatoria,

Cambiando cada bit con una probabilidad de 0.25. Este patrón

se aplicó en el tiempo t = 0. Las salidas obtenidas en t = 0 y en

las primeras 7 iteraciones se muestran en la parte posterior de la

figura.

Page 20: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 20

Ejemplo del comportamiento de la

red Hopfield [Lippman 87]

Page 21: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 21

VENTAJAS Y DESVENTAJAS DE LAS REDES DE

HOPFIELD

- Prácticamente no existe tiempo de entrenamiento, ya que este no

es un proceso adaptativo, sino simplemente el cálculo de una matriz

(T).

- Las redes de Hopfield son bastante tolerantes al ruido, cuando

funcionan como memorias asociativas.

- El número de patrones a almacenar (o aprender) es bastante

limitado comparado con el número de nodos en la red. Según

Hopfield, el número de clases a aprender no puede ser mayor de

0.15 veces el número de nodos en la red.

- La red se vuelve inestable si los patrones se parecen entre sí.

Page 22: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

A Hopfield net at hardware

(C) P. Gómez Gil. INAOE 2015

[Zurada 1992]

22

Page 23: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 23

Redes con retrasos

Incluyen memoria introduciendo retrasos de tiempo en

la estructura sináptica de la red y ajustando sus valores

durante el entrenamiento. (Se sabe que en el cerebro

se manejan señales retrasadas).

Un ejemplo de esta metodología es la red "Time Delay

Neural Network" (TDNN) descrita por Lang y Hinton en

1988 y por Waibel en 1989.

Es una red hacia delante de varios niveles cuyos

neurones escondidos y de salida se repiten a través

del tiempo.

Page 24: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

Una red totalmente Recurrente

(c) INAOE 2015

I1

I2 w02

w10

w21

w1

w20

w11

w22

w12

w01 w00

I3

24

Page 25: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 25

Características de un modelo de

red recurrente

El cálculo de la salida yi, de cada neurón i, esta dado por:

donde: Xi representa la entrada total al i-ésimo neurón que viene de otros

neurones,

Ii es la entrada externa al neurón i,

Wji es la conexión del neurón i al neurón j y

es un función diferenciable cualquiera, normalmente una sigmoide:

iiii Ixyt

y

)(

j

jjii ywx

Page 26: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 26

Dinámica del neurón La dinámica del neurón puede expresarse usando

ecuaciones de recurrencia:

Hay varias soluciones a la minimización de E, (por ejemplo, ver

Pearlmutter B.A. "Learning State Space Trayectories in Recurrent

Neural Networks" Neural Computation, Vol. 1 pp. 263-269, 1989).

iiiii Ixty

t

tytty

)()(

)()(

])()([)()( iiiii Ixtyttytty

))()(()()( iiiii Ixtyttytty

Page 27: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(C) P. Gómez Gil. INAOE 2015 27

Entrenamiento de Redes

Recurrentes Hay dos metodologías básicas de entrenamiento de

redes recurrentes:

Retropropagación a través del tiempo. Creada originalmente en

la tesis de P. Werbos (1974), (1990). Redescubierta

independientemente por Rumelhart et al. (1986) y una variación

propuesta por Williams y Peng (1990).

Aprendizaje Recurrente al Tiempo Real (Real Time Recurrent

Learning). Descrito por Williams y Zipsen (1989), los orígenes

del algoritmo fueron dados por McBride y Nardendra (1965)

Page 28: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

BPTT

(C) P. Gómez Gil.

INAOE 2015

Backpropagation through time (BPTT) is

an algorithm that attempts to minimize the

error obtained over a period of time

between the output of a neuron and the

desired value of such output.

It was originally proposed by Werbos

(1990).

28

Page 29: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

ERROR

(C) P. Gómez Gil.

INAOE 2015

The total error in an output neuron is

represented by:

29

Page 30: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

OUTPUT NUERONS

(C) P. Gómez Gil.

INAOE 2015

In a discrete form:

30

Page 31: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

LEARNING

(C) P. Gómez Gil.

INAOE 2015

Pearlmutter (1989) found that the

modification to the weights (learning) can

be described by the equation:

31

Page 32: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

LEARNING (2)

(C) P. Gómez Gil.

INAOE 2015

Using a discrete notation:

32

Page 33: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

(c) INAOE 2015 33

Page 34: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

PEARLMUTTER’S ALGORITHM (1/5)

(C) P. Gómez Gil.

INAOE 2015

Gómez-Gil, 1989

34

Page 35: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

PEARLMUTTER’S ALGORITHM (2/5)

(C) P. Gómez Gil.

INAOE 2015 35

Page 36: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

PEARLMUTTER’S ALGORITHM (3/5)

(C) P. Gómez Gil.

INAOE 2015 36

Page 37: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

PEARLMUTTER’S ALGORITHM (4/5)

(C) P. Gómez Gil.

INAOE 2015 37

Page 38: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

PEARLMUTTER’S ALGORITHM (5/5)

(C) P. Gómez Gil.

INAOE 2015 38

Page 39: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

ALGORITHM TO PREDICT A

TRAJECTORY

(C) P. Gómez Gil.

INAOE 2015 39

Page 40: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

Redes NARX

(C) P. Gómez Gil. INAOE 2015 40

Page 41: Redes Neuronales Recurrentes - ccc.inaoep.mxccc.inaoep.mx/~pgomez/cursos/IC-II/presentaciones/recurr.pdf · (C) P. Gómez Gil. INAOE 2015 11 Algoritmo de Entrenamiento de la red Hopfield

REFERENCES

(C) P. Gómez Gil.

INAOE 2015

Gómez-Gil, P. “The effect of non-linear Dynamic Invariant in the Recurrent Neural Networks for Prediction of Electrocardiograms.” María del Pilar Gómez Gil. PhD dissertation in Computer Science, Texas Tech University. December 1998.

Gómez-Gil P, Ramírez-Cortés JM, Pomares Hernández SE, Alarcón-Aquino V. “A Neural Network Scheme for Long-term Forecasting of Chaotic Time Series” Neural Proceesing Letters. Vol.33, No. 3, June 2011. pp 215-233. Published online: March 8, 2011. DOI: 10.1007/s11063-011-9174-0 (cited at JCR Science Edition—2009). (preliminary PDF)

Pearlmutter, B. (1990). Dynamic Recurrent Neural Networks. Technical Report CMU-CS-90-196. School of Computer Science, Carnegie Mellon University, Pittsburgh MA.

Werbos, P. (1990). Backpropagation Through Time: What it Does and How to Do it”. P IEEE , 74 (10), 1550-1560.

41