Pilhas e Filas. 2 Sumário Definição Pilhas Filas Implementação Java Implementação C++
Teoria das filas. Introdução Por que aparecem as filas? Não é eficiente, nem racional, que cada...
Transcript of Teoria das filas. Introdução Por que aparecem as filas? Não é eficiente, nem racional, que cada...
Teoria das filasTeoria das filas
IntroduçãoIntrodução
Por que aparecem as filas? Não é eficiente, nem racional, que cada um
disponha de todos os recursos individualmente. Por exemplo: que cada pessoa disponha do uso exclusivo de
uma rua para se movimentar que cada pessoa tenha um supermercado para o
seu abastecimento exclusivo Recursos limitados devem ser compartilhados.
IntroduçãoIntrodução
Ao compartilhar recursos, pode acontecer que no momento em que se queira fazer uso de um recurso, este esteja ocupado, necessidade de esperar aparecem as filas
Exemplo: nos sistemas de fluxo pode acontecer a formação de filas
Sistemas de fluxoSistemas de fluxo
Um fluxo é o movimento de alguma entidade através de um ou mais canais de capacidade finita para ir de um ponto a outro.
Capacidade finita significa que o canal só pode satisfazer a demanda a uma taxa finita.
Exemplos: fluxo de automóveis (entidades) através de uma
rede de caminhos (canais) transmissão de mensagens telefônicas
(entidades) através da rede (canal)
Sistemas de fluxoSistemas de fluxo
Se dividem em duas classes: Determinísticos: sistemas no qual o
comportamento da demanda de serviço é totalmente previsível, isto é, a quantidade de demanda é exatamente conhecida sobre o intervalo de interesse.
Aleatório: não é possível predizer como vai se comportar a demanda de serviço, por exemplo, o instante de chegada de uma demanda é imprevisível.
Sistemas de fluxoSistemas de fluxo
Exemplo de fluxo determinístico: Seja r a taxa de chegada (constante) de pacotes
em uma rede de comutação a um buffer. Seja c a taxa (constante) com que esses pacotes
são processados em cada nó. Se r > c, o buffer do nó é inundado com
pacotes, já que o número de pacotes em espera de serviço crescerá indefinidamente.
Se r < c, se tem um fluxo estável, o número de pacotes em espera de serviço é finito.
Sistemas de fluxoSistemas de fluxo
Exemplo de fluxo aleatório: Um centro de computação em que as
solicitações de impressão podem chegar em instantes imprevisíveis.
Quando um trabalho de impressão chega, pode ser que o servidor esteja atendendo outro e seja necessário esperar.
Se está desocupado, pode atender imediatamente à nova solicitação de impressão até que esta fique completa.
Representação de uma fila
1
2
m
Fila
Servidores
Chegadas ao sistema
Saídas dosistema
sistema
Teoria das filasTeoria das filas
Teoria das filasTeoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição dotempo entre chegadas
Alguns valores de A mais comuns:
M: denota distribuição exponencial equivalente (M provém de Markoviano)
G: distribuição geral
D: representa um tempo fixo (determinístico)
Teoria das filasTeoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição dotempo entre chegadas
distribuição dotempo de serviço
Alguns valores de B mais comuns:
M: denota distribuição exponencial equivalente (M provém de Markoviano)
G: distribuição geral
D: representa um tempo fixo (determinístico)
Teoria das filasTeoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição dotempo entre chegadas
distribuição dotempo de serviço
número deservidores
Teoria das filasTeoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição dotempo entre chegadas
distribuição dotempo de serviço
número deservidores
número máximo de clientes permitidos
no sistema
K é omitido quando:
K =
Teoria das filasTeoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição dotempo entre chegadas
distribuição dotempo de serviço
número deservidores
número máximo de clientes permitidos
no sistema
tamanho da população
m se omite quando:
m =
Teoria das filasTeoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição dotempo entre chegadas
distribuição dotempo de serviço
número deservidores
número máximo declientes permitidos
no sistema
tamanho da população
disciplina de serviço
Z se omite quando:
= FIFO
Teoria das filasTeoria das filas
Notações usadas nos sistemas de filas: Ci: i-ésimo usuário que entra ao sistema.
ri: tempo de chegada de Ci
ti: tempo entre as chegadas de Ci-1 e Ci (ti = ri - ri-1) A(t): distribuição do tempo entre chegadas =
P[tit]
xi: tempo de serviço para Ci
B(x): distribuição do tempo de serviço = P[xi x]
wi: tempo de espera na fila de Ci
se: tempo no sistema (fila mais serviço) de Ci (se = wi + xi)
Teoria das filasTeoria das filas
Notação de filas em diagrama temporal
Ci-1 Ci Ci+1 Ci+2
se
ri ri+1 ri+2
wi xi xi+1 xi+2
Ci Ci+1 Ci+2
ti+1 ti+2
Tempo
Servidor
Fila
Ci Ci+1 Ci+2
Teoria das filasTeoria das filas
Notações usadas nos sistemas de filas (cont.) Ek: estado do sistema (normalmente
corresponde ao número de usuários no sistema) ktaxa média de chegada dos usuários ao
sistema, quando este se encontra no estado k k: taxa média de serviço quando o sistema se
encontra no estado k
Teoria das filasTeoria das filas
Outros parâmetros de uma fila: N(t): número de usuários no sistema no instante t L = E[k]: número médio de usuários no sistema
(em estado estacionário) LQ: número médio de usuários na fila (em
estado estacionário). T = E[s]: tempo médio de permanência de um
usuário no sistema = E[k]/ (fórmula de Little)
Teoria das filasTeoria das filas
Cadeias de Markov discretasCadeias de Markov discretas
Cadeias de Markov discretasCadeias de Markov discretas
Markov estabeleceu uma simples e útil relação entre as variáveis aleatórias que forman processos estocásticos
DefiniçõesDefinições
Estado: se Xn= i diz-se que o processo está no estado i no instante n, onde {Xn, n=0,1,2...} é um processo estocástico que passa por um número finito ou contável de possíveis estados.
Transição: a transição de um estado a outro depende somente do estado atual, e não da história do processo
ObservaçõesObservações
No caso das cadeias discretas de Markov, os instantes de tempo nos quais a transição entre um estado e outro acontecem podem asumir apenas valores inteiros 0, 1, 2..., n. Em outras palavras, o tempo é discretizado.
Os processos devem permanecer num estado determinado durante um tempo que deve estar geométricamente distribuído.
³0
Propriedade Markoviana:
P{Xn+1 = j | Xn = i, Xn-1= in-1,... X0 = i0}
=P{Xn+1 = j | Xn = i} = Pij 0
Interpretação (sistema sem memória):
A transição de um estado para outro só depende do estado atual, e não da história do processo.
ObservaçõesObservações
Cadeias de Markov discretasCadeias de Markov discretas
1 2 3 4 5
Curicó Rancagua Santiago Valparaíso Serena
t
Me leva?
Xn denota a cidade na qual encontra-se o turista ao meio-dia no dia n
...
X1 X2 X3 X4 X5
Cadeias de Markov discretasCadeias de Markov discretas
1 2 3 4 5
Curicó Rancagua Santiago Valparaíso Serena
t
Me leva?
...
Cadeias de Markov discretasCadeias de Markov discretas
1 2 3 4 5
Curicó Rancagua Santiago Valparaíso Serena
t
Me leva?
...
Cadeias de Markov discretasCadeias de Markov discretas
1 2 3 4 5
Curicó Rancagua Santiago Valparaíso Serena
t
Me leva?
...
Cadeias de Markov discretasCadeias de Markov discretas
1 2 3 4 5
Curicó Rancagua Santiago Valparaíso Serena
Continuarei mais aoNorte?
t
...
Da minha viagem,n posso lhes dizer que:
Nos processos de Markov, o estado atual do sistema e as probabilidades de transição entre os diversos estados caracterizam o comportamento futuro do sistema.
Já que um processo de Markov está num estado determinado, seu comportamento futuro não depende de sua história antes de chegar a esse estado.
Cadeias de Markov discretasCadeias de Markov discretas
Y t i
DefiniçõesDefinições
Cadeias de Markov são processos estocásticos {X(t)} que satisfazem:
pij: probabilidade de transição do estado i para o estado j depende somente do estado i
P=[pij]: matriz de probabilidade de transição
: tempo em que o processo permanece no estado i, sem memória
Santiago
Valpo
Serena
1/4
3/4
1/4
1/4
1/4
3/4
1/2(0)
(2)
(1)
Considerando-se apenas o trajeto Santiago-Valparaíso-Serena, tem-se graficamente:
ExemploExemplo
Santiago
Valpo
Serena
1/4
3/4
1/4
1/4
1/4
3/4
1/2(0)
(2)
(1)
Números nos arcos dão a probabilidade pij do viajante ser recolhido por um carro
Probabilidade do viajante permanecer em Serena até o dia seguinte é 1/2
Números entre parênteses usados posteriormente
Matriz de probabilidades de transição:
Santiago
Valpo
Serena
1/4
3/4
1/4
1/4
1/4
3/4
1/2(0)
(2)
(1)
P=[ 0 3/4 1 /41 /4 0 3 /41 /4 1/4 1 /2 ]
1
2
3
Estados 1 e 2 são transientes
DefiniçõesDefinições
Num processo de Markov, se diz que um estado Sj é transiente se, de algum estado Sk que pode ser alcançado desde Sj, o sistema não pode voltar a Sj. A probabilidade de não voltar a si mesmo existe.
1
2
3
Estados 1, 2 e 3 são recorrentes
DefiniçõesDefinições
Se diz que um estado é recorrente se de cada estado Sk alcançável a partir de Sj, o sistema pode voltar a Sj.
Cadeias de Markov discretasCadeias de Markov discretas Exemplo 1: “predição do tempo” Dois estados possíveis:
0: chuva
1: não chuva Hipótese: o tempo amanhã só depende de hoje
(processo sem memória) Chove hoje probabilidade de chover amanhã
= Não chove hoje probabilidade de chover
amanhã =
P=[α 1−αβ 1−β ]
0 10
1
Graficamente:
0 1αβ
1−α 1− β
Cadeias de Markov discretasCadeias de Markov discretas Cadeia de Markov fica definida por:
Andar 3
Andar 2
Andar 1
Estados:
E
Cadeias de Markov discretasCadeias de Markov discretas Exemplo 2: “transformar um processo não-
Markoviano em Markoviano (às vezes é possível)”
Considere-se um elevador em um prédio de três andares:
Cadeias de Markov discretasCadeias de Markov discretas
Processo não-Markoviano, porque no estado 2 é necessária a informação do estado anterior (1 ou 3) para saber qual será a direção do elevador.
Para que o processo seja Markoviano, se faz necessária uma redefinição dos estados.
1: Andar 2, sentido acima
Redefinição dos estados:
E
0: Andar 1, sentido acima
2: Andar 3, sentido abaixo
3: Andar 2, sentido abaixo
Cadeias de Markov discretasCadeias de Markov discretas Exemplo 2: “transformar um processo não-
Markoviano em Markoviano (às vezes é possível)”
0
111
1
0: andar 1, sentido acima 1: andar 2, sentido acima
2: andar 3, sentido abaixo 3: andar 2, sentido abaixo
1 2 3
Cadeias de Markov discretasCadeias de Markov discretas
Da redefinição obtém-se o novo diagrama de estados:
Cadeias de Markov discretasCadeias de Markov discretas
Exemplo 2.1: “transformar um processo não-Markoviano em Markoviano (às vezes é possível)”
Choveu, choveu amanhã choverá: p=0,7 Não-choveu, choveu amanhã choverá: p=0,5 Choveu, não choveu amanhã choverá: p=0,4 Não choveu, não choveu amanhã choverá:
p=0,2
Usando a definição anterior NÃO é processo de Markov
Cadeias de Markov discretasCadeias de Markov discretas Exemplo 2.1: “transformar um processo não-
Markoviano em Markoviano (às vezes é possível)”
Motivo: há contradição; precisa-se de informação não só do dia presente, mas também do anterior.
Redefinição de estados: se o estado depende do tempo de ontem e hoje então SIM, pode ser Markoviano
Para transformar um processo não-Markoviano em Markoviano (se possível), devem ser redefinidos os estados de maneira adequada.
Cadeias de Markov discretasCadeias de Markov discretas
Exemplo 2.1: “transformar um processo não- Markoviano em Markoviano (às vezes é possível)”
Portanto, se são redefinidos os seguintes estados:
0: Choveu, choveu
1: Não choveu, choveu
2: Choveu, não choveu
3: Não choveu, não choveu
Cadeias de Markov discretasCadeias de Markov discretas
0: Choveu, choveu 1: Não choveu, choveu
2: Choveu, não choveu 3: Não choveu, não choveu
Estados:
P=[0,7 0 0,3 00,5 0 0,5 00 0,4 0 0,60 0,2 0 0,8
]Cadeia de Markov definida pela matriz de probabilidade de transição:
DefiniçõesDefinições
i = probabilidade estacionária de estar no estado i
i(n) = probabilidade de estar no estado I no
instante n i
(0) = probabilidade inicial de estar no estado i
=(0, 1, 2, …, n)
Por definição: ∏ 1 =∏ 0 P
Exemplo:
Aplicando recursivamente:
ou
[∏ 01∏ 1
1 ]= [∏ 00 ∏ 1
0 ][P00 P01
P10 P11 ]
∏ n =∏ n−1 P
∏ n =∏ 0 P n
DefiniçõesDefinições
∏ =∏ P
∏ = limn¥
∏ 0 P n
DefiniçõesDefinições Se a cadeia de Markov é irredutível e ergódica,
então:
existe e é denominada a probabilidade límite de P, ou autovetor esquerdo de P.
Obtenção de :
P=[0.7 0 .30 .4 0 .6 ]
Exemplo 3: utilizando o exemplo 1, se a probabilidade de que choverá hoje é 0.2 e
Qual é a probabilidade incondicional de que amanhã choverá?
Cadeias de Markov discretas
j= 0 . 2P000 . 8P10
j= 0 . 2⋅0 . 7 0 .8⋅0 . 4= 0 . 46
Aplicando o teorema da probabilidade total:
seja a probabilidade incondicional de que choverá amanhã.
= P(amanhã choverá | hoje choveu) +
P(amanhã choverá | hoje não choveu)
Cadeias de Markov discretasCadeias de Markov discretas
Exemplo 4: utilizando o exemplo 1
Se e então a probabilidade límite de que choverá é
∏ 0=α∏ 0β∏ 1
∏ 1=1−α ∏ 01−β ∏ 1
[∏ 0∏ 1 ]=[∏ 0∏ 1 ][α 1−αβ 1−β ]
α =0 . 7β=0 . 4
1=∏ 0∏ 1
Cadeias de Markov discretasCadeias de Markov discretas
∏ =[∏ 0∏ 1 ]= [4/7 3 /7 ]
Santiago
Valpo
Serena
1/4
3/4
1/4
1/4
1/4
3/4
1/2(0)
(2)
(1)Me leva?
Cadeias de Markov discretasCadeias de Markov discretas
Voltando ao exemplo do turista:
P=[ 0 3/4 1 /41 /4 0 3 /41 /4 1/4 1 /2 ]
∏ =[∏ 0 ∏ 1 ∏ 2 ]
Do diagrama de estados pode obter-se a matriz de probabilidades de transição
definindo-se a matriz de probabilidade como:
Cadeias de Markov discretas
Considerando-se a relação
obtém-se que
com
Cadeias de Markov discretasCadeias de Markov discretas
∏ =∏ P
∏ 0=0⋅∏ 014∏ 1
14∏ 2
∏ 1=34∏ 00⋅∏ 1
14∏ 2
∏ 2=14∏ 0
34∏ 1
12∏ 2
1=∏ 0∏ 1∏ 2
Resolvendo-se as equações obtém-se as probabilidades em estado de equilíbrio:
Cadeias de Markov discretasCadeias de Markov discretas
∏ 0=15=0.20
∏ 1=725
=0.28
∏ 2=1325
=0.52
Cadeias de Markov de Cadeias de Markov de tempo contínuotempo contínuo
Cadeias de Markov deCadeias de Markov detempo contínuotempo contínuo
Definição: uma cadeia de Markov de tempo contínuo é um processo aleatório em que, dado o estado presente, o valor do processo no futuro não depende do passado.
É como uma cadeia de Markov discreta, com a diferença de que o tempo de permanência em um estado é uma variável aleatória com distribuição exponencial.
Cadeias de Markov deCadeias de Markov detempo contínuotempo contínuo
Evolução a partir de um estado:
i
j
k
λ ij
λ ik
λ ijλ ik
: taxa média de saída do estado i para o estado j: taxa média de saída do estado i para o estado k: probabilidade de transitar do estado i ao estado j, no momento da transição
Pij
Cadeias de Markov deCadeias de Markov detempo contínuotempo contínuo
Definição: tij (tik): tempo de permanência no estado i antes
de transitar para j (k), caso passe para j(k). tij e tik são variáveis aleatórias com distribuição
exponencial de parâmetros ij e ik respectivamente.
Seja t o tempo de permanência no estado i. Do anterior se deduz que :
t = min { tij , tik }
t se distribui exponencialmente com parâmetro ( ij+ ik)
⇒
Cadeias de Markov deCadeias de Markov detempo contínuotempo contínuo
Propriedades:
O tempo de permanência em um estado é Markoviano (processo sem memória)
A escolha do próximo estado se efetua no instante da transição e só depende do estado atual e não do passado, portanto é Markoviano.
Cadeias de Markov deCadeias de Markov detempo contínuotempo contínuo
Dado que o tempo de permanência em qualquer estado e a escolha do próximo estado são Markovianos, então tem-se uma cadeia de Markov de parâmetro contínuo.
As variáveis aleatórias “tempo de permanência no estado i” e “próximo estado visitado” são independentes.
Cadeias de Markov deCadeias de Markov detempo contínuotempo contínuo
Definição formal:
Um processo aleatório X(t) é uma cadeia de Markov de tempo contínuo se:
P {X ts = j∣X s = i , X u =x u , 0≤u s }
=P {X t s = j∣X s = i }
Cadeias de Markov deCadeias de Markov detempo contínuotempo contínuo
Exemplo : processo de Poisson
t t+s
N(t+s) = j
N(t) = i
j-i arribos
N(t): estado no instante t N(t): número de chegadas
até t
P {N ts = j /N t =i ,N u =X u 0≤u≤t }=P {N ts = j /N t = i}=P { j−i chegadas em t , ts ]}
Nt
t
j-i chegadas
O que é resolver uma cadeia de O que é resolver uma cadeia de Markov?Markov?
É encontrar as probabilidades de transição de qualquer estado i a qualquer estado j em um dado instante.
Para resolver este problema se utilizará o princípio do balanço global
Princípio de balanço globalPrincípio de balanço global
i
p1 λ1i
pk λki
p2 λ2i
p i λ i1
p i λ i2
pi λ ij
. . . . . .
Definições:
Princípio de balanço globalPrincípio de balanço global
k: probabilidade em regime estacionário de estar no estado k
Outra interpretação: fração de tempo que o sistema fica no estado k.
Unidad de t iem po
pk
Definições:
+ +
Unidad de tiempo
pk
Unidade de tempoUnidade de tempo
Princípio de balanço globalPrincípio de balanço global
k(t): probabilidade de estar no estado k no
instante t
ki: taxa média de transição do estado k para o
estado i
k· ki: número médio de transições do
estado k ao estado i, por unidade de tempo.
Definições:
limt¥
pk t =pk
Princípio de balanço globalPrincípio de balanço global
i
p1 t λ1iDt
pk t λ ki Dt
p i t λ i1 Dt
p i t λ ij Dt
. . . . . .
Número médio de entradas de qualquer estado k ao estado i em t
número médio de saídas do estado i a qualquer estado j em t
Princípio de balanço globalPrincípio de balanço global
Número de entradas totais ao estado i emt:
Número de saídas totais desde o estado i em t:
∑k
pk t λki Dto Dt
∑j
pi t λij DtoDt
Princípio de balanço globalPrincípio de balanço global
Balanço de fluxos
Entradas líquidas médias por unidade de tempo (EN)
número médio de entradas totais por unidade de tempo
número médio de saídas totais por unidade de tempo
= -
Considerando-se o número de entradas líquidas em um intervalo t, se tem que:
EN⋅Dt= ∑k¹i p k t λki−∑j¹i
p i t λ ijDto Dt
Princípio de balanço globalPrincípio de balanço global
Unidad de t iem po
+ +
+ +
pi t
pi tDt
EN⋅Dt=p i tDt −p i t o Dt ¿Dp i t oDt
pi t
O número de entradas líquidas em t pode ser interpretado como:
Unidade de tempo
Princípio de balanço globalPrincípio de balanço global
Usando-se novamente o balanço de fluxos:
(1)
Variação do tempo de permanência no estado i, por unidade de tempo
número de entradas totais em t
número de saídas totais em t
= -
Dp i t = ∑k¹i pk t λki−∑j¹i
p i t λ ijDto Dt
Esta variação pode expressar-se em forma da equação de diferenças:
Princípio de balanço globalPrincípio de balanço global
Dp i t
Dt=∑
k¹ipk t λki−∑
j¹ipi t λij
oDt Dt
Dividindo por t em (1):
Tomando-se o limite em (2):limDt0
(2)
¶pi t
¶t=∑
k¹ipk t λkip i t −∑j¹i λ ij (3)
“ Equação de balanço global para o estado i”
Princípio de balanço globalPrincípio de balanço global
¶pi t
¶t=∑
k¹ipk t λki−∑
j¹ipi t λij
¶pi t
¶t=[ p0 t . ..p i t . .. pn t ][
λ0i:−∑
j¹i
λij
:λni
]
Equação de balanço global para um estado i qualquer:
Pode-se reescrever em forma vetorial da seguinte maneira:
Princípio de balanço globalPrincípio de balanço global
p t = [p 0 t . . . p i t . . . pn t ]
Q= [−∑
j¹0λ0j .. . λ0i . . . λ0n
: : :λi0 .. . −∑
j¹iλij . . . λin
: : :λn0 .. . λni . . . −∑
j¹nλnj
]¶p t ¶t
=[ ¶p0 t
¶t.. .
¶pi t
¶t. ..
¶pn t
¶t ]
Definindo-se:
Equações de balanço globalEquações de balanço global
O conjunto das equações de balanço global pode expressar-se em forma matricial como:
¶p t ¶t
=p t Q
Além disso, sempre:
∑i
pi t =1
“Equações de balanço global”
Equações de balanço globalEquações de balanço global
Em estado estacionário se tem que:
fluxo de entrada = fluxo de saída
pQ= 0
“Equações de balanço global em estado estacionário”
∑i
pi=1
Equações de balanço globalEquações de balanço global
Os conjuntos de equações anteriores servem
para resolver tanto a situação transiente como
estacionária da cadeia de Markov. Isto é, nos
permite encontrar as probabilidades de
transição de qualquer estado i a qualquer
estado j num intervalo t qualquer (Pij(t)).
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
Uma máquina funciona uma quantidade de tempo exponencialmente distribuída com média 1/Quando falhase repara com a mesma distribuição em um tempo médio 1/. Inicialmente, a máquina encontra-se funcionando.
Deseja-se determinar a probabilidade de que a máquina esteja funcionando em um instante t dado. Inicialmente a máquina se encontra operacional.
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
0 1
EnReparación
Operacional
m
λ
Se tem que :
λ01= λ λ10=m
p 0 = [ p0 0 p1 0 ]= [1 0 ] Condições iniciais:
Em reparo
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
¶p t ¶t
=[ p0 t p1 t ][−λ λm −m ]
p0 t p1 t =1
Equações de balanço global estabelecem que:
¶pi t
¶ t=∑
k¹ipk t λkip i t −∑j¹i λ ijk , i , j=0,1
Forma escalar da equação anterior é:
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
¶p0 t
¶t=- p0t λ p1 t m
¶p1 t
¶t=p0 t λ−p1 t m
p0 t p1 t =1
(4)
(5)
(6)
Portanto:
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
p0 t =m
mλ λ
m λe−mλ t
Resolvendo (4), (5) e (6), obtém-se:
p1 t =λ
mλ− λ
m λe−mλ t
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dos estadosdos estados
Resolvendo em estado estacionário, obtém-se:
¶p0 t
¶t=
¶p1t
¶t=0
−p 0 λ p1 m=0
p0 λ− p1m=0
p0p1=1
(7)
(8)
(9)
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
Resolvendo (7), (8) e (9), obtém-se :
p0=m
mλ
p1=λ
mλ
Também pode chegar-se a este resultado através das equações em estado transiente, fazendo tender o parâmetro t a infinito.
Observação:
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
=2
=5
=7
0
t
Gráfico de 0 com =4
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
=2
=5
=7
0
t
Gráfico de 0 com =4
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
=2
=5
=71
t
Gráfico de 1 com =4
Exemplo: Cadeia de Markov de Exemplo: Cadeia de Markov de dois estadosdois estados
=7
=5
=21
t
Gráfico de 1 com =4
Problema 1Problema 1
Seja uma cadeia de Markov de três estados como se ilustra na figura:
0
1
2
01
02
Dado que acontece uma transição do estado 0, determinar a probabilidade de que esta transição seja para o estado 1.
10
20
Problema 1Problema 1
Define-se: t01: tempo de permanência no estado 0 antes de
transitar para o estado 1, caso transite para o estado 1
t02: tempo de permanência no estado 0 antes de transitar para o estado 2, caso transite para o estado 2
A probabilidade pedida é equivalente à probabilidade de que a transição para o estado 1 ocorra antes da transição para o estado 2.
Problema 1Problema 1
Portanto:
P t 01t 02 =∫0
¥
P t 01t 02/ t 02=s P t02=s ds
=∫0
¥
P t01s P t 02=s ds
=∫0
¥
1−e−λ01 s
λ02e−λ02 s
ds
=λ01
λ01λ02
Problema 1Problema 1
Estendendo o resultado anterior, para qualquer número de estados, se tem que:
P ij=λij
∑k¹i
λik
onde Pij: probabilidade de transitar do estado i para o
estado j, dado que acontece uma transição ik: taxa média de saída do estado i para o
estado k
Problema 2Problema 2
Dado que aconteceu uma transição do estado i, qual é a probabilidade de que o próximo estado seja i ?
P ii=1−∑j¹i
P ij
P ij=λij
∑k¹i
λik
Além disso:
Sabe-se que:
Problema 2Problema 2
Portanto:
P ii=1−∑j¹i
λij
∑k¹i
λik
P ii=1−1
∑k¹i
λ ik∑j¹i
λij
P ii=1−1=0
Problema 3Problema 3
Dado que no instante zero o sistema está no estado i, qual é a probabilidade de permanecer neste estado até o instante t?
P{permanecer em estado i até t} = 1 - P{sair do estado i até t}
Dado que o tempo de permanência é exponencial:
=1−e−∑
k≠ iλ ik t
=e−∑
k≠iλ ik t
Portanto: P{sair do estado i até t}
P{permanecer no estado i até t}