Para Impresion

14
Inteligencia artificial Tema: resolución de los ejercicios del cap. 13 incertidumbres Alumno: Quispe Vásquez Víctor Raúl Solución: Primero usaremos la definición de probabilidad condicional P(X|Y)= P (X ᴧ Y)/P(Y) , también la de los conectores lógicos, usamos (A ᴧ A) <--> A . La cual es asociativa y conmutativa esto nos servirá para resolver la siguiente demostración: P(A|B ᴧ A) = P(A ᴧ (B ᴧ A))/P(B ᴧ A) =P(B ᴧ A)/P(B ᴧ A) = 1 Solución: Usamos primero el tercer axioma P(a v b) = P(a ᴧ b) y Suponemos una variable aleatoria discreta K .ahora pensemos que “a” será el acontecimiento K=k1 y “b” será otro acontecimiento de K que tiene cualquier otro valor. P(K=k1 v K=otro) = P(K=k1) + P(K=otros) + 0 Sabemos que P(K=k1 ᴧ K=otros ) es 0 porque sencillamente una variable no podrá tomar dos valores distintos. Evaluemos el caso de que K=otros entonces: P(K=k1 v K=k2 v K=k3…v K=kn) = P(K=k1) + P(K=k2)+…P(K=kn) En esta evaluación vemos que P(K=k1 v …v K=kn) es igual a P(verdadero) en otras palabras un 1 en el axioma 2 por lo que concluimos que la suma

description

trabajo de inteligencia artificial

Transcript of Para Impresion

Inteligencia artificialTema: resolucin de los ejercicios del cap. 13 incertidumbresAlumno: Quispe Vsquez Vctor Ral

Solucin:Primero usaremos la definicin de probabilidad condicionalP(X|Y)= P (X Y)/P(Y) , tambin la de los conectores lgicos, usamos (A A) A . La cual es asociativa y conmutativa esto nos servir para resolver la siguiente demostracin:P(A|B A) = P(A (B A))/P(B A) =P(B A)/P(B A) = 1

Solucin:Usamos primero el tercer axioma P(a v b) = P(a b) y Suponemos una variable aleatoria discreta K .ahora pensemos que a ser el acontecimiento K=k1 y b ser otro acontecimiento de K que tiene cualquier otro valor.P(K=k1 v K=otro) = P(K=k1) + P(K=otros) + 0Sabemos que P(K=k1 K=otros ) es 0 porque sencillamente una variable no podr tomar dos valores distintos. Evaluemos el caso de que K=otros entonces:P(K=k1 v K=k2 v K=k3v K=kn) = P(K=k1) + P(K=k2)+P(K=kn)En esta evaluacin vemos que P(K=k1 v v K=kn) es igual a P(verdadero) en otras palabras un 1 en el axioma 2 por lo que concluimos que la suma P(K=k1) +P(K=kn) tambin ser 1.

Solucin:Primero hare la tabla para demostrar la racionalidadB B

Aab

Acd

De la cual sacamos las siguientes ecuaciones:P(A)= a+ b = 0.4P(B) = a+ c = 0.3P(A v B) = a + b +c = 0.5P(verdad)= a +b +c +d =1De estas ecuaciones se llega a concluir:a= 0.2, b= 0.2, c=0.1 y d=0.5 y por consiguiente P(A B)=a=0.2.Por lo que concluimos que las probabilidades sern coherentes con una asignacin racional y la probabilidad P(A B) es exactamente determinado.Si P(A v B)=0.7 entonces P(A B)=a=0. Con esto el agente demuestra que cree que esto es imposible por eso la apuesta sigue siendo racional.

Solucin:Supongamos que presente un agente con una de dos opciones: o definitivamente recibir recompensa monetaria p * m, O elegir una lotera que paga m Si el evento E ocurre y 0 si el evento E no ocurre. El nmero p Para que el agente es indiferente entre las dos opciones (suponiendo utilidad lineal del dinero). Axioma 1: 0 < p < 1 para cualquier E y m .Si un agente especifica p > 1 entonces el agente se est ofreciendo para pagar ms de "m" para entrar una lotera en que el premio ms grande es la "m" . si un agente especifica la p < 0 , entonces el agente se est ofreciendo para pagar "m" o 0 a cambio de una cantidad negativa. O va, el agente es avalado para perder el dinero si el contrario acepta la oferta.Axioma 2: p = 1 cuando E es verdadero y p = 0 cuando E es falso. Suponga el agente asignan p como el grado de la creencia en un evento verdadero conocido. Entonces el agente es indiferente entre un pago de "pm " y una de m. Esto es solo coherente cuando p=1. Similarmente, un grado de la creencia de p para un evento falso conocido significa que agente es indiferente entre pm y 0. Solo p= 0 hace que este sea coherenteAxioma 3: Dado dos eventos mutuamente excluyentes y exclusivos E1 y E2 y sus respectivos grados de creencia p1 y p2 y los beneficios m1 y m2, tiene que ser el grado de creencia del evento combinado E1 v E2 es igual a p1 + p2 .La idea es que las creencias p1 y p2 constituyan un acuerdo para pagar p1m1 + p2m2 con el fin de participar en un sorteo en el que el premio es m cuando E1 ocurra. Por lo que la ganancia neta se define como:Gi= mi p1m1 + p2m2. . Para evitar la posibilidad de que mi se suma escogiendo a la garanta que cada "Gi" es negativo, tenemos que asegurar que el determinante del mi referente de matriz a Gi, es cero, de modo que el sistema lineal se pueda resolver. Esto requiere que p1+ P2 = 1.El resultado se extiende al caso con n mutuamente exclusiva, los eventos exhaustivos antes que dos.

Solucin:

Solucin:a) P(52/5)= (52*51*50*49*48)/(1*2*3*4*5) =2598960 posibles manos de 5 cartas.

b) Cada uno de ellos es igualmente probable por axiomas 2 y 3 por lo tanto ocurre con probabilidad 1/2.598.960.

c) Hay 4 manos que son escaleras reales vacias (hay uno en cada palo).Por el axioma 3, ya que los sucesos son mutuamente excluyentes, la probabilidad de que una escalera real se d: 4/2.598960 = 1/649.740.La probabilidad de obtener 4 de un tipo: (13*48) /2598960 = 0.00024.

Solucin:a) Suponemos que el dolor de muela es cierto :P(dolor de muela) = 0.108 + 0.012 + 0.016 + 0.064 = 0.2b) Se requiere dos valores (verdad,falso) el valor verdadero se hallo en a).P(caries) =(0.2, 0.8)

c) P(dolor-de-muela | caries) = ((0.108+0.012) /0.2 ; (0.072+0.008) /0.2) = (0.6 ; 0.4).d) P(caries | dolor-de-muela v infectarse) =((0.0108+0.012+0.072) /0.416 ; (0.016+0.064+0.144) /0.416) = (0.4615 ; 0.5384).

Solucin:Independientemente es simtrico, para P(a |b) = P(a) sea igual que P(a |b) = P(b). Tan solo tenemos que demostrar que P(a |b) ) = P(a) es equivalente a P(a b) = P(a)P(b) . El producto P(a b) = P(a | b)*P(b) ,se puede utilizar para escribir P(a b) = P(a)P(b) como P(a | b)P(b) , el cual simplifica a P(a |b) = P(a)

Solucin:P(test |enfermedad) = 0.99P(-test | -enfermedad) = 0.99P(enfermedad) = 0.0001Con esto podemos hablar en trminos generales , si 10000 personas toman la prueba ,se espera que una persona de positivo en la prueba de tener enfermedad, mientras que el resto no tienen la enfermedad ,es decir un 1% de ellos(unos 100 habitantes) tendrn un resultado positivo. Entonces P(enfermedad | test) ser alrededor de 1 en 100.Lo comprobamos con la ecuacin:P(enfermedad |test)= ((0.99*0.0001)/(0.99*0.0001 + 0.01*0.9999))= 0.009804

Solucin:a) Usamos estas dos ecuaciones :1.- P(A, B|E) = P(A,B,E)/P(E)2.- P(A|B, E)*P(B|E) = (P(A,B,E)*P(B,E))/(P(B,E)*P(E)) = P(A,B,E) /P(E)Y concluimos que : P(A, B|E) = P(A|B , E) * P(B|E)b) Tenemos:1.- P(A, B|E) = P(B|A ,E)*P(A|E)Por lo que los dos lados son igualesP(B|A ,E)*P(A|E) = P(A|B ,E)* P(B|E)Dividiendo por P(B|E) sucede:P(A|B , E) = (P(B|A ,E) * P(A|E))/P(B|E)

Solucin:P(A, B|C) = P(A|C)*P(B|C)Utilizamos la definicion de probabilidad condicional a dos terminos:P(A, B|C) = P(A,B,C)/P(C) y P(B|C) =P(B,C)/P(C)Ahora sustituimos el lado derecho de estas definiciones para la izquierda en la declaracin original para obtener:

P(A,B,C)/P(C) = P(A|C)* P(B,C)/ P(C) Ahora necesitamos la definicin una vez ms:P(A,B,C)= P(A|B ,C) * P(B,C)Sustituimos P(A,B,C):P(A|B,C)*P(B,C)/P(C ) =P(A|C)* P(B,C)/ P(C)Y luego cancelamos P(B,C) y P(C ):P(A|B,C) = P(A|C)

Solucin:a) Hay n maneras de recoger una moneda, y 2 resultados para cada flip (aunque con la moneda falsa, los resultados del filp son indistinguibles), por lo que hay 2n + (n-1) resultan en la cabeza. por lo que la probabilidad de una moneda falsa dadas cabezas, P (falso| cabezas), Es 2/(2+n-1)=2/(n+1)b) ahora hay eventos atmicos, de los cuales recoger la moneda falsa, y resultar en cabezas. por lo que la probabilidad de una moneda falsa da una racha de k cabezas, P(falso |es cuenta que este se acerca a 1 a medida que k aumenta, como se esperaba. si k = n = 12, por ejemplo, que P(falso|c) hay dos tipos de error a considerar. Caso 1: una moneda podra convertir en cara k veces seguidas. la probabilidad de esto es , y la probabilidad de que una moneda de ser elegido es (n-1) / n. caso 2: se elige la moneda falsa, en cuyo caso el procedimiento siempre hace un error. la probabilidad de sacar la moneda falsa es 1 / n. por lo que la probabilidad total de error es((n-1)//n

Solucin:P(S| -M) = P((-M|S)*P(S))/P(-M) = (1-P(M|S))*P(S)/(1-P(-M))= 0.9998*0.05/0.99998 = 0.0049991Ahora normalizamos el producto:P(M|S) /(P(S|M)*P(M)) = 0.5/50000 = 0.00001P(-M|S) /(P(S|-M)*P(-M)) =0.049991 * 0.99998 = 0.04999P(M|S) = 0.00001/(0.00001+0.04999) = 0.0002P(-M|S) = 0.00001/(0.00001+0.04999) = 0.9998

Solucin:La pregunta hubiera sido un poco ms consistente si habamos pedido sobre el clculo de P(H|E1,E2) en lugar de P(H|E1,E2). Mostrando que un conjunto dado de informacin es suficiente es relativamente fcil: encontrar una expresin para de P (H|E1, E2) en trminos de lo dado no contiene suficientes nmeros independientes.a) Bayes :P (H|E1, E2)= (P (E1, E2|H) P (H))/P (E1, E2)Por lo tanto, la informacin en (ii) es suficiente - de hecho, No necesitamos P (E1, E2), ya que podemos utilizar la normalizacin. Intuitivamente, la informacin en (iii) es insuficiente porque P (E1| H) y P (E2|H) proporcionar ninguna informacin acerca de las correlaciones entre E1 y E2 que podran ser inducidos por H matemticamente. Supongamos H tiene valores posibles M y E1 y E2 tienen N1 y N2 posible respectivamente. P (H | E1, E2) contiene (M-1) N1, N2 nmeros independientes, mientras que la informacin en (iii) contiene (m-1) + M (N1-1) + M (N2-1) nmeros-- claramente insuficiente para la gran M, N1 y N2. Del mismo modo, la informacin en (i) contiene (N1N2-1) + M + M (N1-1) + M (N2-1) de nuevo nmerosinsuficiente

b) Si E1 y E2 son condicionalmente independiente H dado, entoncesP (E1, E2 | H) = P (E1 | H) P (E2 | H) El uso de la normalizacin, (i), (ii), y (iii) son cada uno suficiente para el clculo

Solucin:P(X,Y|Z) = P(X|Z)*P(Y|Z)Ahora lo reescribimos utilizando la definicin de probabilidad condicional:P(X,Y,Z)/P(Z) = (P(X,Z)*P(Y,Z))/ (P(Z)*P(Z))Escribimos una expresin:P(X,Y,Z) = (P(X,Z)*P(Y,Z))/P(Z)Esto nos da 8 ecuaciones limitando las entradas de los 8, pero varias de las ecuaciones son redundantes.

Solucin:Azul = B parece azul =LBP(LB|B) = 0.75 P(-LB|-B) = 0.75Tenemos que saber la probabilidad de que el taxi era azul, dado que pareca azul:P(B | LB) / (P(B) * P(LB | B)) / 0.75*P(B)P(-B | LB) / (P(LB | - B )*P(-B)) / 0.25*(1-P(B))

Por lo tanto no podemos decidir la probabilidad sin alguna informacin previa sobre la probabilidad de los taxis azules P(B). Ahora teniendo en cuenta que p de cada 10 taxis son de color verde, y suponiendo que el taxi en cuestin se tomara al azar , tenemos P(B) = 0.1 entonces:P(B | LB) / 0.75 / 0.1 / 0.075P(-B | LB) / 0.25 / 0.9 / 0.225P(B | LB) = 0.075/(0.075+0.225) = 0.25P(-B | LB) = 0.225 / (0.075+0.225) = 0.75

Solucin:Ahora damos valores :Fx = X sern liberados Ex = X va a ser ejecutado , si la informacin dada por el guardian se puede expresar como Fb entonces:P(Ea | Fb) = (P(Fb|Ea)*P(Ea))/P(Fb) = (1*(1/3))/(2/3) = 0.33333333.Ahora si la informacin dada por el guardia se expresa como Fb entonces:P(Ea|Fb) = (P(Fb|Ea)*P(Ea))/P(Fb) = (0.5*0.3333)/(0.5) = 0.3333

Solucin:Aplicamos independencia condicional:P(causa|e) = P(e,causa)/P(e) = p(e,causa)Ahora,dividir las variables de efecto en aquellos con pruebas, E ,y aquellos sin pruebas,Y entonces tenemos:P(causa | e) = = * (= P(causa)= P(causa)Con esto el algoritmo calcula las variables de la probabilidad condicional de las pruebas y se normaliza el resultado.

Solucion:a) el modelo consiste en la probabilidad a priori P (categora) y los probalities condicionales P( palabra i/ categoria). para cada categora C, P (categora=C) se estima como la fraccin de todos los documentos que son de categora C. Del mismo modo, P(palabra i=verdad/categoria=C) se calcula como la fraccin de los documentos de la categora C que contienen la palabra i. b) ver la respuesta a 13.17. aqu, se observa cada variable de pruebas, ya que podemos decir si cualquier palabra aparece en el documento o no determinada

la hiptesis de la independencia est claramente violado en la prctica. por ejemplo, el par de la palabra "inteligencia artificial" se produce con mayor frecuencia en cualquier categora documento dado de lo que se sugiere multiplicando las probabilidades de "inteligencia" "artificial" y.