Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und...

Post on 02-Sep-2019

6 views 0 download

Transcript of Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und...

Commonsense Reasoning

Gabriele Kern-IsbernerLS 1 – Information Engineering

TU DortmundSommersemester 2016

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Kapitel 4

4. ProbabilistischeFolgerungsmodelle und -strategien

4.6 Probabilistische Inferenz auf der Basisoptimaler Entropie

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 169 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Verteilung – Beispiel

Nehmen wir an, unser Wissen besteht nur aus einer Regel:

R = (B|A)[0.8]

uber der Signatur Σ = A,B;

wir berechnen – mit Hilfe von SPIRIT – die Verteilung ME (R) = P :

ω P (ω) ω P (ω)

AB 0.361 AB 0.274

AB 0.091 AB 0.274

Fur A,B ergeben sich die Wahrscheinlichkeiten:

P (A) = 0.452, P (B) = 0.636

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 202 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Inferenz

Praktisches Arbeiten mit der ME -Methodik ist also einfach moglich, aberdas Verfahren wirkt intransparent.

Logische und formale Ansatze ermoglichen einen klareren Blick auf dieME -Methodik.

Logisch gestattet die ME -Methodik eine probabilistische Auswahl-Inferenz:

CME(R) = φ ∈ (L | L)prob | ME (R) |= φ

d.h. aus einer probabilistischen Regelbasis werden alle (bedingten)probabilistischen Formeln abgeleitet, die in der zugehorigen ME -Verteilungerfullt sind.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 203 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Beispiel – Grippe (Forts.)

R = (k|g) [1], (s|g) [0.9], (k|s) [0.8]

K G S P ∗ = ME (R)

0 0 0 0.18910 0 1 0.11850 1 0 00 1 1 01 0 0 0.18911 0 1 0.21251 1 0 0.02911 1 1 0.2617

P ∗(k|g) ≈ 0.57, P ∗(k|gs) ≈ 0.64⇒

CME(R) 3 (k|g)[0.57], (k|gs)[0.64], (s|g) [0.9], (kgs)[0.2125], . . .

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 204 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Eigenschaften der ME-Inferenz

Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:

• Inklusion/Reflexivitat: R ⊆ CME(R).

• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:

R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)

• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)

• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt

CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Eigenschaften der ME-Inferenz

Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:

• Inklusion/Reflexivitat: R ⊆ CME(R).

• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:

R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)

• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)

• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt

CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Eigenschaften der ME-Inferenz

Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:

• Inklusion/Reflexivitat: R ⊆ CME(R).

• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:

R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)

• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)

• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt

CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Verteilung unter der Lupe

Fur R = (B1|A1) [x1], . . . , (Bn|An) [xn] erhalten wir

ME (R)(ω) = α0

1≤i≤nω|=AiBi

α1−xii

1≤i≤n

ω|=AiBi

α−xii

mit αi =xi

1− xi

∑ω|=AiBi

∏j 6=i

ω|=AjBj

α1−xj

j

∏j 6=i

ω|=AjBj

α−xj

j

∑ω|=AiBi

∏j 6=i

ω|=AjBj

α1−xj

j

∏j 6=i

ω|=AjBj

α−xj

j

,

und αi

> 0 : xi ∈ (0, 1)=∞ : xi = 1= 0 : xi = 0

, 1 ≤ i ≤ n.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln

Wir wollen im Folgenden fur (wichtige) Spezialfalle ME -Inferenzen“berechnen” und Ableitungsregeln aufstellen;

dabei benutzen wir diefolgende Notation

R : (B1|A1) [x1], . . . , (Bn|An) [xn]

(B∗1 |A∗1) [x∗1], . . . , (B∗m|A∗m) [x∗m]

genau dann, wenn

R = (B1|A1) [x1], . . . , (Bn|An) [xn]und ME (R) |= (B∗1 |A∗1) [x∗1], . . . (B∗m|A∗m) [x∗m]

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln

Wir wollen im Folgenden fur (wichtige) Spezialfalle ME -Inferenzen“berechnen” und Ableitungsregeln aufstellen; dabei benutzen wir diefolgende Notation

R : (B1|A1) [x1], . . . , (Bn|An) [xn]

(B∗1 |A∗1) [x∗1], . . . , (B∗m|A∗m) [x∗m]

genau dann, wenn

R = (B1|A1) [x1], . . . , (Bn|An) [xn]und ME (R) |= (B∗1 |A∗1) [x∗1], . . . (B∗m|A∗m) [x∗m]

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:

Transitive Verkettung

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Beispiel: A jung sein, B Single sein, C Kinder haben

R = (B|A)[0.9], (C|B)[0.85].Mit der Transitiven Verkettung errechnet man als ME -Folgerung

(C|A)[0.815] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:

Transitive Verkettung

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Beispiel: A jung sein, B Single sein, C Kinder haben

R = (B|A)[0.9], (C|B)[0.85].

Mit der Transitiven Verkettung errechnet man als ME -Folgerung

(C|A)[0.815] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:

Transitive Verkettung

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Beispiel: A jung sein, B Single sein, C Kinder haben

R = (B|A)[0.9], (C|B)[0.85].Mit der Transitiven Verkettung errechnet man als ME -Folgerung

(C|A)[0.815] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Die ME-Verteilung P ∗ = ME (R),R = (B|A)[x1], (C|B)[x2], kann wiefolgt berechnet werden:

ω P ∗ ω P ∗

ABC α0α1−x11 α1−x2

2 ABC α0α1−x22

ABC α0α1−x11 α−x22 ABC α0α

−x22

ABC α0α−x11 ABC α0

ABC α0α−x11 ABC α0

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Die ME-Verteilung P ∗ = ME (R),R = (B|A)[x1], (C|B)[x2], kann wiefolgt berechnet werden:

ω P ∗ ω P ∗

ABC α0α1−x11 α1−x2

2 ABC α0α1−x22

ABC α0α1−x11 α−x22 ABC α0α

−x22

ABC α0α−x11 ABC α0

ABC α0α−x11 ABC α0

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Vorsichtige Monotonie

R : (B|A)[x1], (C|A)[x2]

(C|AB)[x2]

Beispiel: A Student sein, B jung sein, C Single sein

R = (B|A)[0.9], (C|A)[0.8]

Mit der vorsichtigen Monotonie folgt dann

(C|AB)[0.8] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Vorsichtige Monotonie

R : (B|A)[x1], (C|A)[x2]

(C|AB)[x2]

Beispiel: A Student sein, B jung sein, C Single sein

R = (B|A)[0.9], (C|A)[0.8]

Mit der vorsichtigen Monotonie folgt dann

(C|AB)[0.8] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Schnitt

R : (C|AB)[x1], (B|A)[x2]

(C|A)[1

2(2x1x2 + 1− x2)]

Beispiel: A Student sein, B jung sein, C Single sein

R = (C|AB)[0.8], (B|A)[0.9]

Mit der Schnittregel folgt dann

(C|A)[0.77] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Schnitt

R : (C|AB)[x1], (B|A)[x2]

(C|A)[1

2(2x1x2 + 1− x2)]

Beispiel: A Student sein, B jung sein, C Single sein

R = (C|AB)[0.8], (B|A)[0.9]

Mit der Schnittregel folgt dann

(C|A)[0.77] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME und Commonsense Reasoning

Was hat ME mit Commonsense Reasoning zu tun?

Jeff Paris:Common sense and maximum entropy.Synthese 117, 75-93, 1999, Kluwer Academic Publishers

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME und Commonsense Reasoning

Was hat ME mit Commonsense Reasoning zu tun?

Jeff Paris:Common sense and maximum entropy.Synthese 117, 75-93, 1999, Kluwer Academic Publishers

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Symmetrie-Prinzip

Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das

Symmetrie-Prinzip

(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)

• Welche Ahnlichkeit ist hier gemeint?

• Was ist denn uberhaupt das Problem?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Symmetrie-Prinzip

Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das

Symmetrie-Prinzip

(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)

• Welche Ahnlichkeit ist hier gemeint?

• Was ist denn uberhaupt das Problem?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Symmetrie-Prinzip

Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das

Symmetrie-Prinzip

(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)

• Welche Ahnlichkeit ist hier gemeint?

• Was ist denn uberhaupt das Problem?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Intelligente Agenten in probabilistischer Umgebung

Nehmen wir an,

• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken,

und

• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,

dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.

Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Intelligente Agenten in probabilistischer Umgebung

Nehmen wir an,

• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und

• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,

dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.

Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Intelligente Agenten in probabilistischer Umgebung

Nehmen wir an,

• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und

• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,

dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.

Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Intelligente Agenten in probabilistischer Umgebung

Nehmen wir an,

• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und

• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,

dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.

Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 1/2

Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen

Form(Σ) Menge der Formeln uber Σ

P(Σ) Menge aller Wahrscheinlichkeitsverteilungenuber Σ, d.h.

P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑

i=1

pi = 1

KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ

Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 1/2

Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen

Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen

uber Σ, d.h.

P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑

i=1

pi = 1

KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ

Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 1/2

Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen

Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen

uber Σ, d.h.

P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑

i=1

pi = 1

KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ

Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 1/2

Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen

Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen

uber Σ, d.h.

P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑

i=1

pi = 1

KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ

Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 2/2

Definition 3 (Probabilistischer Inferenzprozess)

Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung

NΣ : KB(Σ) → P(Σ),

R 7→ P,

die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.

NΣ spezifiziert also einen induktiven Inferenzprozess.Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 2/2

Definition 3 (Probabilistischer Inferenzprozess)

Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung

NΣ : KB(Σ) → P(Σ),

R 7→ P,

die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.

NΣ spezifiziert also einen induktiven Inferenzprozess.

Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 2/2

Definition 3 (Probabilistischer Inferenzprozess)

Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung

NΣ : KB(Σ) → P(Σ),

R 7→ P,

die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.

NΣ spezifiziert also einen induktiven Inferenzprozess.Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 1: Irrelevante Information

Irrelevante-Information-Prinzip

Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.

Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:

NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).

Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 1: Irrelevante Information

Irrelevante-Information-Prinzip

Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.

Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:

NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).

Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 1: Irrelevante Information

Irrelevante-Information-Prinzip

Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.

Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:

NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).

Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 2: Semantische Aquivalenz

Aquivalenz-Prinzip

Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, sosoll auch exakt das Gleiche gefolgert werden.

Beschreiben R1,R2 ∈ KB(Σ) denselben Losungsraum in P(Σ), so sollgelten N(R1) = N(R2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 2: Semantische Aquivalenz

Aquivalenz-Prinzip

Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, sosoll auch exakt das Gleiche gefolgert werden.

Beschreiben R1,R2 ∈ KB(Σ) denselben Losungsraum in P(Σ), so sollgelten N(R1) = N(R2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 3: Umbenennung

Umbenennungs-Prinzip

Eine isomorphe Umbennung der Variablen in der Wissensbasis soll keinenEffekt auf das Ergebnis der Inferenz haben.

Formalisierung: . . .

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 220 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 4: Kontext-Relativierung

Relativierungs-Prinzip

Information, die sich auf die Nichterfullung eines Kontextes bezieht, istirrelevant fur die kontextbezogene Inferenz.

Sei A ∈ Form(Σ), seien R1,R2 ∈ KB(Σ) die folgenden Wissensbasen:

R1 = A[x], (Bi ∧A)[xi], (Cj ∧ ¬A)[yj ]i,j ,R2 = A[x], (Bi ∧A)[xi]i.

Fur φ ∈ Form(Σ) soll dann gelten:

N(R1)(φ ∧A) = N(R2)(φ ∧A).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 4: Kontext-Relativierung

Relativierungs-Prinzip

Information, die sich auf die Nichterfullung eines Kontextes bezieht, istirrelevant fur die kontextbezogene Inferenz.

Sei A ∈ Form(Σ), seien R1,R2 ∈ KB(Σ) die folgenden Wissensbasen:

R1 = A[x], (Bi ∧A)[xi], (Cj ∧ ¬A)[yj ]i,j ,R2 = A[x], (Bi ∧A)[xi]i.

Fur φ ∈ Form(Σ) soll dann gelten:

N(R1)(φ ∧A) = N(R2)(φ ∧A).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 5: Hartnackigkeit

Hartnackigkeits-Prinzip

Information, die das bestatigt, was der Agent bereits glaubt, soll dasErgebnis der Inferenz nicht beeinflussen.

Sind R1,R2 ∈ KB(Σ), und erfullt N(R1) bereits R2, so soll gelten:

N(R1) = N(R1 ∪R2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 5: Hartnackigkeit

Hartnackigkeits-Prinzip

Information, die das bestatigt, was der Agent bereits glaubt, soll dasErgebnis der Inferenz nicht beeinflussen.

Sind R1,R2 ∈ KB(Σ), und erfullt N(R1) bereits R2, so soll gelten:

N(R1) = N(R1 ∪R2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 6: Schwache Unabhangigkeit

Schwaches Unabhangigkeits-Prinzip

Information uber eine echte Alternative soll das Ergebnis der Inferenz nichtbeeinflussen.

Sei Σ = A,B,C, und seien R1,R2 ∈ KB(Σ) die folgendenWissensbasen:

R1 = A[x], B[y],R2 = A[x], B[y], C[z], AC[0].

Dann soll gelten N(R1)(A ∧B) = N(R2)(A ∧B).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 6: Schwache Unabhangigkeit

Schwaches Unabhangigkeits-Prinzip

Information uber eine echte Alternative soll das Ergebnis der Inferenz nichtbeeinflussen.

Sei Σ = A,B,C, und seien R1,R2 ∈ KB(Σ) die folgendenWissensbasen:

R1 = A[x], B[y],R2 = A[x], B[y], C[z], AC[0].

Dann soll gelten N(R1)(A ∧B) = N(R2)(A ∧B).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 7: Stetigkeit

Stetigkeits-Prinzip

Mikroskopisch kleine Anderungen in der Weltbeschreibung sollen keinemakroskopisch großen Anderungen in den Wahrscheinlichkeitenverursachen.

Fur jedes φ ∈ Form(Σ) hangt N(R)(φ) stetig von denWahrscheinlichkeiten des Faktenwissens in R ab.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 7: Stetigkeit

Stetigkeits-Prinzip

Mikroskopisch kleine Anderungen in der Weltbeschreibung sollen keinemakroskopisch großen Anderungen in den Wahrscheinlichkeitenverursachen.

Fur jedes φ ∈ Form(Σ) hangt N(R)(φ) stetig von denWahrscheinlichkeiten des Faktenwissens in R ab.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Haupttheorem

Theorem 4

Jeder Inferenzprozess N , der alle CR-Prinzipien 1-7 erfullt, stimmt mit derME-Inferenz uberein.

Die ME -Methodik erlaubt also optimales Commonsense Reasoning improbabilistischen Bereich und wird durch die CR-Prinzipien 1-7 eindeutigbestimmt.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 225 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 1/2

ME -Rehabilitation

Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!

• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.

• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 1/2

ME -Rehabilitation

Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!

• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.

• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 1/2

ME -Rehabilitation

Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!

• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.

• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 2/2

• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).

• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.

• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 2/2

• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).

• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.

• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 2/2

• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).

• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.

• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Ubersicht Kapitel 4 – Probabilistik

4.1 Einfuhrung und Ubersicht

4.2 Wahrscheinlichkeitstheorie und Commonsense Reasoning

4.3 Grundideen probabilistischen Schlussfolgerns

4.4 Schlussfolgern uber Unabhangigkeiten

4.5 Propagation in baumartigen Netzen

4.6 Probabilistische Inferenz auf der Basis optimaler Entropie

4.7 Schlussworte und Zusammenfassung

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 228 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Kapitel 4

4. ProbabilistischeFolgerungsmodelle und -strategien

4.7 Schlussworte und Zusammenfassung

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 229 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4

• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.

• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.

• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.

• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4

• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.

• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.

• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.

• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4

• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.

• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.

• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.

• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4

• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.

• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.

• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.

• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4 (Forts.)

• Das Problem unvollstandiger probabilistischer Informationen wird inBayes-Netzen durch klare Spezifikationsvorgaben und die Annahmebedingter Unabhangigkeiten gelost.

• Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischerRegeln (unvollstandige Information!) ohne weitere Annahmen einevollstandige Verteilung aufgebaut werden. Bedingte Unabhangigkeitenentstehen hier aus dem Kontext heraus, werden aber nichtvorausgesetzt.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4 (Forts.)

• Das Problem unvollstandiger probabilistischer Informationen wird inBayes-Netzen durch klare Spezifikationsvorgaben und die Annahmebedingter Unabhangigkeiten gelost.

• Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischerRegeln (unvollstandige Information!) ohne weitere Annahmen einevollstandige Verteilung aufgebaut werden. Bedingte Unabhangigkeitenentstehen hier aus dem Kontext heraus, werden aber nichtvorausgesetzt.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4 (Forts.)

• Bayessche Netze modellieren bedingte Unabhangigkeiten, wahrend dieME -Methodik sich auf die konsequente Ausnutzung bedingterAbhangigkeiten konzentriert.

• Die ME -Inferenz ist ein machtige Methode fur die probabilistischeWissensreprasentation mit hervorragenden Eigenschaften.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4 (Forts.)

• Bayessche Netze modellieren bedingte Unabhangigkeiten, wahrend dieME -Methodik sich auf die konsequente Ausnutzung bedingterAbhangigkeiten konzentriert.

• Die ME -Inferenz ist ein machtige Methode fur die probabilistischeWissensreprasentation mit hervorragenden Eigenschaften.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232

Commonsense Reasoning – Ubersicht

• Ubersicht, Organisatorisches und Einfuhrung

• Nichtklassisches Schlussfolgern

• Rangfunktionen – ein einfaches epistemisches Modell

• Probabilistische Folgerungsmodelle und -strategien

• Qualitative und quantitative Wissensreprasentation

• Argumentation

• (Commonsense Reasoning in Multi-Agentensystemen)

• Schlussteil und Prufungsvorbereitung

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 2 / 51

Kapitel 5

5. Qualitative und quantitativeWissensreprasentation

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 3 / 51

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 5 / 51

Kapitel 5

5. Qualitative und quantitativeWissensreprasentation

5.1 Qualitative Wahrscheinlichkeiten

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 6 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77].

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Infinitesimale Wahrscheinlichkeiten

Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.

Idee:

• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);

• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.

• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.

Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Infinitesimale Wahrscheinlichkeiten

Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.

Idee:

• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);

• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.

• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.

Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Infinitesimale Wahrscheinlichkeiten

Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.

Idee:

• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);

• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.

• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.

Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 1/5

Die Großenordnung κP einer parametrisierten (infinitesimalen)Wahrscheinlichkeit

P (ω) = (1−)a0ε0 + a1ε

1 + a2ε2 + . . .

wird definiert als

κP (ω) =

minn ∈ N | lim

ε→0

P (ω)εn 6= 0, P (ω) > 0

∞, P (ω) = 0

D.h. fur P (ω) = a0ε0 + a1ε

1 + a2ε2 + . . .

ist κP (ω) = mini|ai 6= 0

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 1/5

Die Großenordnung κP einer parametrisierten (infinitesimalen)Wahrscheinlichkeit

P (ω) = (1−)a0ε0 + a1ε

1 + a2ε2 + . . .

wird definiert als

κP (ω) =

minn ∈ N | lim

ε→0

P (ω)εn 6= 0, P (ω) > 0

∞, P (ω) = 0

D.h. fur P (ω) = a0ε0 + a1ε

1 + a2ε2 + . . .

ist κP (ω) = mini|ai 6= 0

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 2/5

Fur infinitesimale parametrisierte Wahrscheinlichkeiten P hatP (ω1) + P (ω2) die Großenordnung

minκP (ω1), κP (ω2);

die Großenordnung von Formeln A kann also definiert werden durch

κP (A) = minκP (ω) | ω |= A

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 2/5

Fur infinitesimale parametrisierte Wahrscheinlichkeiten P hatP (ω1) + P (ω2) die Großenordnung

minκP (ω1), κP (ω2);

die Großenordnung von Formeln A kann also definiert werden durch

κP (A) = minκP (ω) | ω |= A

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 3/5

Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:

P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0

P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1

P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2

P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...

......

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 3/5

Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:

P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0

P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1

P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2

P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...

......

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 3/5

Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:

P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0

P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1

P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2

P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...

......

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben;

sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;

• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

OCF’s und Wahrscheinlichkeiten – Beispiel

Folgende qualitative Umsetzung von Wahrscheinlichkeiten in Rangzahlensind beispielsweise denkbar:

W’keit Rangzahl Bedeutung

P (ω) ≈ 0.1 κ(ω) = 0 normalP (ω) ≈ 0.01 κ(ω) = 1 seltenP (ω) ≈ 0.001 κ(ω) = 2 unwahrscheinlichP (ω) ≈ 0.0001 κ(ω) = 3 fast unmoglich...

......

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 14 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 15 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

Kapitel 5

5. Qualitative und quantitativeWissensreprasentation

5.2 Nichtmonotonie in der Probabilistik

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 16 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,

Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,

Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!

Beispiel: Studenten |∼P Fussball,Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,

Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,

Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 2/2

• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!

Beispiel:st Bauchschmerzen |∼P Appendicitis,

st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,

aber st Bauchschmerzen 6|∼P bald wieder gesund

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 2/2

• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!Beispiel:

st Bauchschmerzen |∼P Appendicitis,st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,

aber st Bauchschmerzen 6|∼P bald wieder gesund

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 2/2

• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!Beispiel:

st Bauchschmerzen |∼P Appendicitis,st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,

aber st Bauchschmerzen 6|∼P bald wieder gesund

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51