Suchmaschinenforschung an der HAW Hamburg

Post on 09-Jul-2015

393 views 0 download

Transcript of Suchmaschinenforschung an der HAW Hamburg

Suchmaschinenforschung an der HAW Hamburg Prof. Dr. Dirk Lewandowski Hochschule für Angewandte Wissenschaften Hamburg, Department Information dirk.lewandowski@haw-hamburg.de

1 | Dirk Lewandowski

Was bekommen Nutzer auf den Suchergebnisseiten zu sehen?

Wie gut sind die Suchergebnisse?

Wie können wir erkennen, was ein Nutzer mit seiner Suchanfrage meint?

Fazit

Agenda

Einleitung: Forschungsbereiche und Methoden

2 | Dirk Lewandowski

Was bekommen Nutzer auf den Suchergebnisseiten zu sehen?

Wie gut sind die Suchergebnisse?

Wie können wir erkennen, was ein Nutzer mit seiner Suchanfrage meint?

Fazit

Agenda

Einleitung: Forschungsbereiche und Methoden

3 | Dirk Lewandowski

Suchmaschinenmarkt: Deutschland 2011

(Webhits, 2011)

4 | Dirk Lewandowski

Die Qualität von Suchmaschinen kann nur durch eine Kombination unterschiedlicher Faktoren gemessen werden.

•  Qualität des Index –  Größe des Datenbestands, Abdeckung des Web –  Abdeckung bestimmter Bereiche (Sprachräume, Länder) –  Überschneidungen der Indices –  Aktualität des Datenbestands

•  Qualität der Suchresultate –  Retrievaleffektivität –  Zuverlässigkeit der Suchergebnisse –  Zufriedenheit der Nutzer –  Überschneidungen der (Top-)Ergebnisse

•  Qualität der Suchfunktionen

•  Nutzerfreundlichkeit + Benutzerführung –  Aufbau der Trefferseiten

(Lewandowski & Höchstötter 2007; ergänzt)

5 |

Methoden

Search

Relevanztest

Online-Umfrage

Physiologische Untersuchung

Logfile-Analyse Heuristische Evaluation

Eye-Tracking

Usability-Test

6 | Dirk Lewandowski

Aktuelle Projekte im Bereich Suche

•  Forschungsprojekte •  Qualität von Web-Suchmaschinen (laufend bis 2011) •  Forschungsprojekt „Wissenschaftssuchmaschinen“ (seit WS 2008/09) •  Query Understanding (seit 2010) •  Search Experience (ab 2011)

 Wir wollen den Suchprozess sowohl aus system- als auch aus nutzerzentrierter Perspektive verstehen und aus diesem Verständnis Empfehlungen für die Verbesserung von Suchsystemen ableiten.

7 | Dirk Lewandowski

Aktuelle Projekte im Bereich Suche

•  Lehrprojekte – Verbesserung der Musiksuche (WS2010/11; Musicload) – Lokale Suchmaschinen: Eye-Tracking und Usability (WS 2009/10,

Projektpartner T-Online) – Einbindung von Frage-Antwort-Diensten in die Web-Suche (WS2007/08,

Projektpartner Lycos Europe)

•  Abgeschlossene Entwicklungsprojekte (mit MA-Studierenden) •  Suchanfragenklassifikation (in Zusammenarbeit mit T-Online) •  Produktsuche (mit Otto) •  Universal-Search-Konzept für die T-Online-Portalsuche

8 | Dirk Lewandowski

Abschlussarbeiten (Auswahl)

•  Vergleichende Analyse und szenariobasierte Usability Tests zur Evaluation der Gebrauchstauglichkeit neu gestarteter Suchmaschinen

•  Vergleich der Eyetracking-Systeme von Tobii und Interactive Minds unter besonderer Betrachtung der Auswertung bei dynamischen Webseiten-Elementen

•  Empirische Analyse von emotionalen Reaktionen im Prozess der Informationssuche im Web

•  Die Qualität von Retrievalergebnissen im Vergleich – Google Book Search und der OPAC einer wissenschaftlichen Bibliothek

•  Zur Struktur der Trefferbeschreibungen in Web-Suchmaschinen und deren Beurteilung durch den Nutzer

•  Optimierung der Suche von Nachrichten-Inhalten am Beispiel von Stern.de •  Untersuchung zum Nutzerverhalten auf der Website SPIEGEL Wissen

9 | Dirk Lewandowski

Was bekommen Nutzer auf den Suchergebnisseiten zu sehen?

Wie gut sind die Suchergebnisse?

Wie können wir erkennen, was ein Nutzer mit seiner Suchanfrage meint?

Fazit

Agenda

Einleitung: Forschungsbereiche und Methoden

10 | Dirk Lewandowski

x

(Eyetracking-Studie HAW-Hamburg 2010)

11 | Dirk Lewandowski

x

12 | Dirk Lewandowski

x

13 |

Eye-Tracking

•  x

14 |

x

15 |

x

Anzeigen

Nachrichten

Bilder

Videos

Blogbeiträge

16 |

Empirische Untersuchung zur Präsentation der Treffer auf den Ergebnisseiten

•  Methode •  Suchanfragen-Stichprobe zufällig ausgewählt aus

•  Top-Suchanfragen (pop) •  Seltenen Suchanfragen (rare)

•  Stichprobe von 2x 1099 Suchanfragen

•  Automatische Anfragen an die Suchmaschinen Ask, Bing, Google, Yahoo.

•  Extraktion der auf den Ergebnisseiten präsentierten Elementen („screen scraping“).

(Lewandowski & Höchstötter; in Arbeit)

17 |

Verteilung der Ergebnistypen innerhalb der ersten Ergebnisseiten

(Höchstötter und Lewandowski; in Arbeit)

18 |

Aus welchen Quellen kommen die Ergebnisse?

Beispiel Google

19 |

Charakteristika der Treffermengen

•  Wie häufig tauchen Wikipedia-Treffer* in den Top10 auf?

(Lewandowski & Höchstötter; in Arbeit)

Ask Bing Google Yahoo Populäre Suchanfragen

12,8% 91,5% 58,3% 46,4%

Rare Suchanfragen

12,6% 43,0% 22,4% 22,5%

* Nur deutsche Wikipedia-Treffer

20 |

Welcher Anteil der Ergebnisse (Top 10) hat einen kommerziellen Hintergrund?

21 | Dirk Lewandowski

Was bekommen Nutzer auf den Suchergebnisseiten zu sehen?

Wie gut sind die Suchergebnisse?

Wie können wir erkennen, was ein Nutzer mit seiner Suchanfrage meint?

Fazit

Agenda

Einleitung: Forschungsbereiche und Methoden

22 |

Was soll eigentlich gemessen werden?

•  Relevanz der Ergebnisse •  Durchschnittliche Bewertung der Suchergebnisse (Systemseite) •  Bewertung jedes einzelnen gefundenen Treffers hinsichtlich seiner Eignung zur

Beantwortung der Suchanfrage. •  Ergebnisse mehrerer Suchmaschinen können gemischt werden; Herkunft der

Treffer kann verschleiert werden.

•  Zufriedenheit der Nutzer mit einem Suchprozess •  Durchschnittliche Bewertung der Suchprozesse (Nutzerseite) •  Bewertung jeder einzelnen Suchsession. •  Jeder Nutzer kann nur eine Suchmaschine bewerten; Kenntnis der Suchmaschine.

•  Wissenszuwachs •  Durchschnittliche Bewertung dessen, „was hängen geblieben ist“ (Nutzerseite) •  Bewertung des Wissenszuwachses nach einer Suchsession. •  Jeder Nutzer kann nur eine Suchmaschine bewerten; Kenntnis der Suchmaschine.

23 |

Entscheidungen beim Design klassischer Retrievaltests

1. Welche Suchmaschine(n)?

2. Wie viele Suchanfragen? 3. Welche Suchanfragen? 4. Wie viele Ergebnisse pro Suchanfrage?

5. Wie viele Juroren? 6. Welche Juroren(gruppen)? 7. Wie viele Juroren je Suchanfrage?

8. Wie sollen Dokumente bewertet werden (Skalen)? 9. Sollen Dokumentbeschreibungen berücksichtigt werden?

10.  Mit welchen Kennzahlen soll gemessen werden?

24 | Dirk Lewandowski

Precision-Recall-Graph (binär)

25 |

Welches Nutzerverhalten kann in Retrievaltests abgebildet werden?

•  Query-response paradigm •  Annahme: Nutzer gibt Suchanfrage ein, prüft dann das Ergebnis. •  Statisch; „systemorientiert“ „Klassische“ Retrievaltests (Abfrage der „objektiven“ Trefferqualität)

•  Interaktives Retrieval •  Annahme:

•  Recherche findet in mehreren Schritten statt. •  Bei der Recherche handelt es sich um einen „Dialog“ zwischen Nutzer und

System. •  Dynamisch, „nutzerorientiert“ Nutzerstudien (Abfrage der Zufriedenheit der Nutzer)

26 |

Tools: RAT & Search Logger

•  RAT (Relevance Assessment Tool) •  Werkzeug zum Design und zur Durchführung klassischer Retrievaltests •  Baukastenprinzip beim Testdesign •  Automatische Abfrage der Treffer der bekannten Suchmaschinen

•  Search Logger (Entwicklung der Uni Tartu, Estland) •  Werkzeug zum Protokollieren von Browserinteraktionen •  Task-basiert

•  Ziel 2011: Zusammenführung der beiden Tools, um interaktives IR in Suchmaschinen evaluieren zu können.

27 | Dirk Lewandowski

Was bekommen Nutzer auf den Suchergebnisseiten zu sehen?

Wie gut sind die Suchergebnisse?

Wie können wir erkennen, was ein Nutzer mit seiner Suchanfrage meint?

Fazit

Agenda

Einleitung: Forschungsbereiche und Methoden

28 |

Drei Anfragetypen

Anfragetypen nach Broder (2002)

•  Informational (informationsorientiert) – Nutzer möchte sich zu einem Thema informieren. – Ziel sind mehrere Dokumente.

•  Navigational (navigationsorientiert) – Ziel ist es, eine bestimmte Seite (wieder) zu finden. – Typisch: Suche nach Homepage („Daimler Chrysler“). – Ziel ist i.d.R. ein Dokument.

•  Transactional (transaktionsorientiert) – Ziel ist das Auffinden einer Website, auf der dann eine Transaktion stattfinden

soll. – Beispiele für Transaktionen: Kauf eines Produkts, Download einer Datei.

29 |

Navigationsorientierte Suchanfragen anhand von Klicks bestimmen

30 |

Transaktionsorientierte Suchanfragen anhand der Klicks bestimmen

31 | Dirk Lewandowski

Hätten Sie‘s verstanden?

•  bbl •  vatikan •  stockbrot •  motonetix •  nedcom •  fußball •  drehscheibe •  frauentausch •  seelenfarben •  kachelmannwetter •  osterei •  wie ich •  wow

32 |

Suchanfragen im Kontext

33 | Dirk Lewandowski

Was bekommen Nutzer auf den Suchergebnisseiten zu sehen?

Wie gut sind die Suchergebnisse?

Wie können wir erkennen, was ein Nutzer mit seiner Suchanfrage meint?

Fazit

Agenda

Einleitung: Forschungsbereiche und Methoden

34 |

Fazit

•  Im Themenbereich Suchmaschinen gibt es vielfältige Fragen.

•  Nur die Informationswissenschaft bietet •  das nötige breite Methodenspektrum •  Mischung aus technischem + sozial- und gesellschaftswissenschaftlichem Know-

How

•  Und zuletzt: Die Berufsaussichten in diesem Themenbereich sind sehr gut!

Vielen Dank für Ihre Aufmerksamkeit.

www.bui.haw-hamburg.de/lewandowski.html

Aktuelles Buch: Handbuch Internet-Suchmaschinen 2

E-Mail: dirk.lewandowski@haw-hamburg.de