Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods...

100
Book of Abstracts #cvk13

Transcript of Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods...

Page 1: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

Book of Abstracts

#cvk13

Page 2: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

Digital Methods Tagung Wien 2013, Book of Abstracts.

Medieninhaber: Verein der Freunde des Instituts für Publizistik- und Kommunikationswissenschaft Währingerstrasse 29, 1090 Wien

Herausgeber: Axel Maireder

Redaktion: Kathrin Braun

Page 3: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

3

Digital Methods Tagung Willkommen in Wien!

Liebe Kolleginnen und Kollegen, liebe Teilnehmerinnen und Teilnehmer!

Wir freuen uns sehr, Sie/Euch bei der Jahrestagung der Fachgruppe Computerver-mittelte Kommunikation der DGPUK zu begrüßen. Erstmals findet die Tagung in Wien statt und wir fragen uns: Ist es die Stadt, die so viele von Ihnen/Euch an diesen drei Novembertagen an unser Institut geführt hat, oder ist es doch das Thema ‚Digital Methods’? Wir hoffen Beides!

Mit rund 90 Teilnehmerinnen und Teilnehmern ist die diesjährige Tagung eine der bisher größten der Fachgruppe. Das Programm umfasst 34 Präsentationen, die von Vortragenden aus sechs Ländern (de, at, ch, nl, au, us) und aus unterschiedlichen Disziplinen gestaltet werden, die spannende Einblicke und anregende Diskussionen versprechen. Und da wir entgegen der landläufigen Meinung überzeugt sind, dass ein voller Bauch durchaus gerne studiert, soll auch für das leibliche Wohl gesorgt sein – nicht nur, aber auch, mit Kaffee und Mehlspeisen – wie es sich für Wien gehört.

Zurück zum Tagungsthema: Etwas mehr als 20 Jahre ist es jetzt alt, das World Wide Web, und im Laufe der nunmehr bald 10-jährigen Entwicklung zum ‚Social Web’ sind vormalige Zukunftsvisionen heute harte Realität: Jeder, ja wirklich jeder, kann heute alles, ja tatsächlich alles, veröffentlichen. Für ein Fach, das sich der Erforschung medienvermittelter (öffentlicher) Kommunikation verschrieben hat, erschließen sich dadurch nicht nur ungeahnte neue und weite Felder. Das Fach stößt auch laufend an seine bisherigen theoretischen und methodischen Grenzen.

Hier und heute kommen nun WissenschafterInnen zusammen, die diese Grenzen laufend erweitern, indem sie neue innovative Methoden entwickeln um die Praxis, Struktur und Dynamik öffentlicher Kommunikation im Internet fassen und einordnen zu können. Die Tagung ‚Digital Methods’ soll einerseits einen Überblick über die aktuelle Entwicklung solcher Ansätze im deutschsprachigen Raum (und darüber hinaus) bieten und andererseits als Forum dienen um diese Beiträge angeregt und auch kritisch zu diskutieren.

In diesem Sinne freuen wir uns auf eine lehrreiche, inspirierende und unterhaltsame Tagung! Willkommen in Wien!

Axel Maireder, Programmkoordination Kathrin Braun, Tagungsorganisation

Page 4: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

4

Inhalt Book of Abstracts

CfP Digital Methods S. 5 Programmüberblick S. 7

PLENUM A Keynote S. 15

PLENUM B Plenarvorträge S. 17

PANEL 1A Themenöffentlichkeiten S. 25

PANEL 1B Sprachanalysen S. 32

PANEL 2A Theoretische Perspektiven S. 40

PANEL 2B Netzwerkanalyse S. 47

PANEL 3A Professionelle Öffentlichkeiten S. 53

PANEL 3B Interpersonale Kommunikation S. 60

PANEL 4A Nachrichten S. 70

PANEL 4B Framing S. 77

PANEL 5A Nutzung & Nutzungsmessung S. 84

PANEL 4B Web Monitoring S. 91

Page 5: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

5

Call for Papers Digital Methods. Innovative Ansätze zur Analyse öffentlicher Kommunikation im Internet

Tagtäglich werden unzählige Mitteilungen auf Twitter, Facebook und in Foren ab-gesetzt, Blogbeiträge und Webseiten veröffentlicht, Fotos, Videoclips und Dokumente über unterschiedliche (stationäre und mobile) Geräte hochgeladen, bewertet, ver-linkt und geteilt. Verstanden als Artefakte sozialer Kommunikationsprozesse, liegt in der Analyse dieser digitalen Objekte und ihrer Relationen zueinander ein im-menses Potenzial für reichhaltige Erkenntnisse zu Struktur und Kultur der Gesell-schaft, insbesondere öffentlicher Kommunikationsprozesse. Dabei stellen sich für die Sozialwissenschaften zahlreiche neue theoretische, methodologische, forschungs-praktische und ethische Herausforderungen.

Die Kommunikationswissenschaft erscheint für diese Auseinandersetzung prädes-tiniert. Zum einen beschäftigt sie sich seit Jahrzehnten mit medienvermittelter, zu-letzt auch computervermittelter, Kommunikation, zum anderen werden in den Daten Indikatoren für jene sozialen Prozesse manifest, die für den Kernbereich kommuni-kationswissenschaftlicher Theoriebildung maßgeblich sind: die Entwicklung von Öffentlichkeit und öffentlicher Meinung.

Tatsächlich befassen sich inzwischen zahlreiche kleinere und größere Forschungs-projekte mit der Analyse der Artefakte sozialer Kommunikation im Internet. Dabei werden sowohl datenintensive quantitative Methoden angewandt, die auch für die Kommunikationspraxis von zunehmender Bedeutung sind (z.B. im Daten-journalismus oder Web Monitoring), als auch qualitative, zum Beispiel medien-ethnographische Zugänge oder semantische Analysen. Diese Zugänge können als ‚Digital Methods’ zusammengefasst werden, als Methoden der empirischen Erfor-schung digitaler Kommunikation.

Die Kommunikationswissenschaft ist eine Sozialwissenschaft, die sich insbesondere im Prozess der Öffnung neuer Forschungsfelder an Ideen verschiedenster Disziplinen orientiert. Gerade bei der Entwicklung und Anwendung neuer Forschungsstrategien zur Analyse digitaler Kommunikation ist eine verstärkt interdisziplinäre Ausrich-tung geboten, da es Prozesse zu beobachten gilt, die mit den in der Auseinan-dersetzung mit Massenkommunikation entwickelten Zugängen kaum zu fassen sind. Informatik, Informationswissenschaft, Linguistik, Medienwissenschaft, und viele mehr erscheinen geeignet, um Inspiration und Orientierung für die Auseinander-setzung mit öffentlichen Kommunikationsprozessen im Internet zu finden.

Page 6: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

6

Mit der Tagung ‚Digital Methods’ wollen wir ein Forum für die Auseinandersetzung mit den neuen Forschungsstrategien und ihren Implikationen schaffen. Dabei wenden wir uns explizit auch an WissenschaftlerInnen anderer Disziplinen, um ge-meinsam möglichst breite Perspektiven auf wissenschafts- und sozialtheoretische Kontexte, methodologische Herausforderungen, methodische Umsetzungen sowie ethische Fragestellungen rund um ‚Digital Methods’ zu gewinnen:

• Wissenschaftstheoretische & methodologische Grundlagen: Wie können wir die Artefakte und ihre Analyse wissenschaftstheoretisch fassen? Welche Aus-sagen über die soziale Welt können wir durch eine Analyse digitaler Objekte machen? Wie prägen die für Datenaufbereitung und –analyse oftmals erforder-lichen technischen Hilfsmittel unsere Erkenntnisse? Welche Herausforderungen stellen sich bei der Interpretation von Ergebnissen von Datenanalysen?

• Sozial- und kommunikationstheoretische Diskussionen: Wie können wir die Artefakte digitaler Kommunikation sozial- und kommunikationstheoretisch fas-sen? Welche sozialen Bedeutungsmuster sind in den digitalen Objekten reprä-sentiert? Welche traditionellen kommunikationswissenschaftlichen Modelle und Theorien erweisen sich im Rahmen von mit ‚Digital Methods’ bearbeiteten Fragestellungen als fruchtbar bzw. wie müssen wir sie dazu adaptieren?

• Methodische Herausforderungen: Worauf gilt es bei der Aufbereitung und An-alyse von Daten zu achten? Wie lassen sich Grundgesamtheiten definieren und Stichproben ziehen? Welche Analysemethoden eignen sich für welche Form von Forschungsfragen? Wo stößt das bestehende Methodenarsenal an Grenzen und wie können diese Grenzen überwunden werden? Welche interdisziplinären An-sätze können hier gewinnbringend sein? In welchem Verhältnis stehen klas-sische sozialwissenschaftliche Methoden (z.B. Medieninhaltsanalyse) zu ‚Digital Methods’? Wie können ‚alte’ und ‚neue’ Methoden kombiniert werden?

• Anwendungen in der Sozialforschung: Für welche konkreten Fragestellungen eignen sich diese neuen Forschungsansätze? Welche Erkenntnisse wurden mit ‚Digital Methods’ gewonnen und welche Herausforderungen waren dabei zu meistern?

• Anwendungen in der Kommunikationspraxis: Wie werden ‚Digital Methods’ in der Kommunikationspraxis, z.B. dem Journalismus (Datenjournalismus) oder der Markt- und Meinungsforschung (Social Media Monitoring/Web Crawling) an-gewandt? Welche Herausforderungen stellen sich bei Digital Methods im Span-nungsfeld angewandter Kommunikationsforschung? Welche Geschäfts- und Berufsfelder entwickeln sich hier?

• Forschungsethische Reflexionen: Welche ethischen Herausforderungen gilt es in der Analyse der Artefakte sozialer Kommunikation im Internet zu beachten, z.B. im Spannungsfeld privater, semi-öffentlicher und öffentlicher Kom-munikation? Dürfen wir alle zugänglichen Daten nutzen? Wie sollten wir mit Daten umgehen, wie sollten wir sie sichern?

Page 7: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

7

Programm

DONNERSTAG, 13:00 - 18:00

Workshop Forschungsethik Pre-Tagungs-Workshop "Anything Goes? Ethische Perspektiven und Herausforderungen onlinebasierter Forschung"

Organisation: Nele Heise (Hans-Bredow-Insitut, Hamburg)

Ort: IPK Raum 7.03 (7. Stock) | gesonderte Anmeldung

DONNERSTAG, 19:00 - 23:00

Get-Together Ort: LOOP, Lerchenfelder Gürtel U-Bahnbogen 26/27, 1080 Wien

Konsumation auf eigene Rechnung.

FREITAG, 09:00 - 10:30

Eröffnung & Keynote PLENUM A | Moderation: Axel Maireder | Ort: Presseclub Concordia Saal

Begrüßung

Christina Schumann, Fachgruppen-Sprecherin (TU Ilmenau) Monika Taddicken, Fachgruppen-Sprecherin (Uni Hamburg) Jörg Matthes, Stv. Institutsvorstand IPK (Universität Wien)

Keynote

Jürgen Pfeffer (Carnegie-Melon University, Pittsburgh)

Big data, big research? Opportunities and constraints for computer supported social science (S.15)

Page 8: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

8

FREITAG, 11:00 - 12:30

Plenarvorträge PLENUM B | Chair: Monika Taddicken | Ort: Presseclub Concordia Saal Struktur: jeweils 20’ Vortrag und 10’ Diskussion

Christin Hildebrandt, Christina Schumann & Jens Wolling (TU Ilmenau) Google findet Teilen gut?! Eine empirische Studie zum Einfluss von Facebook-Shares und Co. auf das organische Ranking von Suchmaschinen (S.17)

Martin Emmer & Christian Strippel (FU Berlin) Die (Un‐)Möglichkeit der Ziehung von Inhaltsanalyse‐ Stichproben in der digitalen Welt (S.20)

Katrin Jungnickel (TU Ilmenau) & Axel Maireder (Uni Wien) Black Box Facebook-Timeline: Chancen und Herausforderungen eines Mehrmethodenansatzes (S.22)

...danach MITTAGESSEN im Vorraum des Presseclub Concordia (inkludiert) Catering von ‚Der Wiener Deewan Paktistani Food’

...anschließend gemeinsamer Ortswechsel zum IPK (ca. 15' Fussweg)

Page 9: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

9

FREITAG, 14:00 – 15:30

Themenöffentlichkeiten PANEL 1A | Chair: Julian Ausserhofer | Ort: IPK Seminarraum 2 (Untergeschoss) Struktur: jeweils 20’ Vortrag und 10’ Diskussion

Axel Bruns & Theresa Sauter (QUT Brisbane) Anatomie eines Trending Topics: Retweet-Ketten als Verbreitungsmechanismus für aktuelle Ereignisse (S.25)

Sanja Kapidzic, Christoph Neuberger (LMU München), Stefan Stieglitz & Malte Landwehr (Uni Münster) Definition, Dimensionierung und Operationalisierung von Themen – Korpuserstellung für die Analyse von Themenkarrieren auf Twitter (S.27)

Axel Maireder & Stephan Schlögl (Uni Wien) #aufschrei: Strukturanalyse einer Ad-Hoc-Öffentlichkeit (S.29)

Sprachanalysen PANEL 1B | Chair: Irmgard Wetzstein | Ort: IPK Seminarraum 9 (2. Stock) Struktur: jeweils 20’ Vortrag und 10’ Diskussion

Jessica Einspänner, Mark Dang-Anh & Caja Thimm (Uni Bonn) Computergestützte Inhaltsanalyse von politischen Diskursen auf Twitter: Ein Mixed-Methods-Ansatz zur Erschließung von Themen, Sprechakten und Argumentationsmustern (S.32)

Brigitte Krenn (OFAI, Wien) & Karin Wetschanow (Uni Wien) Methoden und Tools zum automatischen Erkennen von Doing Gender – Ein interdisziplinärer Ansatz (S.34)

Michael Eble & Daniel Stein (Fraunhofer IAIS, Bonn) Optionen von automatischer Sprachanalyse für die Untersuchung von öffentlicher Kommunikation im Internet (S.37)

...danach KAFFEEPAUSE (30'), Ort: IPK Foyer, 3. Stock

Page 10: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

10

FREITAG, 16:00-17:30

Theoretische Perpektiven PANEL 2A | Chair: Martin Emmer | Ort: IPK Hörsaal 3 (3. Stock) Struktur: jeweils 20’ Vortrag und 10’ Diskussion

Merja Mahrt (Uni Düsseldorf) Mit Big Data gegen das „Ende der Theorie“? (S.40)

Heinz Wittenbrink, Julian Ausserhofer & Brigitte Alice Radl (FH Joaneum Graz) Das Digitale, das Körperliche und das Öffentliche: Zur Vereinbarkeit von Digital Methods und praxissoziologischen Ansätzen (S.42)

Nele Heise (Hans-Bredow-Institut Hamburg) Big Data – small problems? Ethische Perspektiven auf Forschung unter Zuhilfenahme onlinebasierter Kommunikationsspuren (S.44)

Netzwerkanalyse PANEL 2B | Chair: Axel Bruns | Ort: IPK Seminarraum 2 (Untergeschoss) Struktur: jeweils 20’ Vortrag und 10’ Diskussion

Uwe Matzat & Chris Snijders (TU Eindhoven) Die Erhebung egozentrierter sozialer Netzwerke in Web Surveys: Experimente mit einer visuellen Erhebungsmethode zur Verbesserung der Datenqualität (S.47)

Bernhard Rieder (Uni v Amsterdam) Digitale Methoden und soziale Netzwerkplattformen: Zwischen Mediumspezifizität und analytischen Gesten (S.49)

Pascal Jürgens (Uni Mainz) & Andreas Jungherr (Uni Bamberg) Die Netzwerke politischer Gespräche im Vergleich: Twitternutzung in den Bundestagswahlkämpfen 2009 und 2013 (S.50)

...danach KAFFEEPAUSE (30'), Ort: IPK Foyer, 3. Stock

Page 11: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

11

FREITAG, 18:00 - 19:00

Fachgruppen-Sitzung Mitgliederversammlung der DGPuK Fachgruppe Computervermittelte Kommunikation. Gäste Willkommen!

Leitung: Christina Schumann & Monika Taddicken, Ort: IPK Hörsaal 3 (3.Stock)

FREITAG, 19:30 - 22:00

Abendessen Ort: Gasthaus Rebhuhn, Berggasse 24, 1090 Wien

Wiener Küche à la Carte (nicht inkludiert)

Fussweg vom IPK zum Gasthaus Rebuhn:

Page 12: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

12

SAMSTAG, 09:00 - 10:00

Professionelle Öffentlichkeiten PANEL 3A | Chair: Jessica Einspänner | Ort: IPK Hörsaal 3 (3. Stock) Struktur: jeweils 15’ Vortrag und 15’ gemeinsame Diskussion

Philip Sinner (Uni Salzburg) Profifußball online: Methodische Ansätze und empirische Ergebnisse einer Analyse erweiterter professioneller Öffentlichkeiten im Social Web (S.53)

Andreas Jungherr (Uni Bamberg) Digitale Spuren der Bundestagswahl 2009: Twitter-Nachrichten zwischen taktischer Unterstützung und symbolischer Zugehörigkeitserklärung (S.55)

Jürgen Grimm & Christiane Grill (Uni Wien) Politische Kommunikation auf Twitter. Ein methodischer Vergleich von konventioneller und automatisierter Inhaltsanalyse am Beispiel der Salzburger Landtagswahl (S.56)

Interpersonale Kommunikation PANEL 3B | Chair: Nele Heise | Ort: IPK Seminarraum 2 (Untergeschoss) Struktur: jeweils 15’ Vortrag und 15’ gemeinsame Diskussion

Anne-Kathrin Becker, Daniela Benger, Elisabeth Fanzke, Sven Jöckel & Marie-Christin Merkel (Uni Erfurt) Testing Dunbar’s Number: Die Analyse von Freundschaftsbeziehungen auf Facebook (S.60)

Felix Sattelberger & Wolfgang Seufert (Uni Jena) Lassen sich mit Social-Web-Analysen die Absatzprognosen für Vertrauensgüter verbessern? Eine Untersuchung zum Einfluss computervermittelter interpersonal-öffentlicher Kommunikationsprozesse über Filme vor deren Kinostart (S.63)

Christian Pentzold (HIIG, Berlin) “What are these researchers doing in my Wikipedia?”: Forschungsethische Axiome und forschungspraktische Kompromisse teilnehmenden Beobachtens in digital vernetzten Umgebungen" (S.67)

...danach KURZE PAUSE, ggf. zum Raumwechsel (15')

Page 13: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

13

SAMSTAG, 10:15 – 11:15

Nachrichten PANEL 4A | Chair: Jan Schmidt | Ort: IPK Hörsaal 3 (3. Stock) Struktur: jeweils 15’ Vortrag und 15’ gemeinsame Diskussion

Pascal Barro & Sven Engesser (Uni Zürich) Gesprächswert 2.0: Der Einfluss von Nachrichtenfaktoren auf die Anschluss-kommunikation auf Facebook (S.70)

Julian Ausserhofer (FH Joanneum Graz) „Digital Methods” im Journalismus: Workflows in datenjournalistischen Projekten (S.72)

Elisabeth Günther & Thorsten Quandt (Uni Münster) Keyword-basierte Themenerkennung von Online-Nachrichten Framing (S.75)

Framing PANEL 4B | Chair: Christiane Grill | Ort: IPK Seminarraum 2 (Untergeschoss) Struktur: jeweils 15’ Vortrag und 15’ gemeinsame Diskussion

Gianna Haake (Uni Münster) “Versteckte Deutungsrahmen? Framing-Analysen im Social Web” (S.77)

Christian Baden & Nina Springer (LMU München) »…mir ist das Wort zu frech und zu rotzig, liebe Journalisten«. Eine Analyse der Transformation von Medienframes durch aktive Nutzer (S.79)

Verena Grubmüller (INSET Wien) Social Media Analysen im Lichte ethischer Herausforderungen – Praxisbeispiele aus dem EU-Projekt „UniteEurope“ (S.81)

...danach LANGE SNACKPAUSE (45'): Gelegenheit zur ausführlichen Diskussion der Vorträge aus den kürzeren Panels bei Kaffee und einer kleinen Stärkung.

Ort: IPK Foyer, 3. Stock

Page 14: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

14

SAMSTAG, 12:00 – 13:30

Nutzung & Nutzungsmessung PANEL 5A | Chair: Jürgen Grimm, Ort: IPK Hörsaal 3 (3. Stock) Struktur: jeweils 20’ Vortrag und 10’ Diskussion

Pascal Jürgens, Birgit Stark & Melanie Magin (Uni Mainz) Identifikation und Messung algorithmischer Personalisierungseffekte am Beispiel von Google-Trefferlisten (S.84)

Julia Niemann (Uni Hohenheim) Online-Tracking und Experience Sampling Method als Mittel zur Erforschung des Privacy-Paradox (S.86)

Christian Strippel & Martin Emmer (FU Berlin) Logfile-Analyse als Instrument der Online‐Nutzungsmessung Web Monitoring (S.89)

Web Monitoring PANEL 5B | Chair: Stephan Schlögl | Ort: IPK Seminarraum 2 (Untergeschoss) Struktur: jeweils 20’ Vortrag und 10’ Diskussion

Jakob Jünger (Uni Greifswald) & Till Keyling (LMU München) Facepager. Ein Programm zur automatisierten Datenerhebung im Netz (S.91)

Irmgard Wetzstein (Uni Wien) Nutzen und Möglichkeiten automatisierter Social Media Monitoring Tools für die Kommunikationsforschung zur Erfassung und Analyse User-generierter Inhalte (S.92)

Patricia Müller, Wolfgang Schweiger (TU Ilmenau), Simone Kimpeler (Fraunhofer ISI, Karlsruhe) Entwicklung eines mehrsprachigen Web-Monitoring-Instruments am Beispiel eines Foresight-Projekts zu Gesellschaftstrends (S.95)

SAMSTAG, 13:30 – 14.00

Abschluss Wrap-Up und Verabschiedung; Ort: IPK Hörsaal 3 (3. Stock)

Page 15: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

15

PLENUM A | FR 09:00 - 10:30 | Chair: Axel Maireder| Ort: Presseclub Concordia

Keynote

Big data, big research? Opportunities and constraints for computer supported social science Jürgen Pfeffer (Carnegie Mellon University, Pittsburgh) Big data is one of the catch phrase of the current decade. In science, politics, and me-dia many hopes and fears are connected to this term. Billions of data points are crea-ted online every day and the ubiquitous proliferation of social media, like Facebook and Twitter, incorporate the activity of millions of people into this data stream.

The traces of these activities in databases offer exciting ways to study new (as well as very old) social science research questions, e.g., how does information diffuse, how do groups form, what are the dynamics of political discussion, and many more. Big data research is also well funded. While other research areas have been hit hard by the US sequester and budget cuts in many countries, the Obama administration announced the “Big Data Research and Development Initiative” in 2012 to fund research in this context with $200 Million dollars.

Since then, it seems to be quite obvious that this is connected to data collection and surveillance of hundreds of millions of people around the world accomplished by governments and their intelligence agencies. Beside the implications on privacy, a diverse array of methodological issues arises when analyzing large scale social sys-tems.

Many traditional algorithms have been developed to analyze the relationnal activities of small groups. Applying the same methods to very large datasets can be impossible because of calculation time. But there are also substantial conceptual questions embedded in analyzing these data. For instance, are the individuals in the dataset a good representation of the population that we want to study and are the data that we collect from a computer supported system good samples of the actual data that are stored by the system? And how can we identify and maybe measure possible bias?

Page 16: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

16

Jürgen Pfeffer earned a B.S. degree in Computer Science, an M.S. degree in Compu-ter Science Management, and a Ph.D. degree in Business Informatics from Vienna University of Technology.

He was working in industry and non-university research institutes for ten years before he joined the Institute for Software Research at Carnegie Mellon University in Pittsburgh (USA) as a Post-Doctoral Associate in December 2010. Since September 2012 Jürgen Pfeffer has been an Assistant Research Professor in the School of Computer Science at Carnegie Mellon University.

Pfeffer’s research focus lies in the computational analysis of organizations and socie-ties with a special emphasis on large-scale systems. He is particularly interested in methodological and algorithmic questions as well as challenges arising from ana-lyzing such systems.

His research combines traditional network analysis and dynamic network analysis theories and methods with up-to-date science from the areas of visual analytics, geographic information systems, system dynamics, and data mining. Most of Pfeffer’s work is at the intersection of computer science and social science.

Page 17: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

17

PLENUM B | FR 11:00 - 12:30 | Chair: Monika Taddicken | Ort: Presseclub Concordia

Plenarvorträge

Google findet Teilen gut?! Eine empirische Studie zum Einfluss von Facebook-Shares und Co. auf das organische Ranking von Suchmaschinen Christin Hildebrandt, Christina Schumann & Jens Wolling (TU Ilmenau) Die Forschung zu digitalen Kommunikationsprozessen schenkt zunehmend dem Fakt Beachtung, dass soziale Kommunikation im Netz nicht ‚nur‘ zwischen Menschen stattfindet, sondern auch durch ‚technische Akteure‘ wie Softwarecode bzw. Algorithmen geprägt ist (Heise, Dreyer, Schmidt, Johnsen & Deterding, 2013; Schmidt 2009). In diesem Zusammenhang wird die Bedeutung eines breiteren Wissens zur Frage, wie Code bzw. Algorithmen in die Kommunikationsprozesse eingreifen, gefor-dert (= Code Literacy, Heise, et al. 2013).

Die gesellschaftlich wie wirtschaftlich betrachtet wohl höchste Relevanz besitzen nach wie vor die Algorithmen von Suchmaschinen: Sie werden als Gatekeeper des Internets bezeichnet (Schweiger, 2004; Machill, Neuberger, Schweiger & Wirth, 2003; Wolling, 2002), weil sie darüber ‚entscheiden‘, welche Netzinhalte zu einer bestimmten Suchanfrage präsentiert und den Suchenden innerhalb ihrer Suchergeb-nisliste weit oben angezeigt werden und dadurch Relevanz suggerieren.

Über die Funktionsweise von Suchmaschinen und die Kriterien, durch die eine Website möglichst weit oben in den Suchergebnissen einer Suchmaschine aufgeführt wird, ist mittlerweile einiges bekannt (z.B. Düweke & Rabsch, 2012; Hamacher, 2010; Bischopnick & Ceyp, 2009; Glöggler, 2008). Seit einiger Zeit wird nun vermutet, dass auch Kommunikation in sozialen Netzwerken ein wichtiges Rankingkriterium sein könnte (Searchmetrics, 2012; SEOmoz, 2011). In erster Linie wird angenommen, dass sogenannte Social Signals die Positionierung verbessern. Social Signals sind „Links, die durch Empfehlungen aus sozialen Netzwerken entstehen“ (Schiff, 2013).

Der Beitrag setzt bei dieser Vermutung an und widmet sich folgenden Forschungs-fragen:

Welchen Einfluss haben Social Signals auf das Ranking von Webseiten in den organischen Suchergebnissen von Suchmaschinen?

Page 18: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

18

FF1: Unterscheidet sich der Einfluss von Social Signals verschiedener sozialer Netzwerke (Facebook, Twitter, Google+)

FF2: Wie stark ist der Einfluss von Social Signals im Vergleich mit anderen Ranking-Kriterien?

Die Beantwortung dieser Fragen ist methodisch anspruchsvoll, weil Algorithmen als neue, relevante ‚Akteure‘ im Kommunikationsprozess weder befragt (bzw. ihre Programmierer keine Auskunft geben würden), noch inhaltsanalytisch untersucht, noch direkt beobachtet werden können. Einem Großteil des sozialwissenschaftlichen Methodenspektrums sind sie damit nicht zugänglich. Es ist aber - zu einem gewissen Grad - möglich, ihre Funktionsweise in einer experimentellen Untersuchung zu prüfen. Die methodischen Herausforderungen bestehen hier erstens in der Manipu-lation der unabhängigen Variablen, sprich, der (vermuteten) Rankingkriterien und zweitens der ‚Erstellung der Experimentalteilnehmer‘, die in diesem Fall keine realen Personen sind, sondern Test-Webseiten.

Im Beitrag werden die Ergebnisse zweier Experimente vorgestellt, die sich diesen methodischen Herausforderungen stellen: Dazu wurden gezielt Social Shares in den Netzwerken Twitter, Facebook und Google+ variiert (keine Betrachtung von Likes oder Kommentaren). Zur Ermittlung der Platzierung (abhängige Variable) wurde die Suchmaschine Google fokussiert.

Für beide Experimente wurden jeweils Test-Webseiten angelegt, für die Social Shares aus den unterschiedlichen Netzwerken erzeugt wurden. Jedes Experiment bestand aus drei Experimentalgruppen (Facebook, Google+, Twitter) und einer Kontroll-gruppe (keine Social Shares). Damit ergibt sich folgendes Untersuchungsmodell:

Social Signals (Facebook, Twitter, Google+) Testseiten Position Suchergebnisse

Unabhängige Variable Abhängige Variable

Abb. 1: Untersuchungsmodell

Ziel von Experiment 1 war es, unter Ausschluss möglichst vieler Störfaktoren den Einfluss von Social Signals zu testen (hohe interne Validität). Die Testseiten wurden daher auf das fiktive Keyword ‚Savennenkatze‘ optimiert, d.h. dass keine anderen, bereits existierenden Seiten bei einer Suche nach Savennenkatze angezeigt werden. Experiment 2 hingegen untersucht den Einfluss der Social-Signal-manipulierten Seiten in direkter Konkurrenz zu anderen Webseiten (hohe externe Validität). Hierfür wurden Seiten angelegt, die auf das existierende Keyword ‚Studentenwohnung‘ optimiert wurden, zu dem bei einer Suche in der Trefferliste die Testseiten in Konkurrenz mit anderen Seiten stehen.

Page 19: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

19

Jeder Testseite wurden Social Shares nach folgendem Muster zugewiesen:

Experiment 1 Experiment 2

25 Social Shares von… Facebook à www.savennenkatze1.de Google+ à www.savennenkatze2.de Twitter à www.savennenkatze3.de Kontrollseite: www.savennenkatze.de

60 Social Shares von… Twitter à www.studentenwohnung-online1.de Google+ à www.studentenwohnung-online2.de Facebook à www.studentenwohnung-online3.de Kontrollseite: www.studentenwohnung-online.de

Abb. 2: Versuchsaufbau

Die Generierung von Social Shares erfolgte über reale Personen, die gezielt in den drei sozialen Netzwerken angesprochen wurden. Die Personen wurden nach der Matched-Pairs-Methode aufgeteilt: In jeder Experimentalgruppe waren damit statistische Zwillinge hinsichtlich erstens der Anzahl an Freunden bzw. Followern sowie zweitens der durchschnittlichen Aktivität im Netzwerk enthalten, da vermutet wird, dass die Social Shares von besonders aktiven Personen mit vielen Verbindungen von den Suchmaschinen stärker berücksichtig werden (=hohe Nutzerautorität; Enge, Spencer, Stricchiola & Fishkin, 2012). Die Durchführung der Experimente erfolgte von Januar bis Anfang März 2013. In diesem Zeitraum wurden kontinuierlich Shares von den Netzwerkusern auf die entsprechenden Seiten verteilt. Der Rankingverlauf der Seiten wurde durch den ‚Keywordmonitor‘ (wöchentliche Auswertung) sowie durch das Plugin ‚SEO SERP Bench‘ (tägliche Auswertung) aufgezeichnet.

Im Beitrag werden die Rankingverläufe der beiden Experimente dargestellt und Veränderungen interpretiert. Zusammenfassend zeigen die Ergebnisse beider Experimente einen positiven Zusammenhang zwischen den Social Shares und den Positionen der Testseiten in den Suchergebnissen. Bezüglich der Wirkung der einzelnen Netzwerke konnten keine eindeutigen Ergebnisse festgestellt werden. Im Vergleich mit real existierenden Konkurrenzseiten - und somit weiteren Ranking-kriterien - scheinen Social Signals einen vergleichsweise geringen Einfluss zu haben. Methodische Limitationen der Experimente werden diskutiert. Bischopnick, Y. & Ceyp, M. (2009). Suchmaschinen-Marketing: Konzepte, Umsetzung und Controlling. Berlin:

Springer. Düweke, E. & Rabsch, S. (2012). Erfolgreiche Websites: SEO, SEM, Online-Marketing, Usability. Bonn: Galileo

Computing. Enge, E., Spencer, S., Stricchiola, J. & Fishkin, R. (2012). The Art of SEO. Mastering Search Engine Optimiziation

(Theory in Practice, Bd. 2). Sebastopol (USA): O'Reilly Media. Glöggler, M. (2008). Suchmaschinen im Internet: Funktionsweisen, Ranking Methoden, Top Positionen. Berlin:

Springer. Hamacher, T. (2010). Suchmaschinenmarketing: Neue Marketing-Strategien für kleine und mittlere

Wettbewerber. Marburg: Tectum Verlag.

Page 20: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

20

Heise, N., Dreyer, S., Schmidt, J., Johnsen, K. & Deterding, S. (2013, Mai). Code Literacy – Verstehen, was uns online lenkt. Workshop auf der re:publica 13, Berlin. http://re-publica.de/sessions/code-literacy-verstehen-was-uns-online-lenkt. Zugegriffen: 06. Sept. 2013.

Machill, M., Neuberger, C., Schweiger, W. & Wirth, W. (2003). Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. In M. Machill & C. Welp (Hrsg.), Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen (S. 13–490). Gütersloh: Verlag Bertelsmann Stiftung.

Schiff, D. (2013). Social SEO: Unternehmer-Ratgeber zu Social Media, Google, SEO & SEM. Heidelberg, München, Landsberg, Frechen, Hamburg: bhv.

Schweiger, W. (2004, 05. Oktober). Was haben Suchmaschinen mit Massenmedien zu tun? Medienstrukturen, Publikumsverhalten und Informationsfreiheit. Medienheft. http://www.medienheft.ch/index.php?id=14&no_cache=1&tx_ttnews[tt_news]=356&cHash=4294813fbbd3a9d9021244831714620a. Zugegriffen: 06. Sept. 2013.

Searchmetrics. (2012). SEO Ranking Faktoren für Google Deutschland 2012. http://www.searchmetrics.com/ de/services/whitepaper/seo-ranking-faktoren-deutschland/. Zugegriffen: 06. Sept. 2013.

SEOmoz. (2011). 2011 Search Engine Ranking Factors. http://moz.com/article/search-ranking-factors/2011. Zugegriffen: 06. Sept. 2013.

Wolling, J. (2002). Suchmaschinen – Gatekeeper im Internet. Medienwissenschaft Schweiz (2). http://www.wolling.de/pdfs/wolling_suchmaschinen.pdf. Zugegriffen: 06. Sept. 2013.

Die (Un-)Möglichkeit der Ziehung von Inhalts-analyse-Stichproben in der digitalen Welt Martin Emmer & Christian Strippel (FU Berlin)

Ziel des Beitrags Die Qualität sozialwissenschaftlicher Empirie hängt in ganz erheblichem Maß von der Qualität der Stichprobe ab, über die Daten erhoben werden. Ist der Schluss von Befunden in der Stichprobe auf die jeweils angestrebte Grundgesamtheit nicht sicher, ist die Aussagekraft einer Studie – egal wie gut begründet das theoretische Modell und wie elaboriert die Auswertungsmethoden sein mögen – gering. Deshalb haben sich in der empirischen Sozialforschung im Laufe der Zeit Standardmethoden entwickelt, die sicherstellen sollen, dass solche Schlussfolgerungen möglich sind.

Insbesondere für den Bereich der Inhaltsanalyse muss man jedoch feststellen, dass auf die neue digitale Kommunikationswelt viele solcher Verfahren nicht mehr einfach übertragbar sind. Vor diesem Hintergrund verfolgt dieser Beitrag zwei Ziele:

1. Es sollen die spezifischen Probleme der Stichprobenziehung im Rahmen von Inhaltsanalysen von gesellschaftlicher Online-Kommunikation analytisch ermittelt werden;

2. Es sollen mögliche Wege des Umgangs mit diesen Problemen auf Basis mehrerer Pilotstudien vorgestellt werden.

Page 21: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

21

Probleme der Ziehung von Inhaltsstichproben online Das gravierendste Problem für die Ziehung von Inhaltsstichproben ist die Tatsache, dass sich in vielen Fällen die Grundgesamtheit höchstens theoretisch, nicht aber praktisch als Auswahlgesamtheit beschreiben lässt. Dies hängt wesentlich damit zusammen, dass die „Öffentlichkeit“ von Kommunikation dort nicht mehr klar an massenmediale Publikationsformen geknüpft ist: Auch Blogs, Facebook-Gruppen oder private Webseiten können dort zum Diskurs, zum Agenda-Setting etc. beitragen. Eine vollständige Beschreibung dieses – sekündlich wachsenden und sich verändernden - Universums ist unmöglich, und damit auch eine systematische Stichprobenziehung.

In der Methodenliteratur und auch der empirischen Forschung wird aus diesem Grund häufig auf die Möglichkeit des Einsatzes von Suchmaschinen verwiesen, die zumindest die gesellschaftlichen Relevanzbedingungen gut abbilden würden, unter denen Online-Inhalte zugänglich sind und genutzt werden (Gerhards & Schäfer, 2007; Welker & Wünsch, 2010). Es lässt sich argumentieren, dass alles, was von Google nicht angezeigt wird, für die Nutzung faktisch nicht zur Verfügung steht und deshalb auch nicht Teil der relevanten Grundgesamtheit ist.

Seit etwa 2009 ist jedoch bekannt, dass Google (und auch andere zentrale Web-Akteure wie Facebook) in seinen Algorithmen nicht mehr nur angebotsbezogene Relevanzkriterien berücksichtigt (wie die Anzahl der Links auf eine Seite), sondern auch nutzerseitige Variablen. Abhängig von früheren Suchanfragen und weiteren verfügbaren Nutzerdaten werden die ausgegebenen Suchergebnisse nach (vermuteten) Präferenzen der Nutzer gefiltert. Folge könnten sog. „Filter Bubbles“ (Pariser, 2011) sein: personalisierte Sphären, in denen jedem Nutzer eine individuell angepasste virtuelle Welt konstruiert wird. Im Vortrag werden Daten aus verschiedenen Tests präsentiert werden, die zeigen, dass bei der Suche nach Themen auf der politischen Agenda die Übereinstimmungen der Suchergebnisse je nach Person und genutzter Infrastruktur zwischen 40 und 90% schwanken können.

Neben diesen gravierenden stichprobentheoretischen Problemen existieren weitere Herausforderungen, die etwa mit der Identifizierung von Untersuchungseinheiten, Archivierbarkeit von Beiträgen etc. zu tun haben, die ebenfalls diskutiert werden sollen.

Lösungsansätze Als Lösung werden technische Maßnahmen diskutiert (Abschaltung von Cookies, Skripten), mit deren Hilfe sich die individuellen Unterschiede in Suchergebnissen reduzieren lassen. Diese dürften allerdings dem üblichen Nutzerverhalten im Internet kaum entsprechen und die Validität der Suchergebnisse nicht verbessern. Realistischer ist die Zerlegung des Verfahrens der Stichprobenziehung in mehrere Schritte, bei denen die Identifikation von Orten bzw. Angeboten im Netz, an denen für die Inhaltsanalyse relevante Kommunikation stattfindet, systematisch von der Sammlung der dort vorhandenen Kommunikation getrennt wird. Dabei muss sowohl auf theoretische wie zufallsgesteuerte Auswahlverfahren zurückgegriffen werden, um

Page 22: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

22

zu einen Korpus an Material zu kommen, dem man eine annähernde Repräsentativität für eine Online-Öffentlichkeit unterstellen kann. Mögliche Vorgehensweisen und Probleme sollen am Beispiel einer inhaltsanalytischen Untersuchung zu einem politischen Konfliktthema aus dem Jahr 2012 vorgestellt und diskutiert werden.

Letztlich stellt die Stichprobenziehung für Inhaltsanalysen im Internet eine Herausforderung dar, die eine komplexe Kombination aus theoretischen und zufallsgesteuerten Auswahlschritten erfordert und in Inhaltsanalyse-Projekten eine intensivere Auseinandersetzung mit stichprobentheoretischen Problemen erfordert, ebenso wie einen intensiveren Zeit- und Mitteleinsatz als bei der Analyse herkömmlicher massenmedialer Kommunikationsinhalte. Gerhards, J., & Schäfer, M. S. (2007). Demokratische Internet-Öffentlichkeit? Ein Vergleich der öffentlichen

Kommunikation im Internet und in den Printmedien am Beispiel der Humangenomforschung. Publizistik, 52(2), 210-228.

Pariser, E. (2011). The Filter Bubble: What the Internet is Hiding from You. New York: Penguin Press. Welker, M., & Wünsch, C. (2010). Methoden der Online-Forschung. In W. Schweiger & K. Beck (Hrsg.),Handbuch

Online-Kommunikation (S. 487-517). Wiesbaden: VS Verlag.

Black Box Facebook-Timeline: Chancen und Herausforderungen eines Mehrmethodenansatzes. Katrin Jungnickel (TU Ilmenau) & Axel Maireder (Uni Wien) Immer mehr Menschen erhalten Nachrichten und Informationen zu aktuellen Ereignissen über ihreKontakte in sozialen Onlinenetzwerken. Laut ARD/ZDF-Online-studie informieren sich 27 Prozent aller deutschen Community Nutzer dort über spezielle Interessensgebiete und 15 Prozent über tagesaktuelle Nachrichten aus Politik und Wirtschaft (Busemann & Gscheidle, 2012). Die in Deutschland wichtigste Community ist mit knapp 20 Millionen Nutzern Facebook (ebd.), auf der letztes Jahr 21,3 Millionen mal Artikel von den Top 15 der deutschen Onlinemedien empfoh-len wurden (Schiller et al., 2013). Die Frage nach der Rolle von Facebook bei der Diffusion von Medieninhalten, und damit nach der Dynamik öffentlicher Kommunika-tionsprozesse, gewinnt so an Bedeutung.

Vor dem Hintergrund des ‚Multi-Step-Flow of Communication’ und Theorien sozialer Netzwerke ist besonders spannend, welche Inhalte Nutzer von welchen Kontakten (enge Freunde, entfernte Bekannte, Organisationen oder den Medien) auf Facebook erhalten. Dabei interessieren insbesondere jene Inhalte, die Relevanz für die politische Meinungsbildung haben könnten. Leider gibt es dazu bislang kaum

Page 23: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

23

Erkenntnisse, sicherlich auch, da sich bei der empirischen Bearbeitung dieser Frau-gen einige tiefgreifende methodische Probleme stellen. Die bisherige Forschung zu Facebook hat vor allem auf Befragungen der Nutzer, teils auch auf Inhaltsanalysen einzelner Facebook-Profile zurückgegriffen (vgl. Weissensteiner & Leiner 2011). Für die Beantwortung der oben skizzierten Fragen sind diese beiden Methoden für sich alleine jedoch unzureichend:

• Mit Inhaltsanalysen kann man zwar (öffentliche) Profile von Facebook-Nutzern analysieren, nicht aber ihre jeweilige Timeline, auf der sie von anderen geteilte Inhalte erhalten. Dazu würde man die Erlaubnis der Nutzer benötigen, sich unter ihren Namen bei Facebook einzuloggen. Dies ist sowohl aus forschungspraktischer und forschungsethischer Perspektive als auch aus Datenschutzgründen problema-tisch. Zudem kann die Bestimmung des Beziehungsverhältnisses zwischen Nut-zern (z.B. weak ties, strong ties) nur durch die Befragung der Nutzer selbst vorge-nommen werden.

• Bei Befragungen stellen sich wiederum Probleme bei der Frage nach den Inhalten in der Facebook Timeline. Offene Fragen würden dabei wohl wenig spezifische Antworten liefern. Bei geschlossenen Fragen nach konkreten Inhalts-formen (z.B. politische Inhalte, Nachrichten, etc.) müssten die Einschätzungen zur Klassifikation den Befragten überlassen werden – eine überaus problema-tische Vorgangsweise.

Um diese Schwierigkeiten zu umgehen, haben wir in einem Mehrmethoden-Design Befragung und Inhaltsanalyse kombiniert. Dazu baten wir Facebook-Nutzer aus Deu–tschland und Österreich, bis zu fünf externe, auf Seiten außerhalb von Facebook führende Links, die sie zuletzt über ihre Facebook- Timeline erhalten haben, in einen Online-Fragebogen zu kopieren. Zusätzlich gaben sie jeweils an, welche Beziehung sie zu der Person hatten, die den Link geteilt hat, und wie sehr sie an dem In–halt interessiert sind. Von insgesamt 745 Befragungsteilnehmern kopierten 557 Nut–zer insgesamt 2653 Links in den Fragebogen, deren Zielseiten wir anschließend inhaltsanalytisch untersuchten. Dieses Vorgehen brachte methodisch einige Vorteile mit sich:

• Wir hatten die Möglichkeit, die verlinkten Inhalte selbst mit Hilfe eines stan-dardisierten Codebuchs inhaltsanalytisch im Hinblick auf Urheber, Thema und Datentyp (Bild, Video, Text) zu klassifizieren – was aufgrund der Heterogenität der Angebote eine ganz eigene Herausforderung darstellte.

• Wir konnten die Nutzer selbst nach der Form ihrer Beziehung zu denjenigen befragen, die die Medieninhalte geteilt hatten, und diese Angaben mit der In–haltsanalyse verknüpfen.

Unser Ansatz lieferte interessante Befunde. So zeigte sich beispielsweise, dass die Beziehungsqualität zwischen den Nutzern einen direkten Einfluss auf das Interesse an dem jeweiligen Inhalt hat, und zwar unabhängig von Thema und Urheber des ver-linkten Inhalts.

Page 24: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

24

Bei der Untersuchung offenbarten sich jedoch auch einige Schwächen: Wie bei vielen anderen Facebook-Studien war die fehlende Repräsentativität der Teilnehmer ein Problem. Die Befragten wurden im Schneeballverfahren über Facebook und studen-tische E-Mail-Verteiler in Deutschland und Österreich rekrutiert. Dadurch besteht un-sere Stichprobe hauptsächlich aus jungen (Durchschnittsalter: 25), höher gebildeten (98% Hochschulreife) Personen. Durch Rückgriff auf ein repräsentatives Online-Panel könnte man hier eine bessere Verallgemeinerbarkeit der Ergebnisse erreichen.

Ein weiteres Problem ist, dass 25 Prozent der Teilnehmer nicht bereit waren, die Links aus ihrer Facebook-Timeline in den Fragebogen zu kopieren und die Befragung abbrachen. Unter den „Abbrechern“ waren mehr Männer und weniger Menschen mit einem Medienbezug in Studium und/oder Beruf. Außerdem ist diese Gruppe etwas weniger aktiv auf Facebook und hat dort auch weniger Freunde.

Bei der Inhaltsanalyse der Linkinhalte war schließlich die Klassifikation ihrer Urheber eine besondere Herausforderung. Viele Inhalte stammen aus Quellen, für die bisher keine stichhaltigen kommunikationswissenschaftlichen Definitionen existieren. Darüber hinaus sind die unmittelbare Quelle und der Urheber des Inhaltes häufig nicht identisch – wie beispielsweise bei einem Fernsehbeitrag des ZDF, den ein anderer Nutzer auf Youtube hochlädt.

Trotz einiger Probleme zeigt unsere Studie, dass man mit einer Kombination aus Befragung und Inhaltsanalyse interessante Erkenntnisse zu den Inhalten der Facebook-Timeline von Nutzern erhalten kann. Die Anwendungsmöglichkeiten für diese Methode sind vielfältig: Anstelle von Links könnte man die Befra-gungsteilnehmer auch bitten, andere Inhalte für die spätere Analyse zu kopieren. Die Vorsicht der Menschen ist dabei jedoch nicht zu unterschätzen. Selbst bei Links, die eigentlich recht wenig Privates preisgeben, haben einige Teilnehmer Vorbehalte, die bei der Planung einer solchen Studie berücksichtigt werden müssen. Busemann, K. & Gscheidle, C. (2012). Web 2.0: Habitualisierung der Social Communitys. Media Perspektiven,

(7-8), 380-390. Schiller, B., Heimbach, I., Strufe, T. & Hinz, O. (2013). Development of the Social Network Usage in Germany in

2012. Online verfügbar: http://www.emarkets.tu-darmstadt.de/forschung/social-networkusage-in-germany-study/

Weissensteiner, E. & Leiner, D. (2011). Facebook in der Wissenschaft. Forschung zu sozialen Onlinenetzwerken. Medien und Kommunikationswissenschaft, 59 (4), 526-544.

Page 25: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

25

PANEL 1A | FR 14:00 - 15:30 | Chair: Julian Ausserhofer | Ort: IPK Seminarraum 2 (UG)

Themenöffentlichkeiten

Anatomie eines Trending Topics: Retweet-Ketten als Verbreitungs-mechanismus für aktuelle Ereignisse Axel Bruns & Theresa Sauter (QUT Brisbane) Am 9. Oktober 2012 entfachte eine Wutrede der australischen Premierministerin Julia Gillard, in der sie Oppositionsführer Tony Abbott als Frauenhasser brandmarkte, ein Lauffeuer von YouTube-Abrufen, Facebook-Posts, Tweets und Retweets im globalen sozialen Mediennetz. Die blitzschnelle, weltweite Verbreitung des Videoclips von Gil-lards Rede, und die Entfaltung einer damit verbundenen Diskussion zwischen Nor-malbürgern, Journalisten und Politikern, ist bezeichnend für die Art und Weise auf die Kommunikationsabläufe sich im digitalen Raum abspielen. In unserem Beitrag analysieren wir die Verbreitung des lokalen politischen Ereignisses im globalen digi-talen Netzwerk, indem wir Retweet-Ketten des Videoclips anhand qualitativer und quantitativer Forschungsmethoden nachverfolgen und auswerten. Eine solche Unter-suchung bietet Einblicke in die Entstehung globaler Kommunikationsmuster und öf-fentlichen Meinungsaustauschs.

Gillards flammende, aus dem Stegreif gehaltene fünfzehnminütige Rede gegen Sexismus und Frauenfeindlichkeit, in der sie es ablehnte, sich von ihrem politischen Erzfeind zum Thema Misogynie belehren zu lassen, wurde in Windeseile im digitalen öffentlichen Raum verbreitet und thematisiert. Innerhalb kürzester Zeit wurde das auf die Website des öffentlich-rechtlichen australischen Senders ABC sowie auf You-Tube gestellte Video über 300,000 Mal angesehen. Aktuell hat das Video an die zwei-einhalb Millionen Aufrufe auf YouTube. Auf Facebook verbreiteten sich Best-of-Aus-schnitte der Rede und auf Twitter wurde das Thema unmittelbar zum „Trending To-pic“. Die massive Verbreitung des Videos durch neue digitale Medien bietet Gelegen-heit zu analysieren, wie sich Informationen im globalen Netz verbreiten, und zu erör-tern was uns dies zu modernen Kommunikationsabläufen und -inhalten zu sagen hat.

Unsere Studie bezieht sich speziell auf die Verbreitung und Weiterleitung von Links auf Twitter, die auf den vollen Videoclip der Rede zeigen, der von der ABC auf ihrer Website veröffentlicht wurde. Im Rahmen eines bestehenden Forschungsprojektes, das zur Erstellung des Australian Twitter News Index (ATNIX) fortwährend sämtliche auf die einschlägigen australischen Leitmedien zeigenden Links erfaßt, die über Twitter verbreitet werden (Bruns et al. 2013), wurden auch die Tweets über das

Page 26: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

26

Gillard-Video bei der ABC von Anfang an von uns gesammelt; dies ermöglicht es uns, von den ersten Tweets am 9.10.2012 an die Weiterverbreitung des Videos durch Twitternutzer zu verfolgen. Ein besonderes Interesse gilt dabei vor allem den Ketten von Retweets, die das Video über das Netz von Twitterteilnehmern verbreiten, sowie der Frage, inwieweit solche Dissemination ein Ergebnis vieler einzelner originärer Tweets oder einiger weniger massenhaft geretweeteten ersten Tweets ist – und ob in diesen Prozessen die bestvernetzten Twitternutzer (als „opinion leaders“; Katz 1957; Katz und Lazarsfeld 1957) eine besondere Rolle spielen.

Durch diesen Ansatz ergibt sich daher zum einen ein detailliertes Bild der Disseminationsdynamik im vorliegenden Fall; zum anderen jedoch ist diese Fallstudie eines akuten Medienereignisses auch in der Lage, Einsichten in die allgemeinen Muster der Nachrichtenverbreitung auf Twitter zu geben. Da die nutzergesteuerte Weiterleitung von Links zu aktuellen Nachrichten eine immer größere Rolle im Informationskonsum der Netznutzer darstellt, ist die Untersuchung der Weiterleitungsstrukturen im Fall Gillard daher auch von allgemeiner Bedeutung.

Das durch soziale Medien verbreitete Video entfachte eine globale Diskussion im digitalen Raum zur Frauenfeindlichkeit und Frauenpower. Digitale Kommunikations-tools ermöglichten es einfachen Bürgern, sich asynchron und unabhängig von zeitlichen und räumlichen Dimensionen (boyd, Golder und Lotan 2010) am öffentlichen Meinungsaustausch zu beteiligen. Innerhalb der weitläufigeren globalen Diskussion entstanden auch unterschiedliche lokale Reaktionen und Meinungen. Die Kommunikationsinhalte dieser neuen virtuellen Öffentlichkeit bieten reichhaltige Einblicke in moderne, globale Kommunikationsmuster. Durch neue Forschungs–strategien können diese digitalen Kommunikationsabläufe analysiert, und aktuelle kulturelle, soziale und politische Kontexte thematisiert werden.

Neue Kommunikationsabläufe erfordern neue Forschungsstrategien. Die Untersuch-ung der Retweet-Kette zur Gillard-Rede bietet Gelegenheit, solch neue Methoden hervorzuheben. Webberley, Allen und Whitaker (2011) bekunden, dass die Unter-suchung von Retweets es Forschern ermöglicht zu analysieren, wie Informationen durch die soziale Struktur des Twitternetzwerkes verbreitet werden, um anhand dessen zu deuten, welche Art von Information die grösste Wahrscheinlichkeit hat, verbreitet zu werden. In unserem Beitrag veranschaulichen wir methodische Mittel, durch die Entwicklung und Verbreitung digitaler Diskussionen analysiert werden können. Eine solche Analyse bezeugt die wesentlichen Einblicke, die digitale Kommunikation uns in moderne soziale und politische Themen bietet. boyd, d., Golder, S., & Lotan, G. (2010). Tweet, Tweet, Retweet: Conversational Aspects of Retweeting on

Twitter. HICSS-43. IEEE: Kauai, HI, 6. Januar. Bruns, A., Harrington, S., & Highfield, T. (2013). Sharing the News: Dissemination of Links to Australian News Sites on

Twitter. In J. Gordon, P. Rowinski & G. Stewart (Hrsg.), Br(e)aking the News (S. 181-210). NY: Peter Lang. Katz, E. (1957). The Two-Step Flow of Communication: An Up-to-Date Report on an Hypothesis. Public Opinion

Quarterly, 21, 61-78. Katz, E., & Lazarsfeld, P.F. (1957). Personal Influence: The Part Played by People in the Flow of Mass

Communications. New York: Free Press. Webberley, W., Allen, S., & Whitaker, R. (2011). Retweeting: A study of message-forwarding in twitter. In Mobile and

Online Social Networks (MOSN), 2011 Workshop on Mobile and Online Social Networks (S. 13-18). IEEE, 7-8.9.

Page 27: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

27

Definition, Dimensionierung und Operationalisierung von Themen – Korpuserstellung für die Analyse von Themenkarrieren auf Twitter Sanja Kapidzic, Christoph Neuberger (LMU München), Stefan Stieglitz & Malte Landwehr (Uni Münster) Das Thema ist eine wichtige Kategorie der Kommunikationswissenschaft: In Inhaltsanalysen dient es als Auswahlkriterium für das Untersuchungsmaterial und als Erhebungsvariable. Auch in theoretischen Ansätzen wie dem „Agenda-Setting“ hat das Thema eine zentrale Stellung. Dazu im Widerspruch steht, dass weder der Themenbegriff noch seine Anwendung bisher in der Kommunikationswissenschaft tiefer reflektiert wurden. Zumeist wird ein intuitives Vorverständnis für ausreichend gehalten (vgl. Dernbach 2000: 38).

Das Internet ermöglicht es, Themenbereiche kontinuierlich und im Vergleich zu beobachten. Im interdisziplinären Projekt, das vorgestellt wird, bilden Themenbereiche den Beobachtungsfokus eines Twitter-Monitorings, in dem das Aufkeimen und die Karriere von Einzelthemen analysiert werden sollen. Die Textkorpora werden mit Hilfe eines Keyword-Tracking gesammelt. Dafür muss im Vorfeld theoretisch und methodisch die Frage geklärt werden: Wie können Themen definiert, dimensioniert und operationalisiert werden? Diese Vorarbeiten werden im Vortrag in mehreren (hier knapp skizzierten) Schritten präsentiert, wobei der Schwerpunkt auf der empirischen Evaluation liegt.

1) Themenbegriff und Themenmodell: Themen sind „Sinnkomplexe“ (Luhmann 1974: 34), die sozial nach bestimmten Mustern konstruiert werden und Kommunikation inhaltlich strukturieren. Konkrete Themen lassen sich sachlich, sozial, zeitlich und räumlich näher bestimmen und nach ihrem Allgemeinheitsgrad (Sparten, Themen-bereiche, Einzelthemen, Ereignisse) unterscheiden. Die Bestimmung eines Themas geschieht metakommunikativ durch die Art, wie Beiträge konstruiert sind, und ihre ausdrückliche Etikettierung (z.B. „Drohnen-Affäre“, „Jahrhunderthochwasser“).

2) Typisierung und Wahl der Themenbereiche: Da Themen subjektiv definiert werden, sind der Vielfalt möglicher Abgrenzungskriterien kaum Grenzen gesetzt. Für das Projekt wurden folgende Typen von Themenbereichen unterschieden (Einzelthemen in Klammern):

• sachlich bestimmte Themenbereiche (Energiewende, Datenschutz);

• Themenbereiche, die durch eine soziale Konstellation, Valenz und einen zeitlichen Verlauf definiert sind und in unterschiedlichen sachlichen Kontexten auftauchen können (Skandal, Katastrophe);

Page 28: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

28

• Wahlkämpfe (als wichtiger Sonderfall), die eng mit dem zentralen politischen Entscheidungsmechanismus verknüpft sind und heterogene Einzelthemen hervorbringen.

3) Definition und Dimensionierung der Themenbereiche: Als Ausgangspunkt wurden sachlich breit angelegte, zeitlich nicht an die Tagesaktualität gebundene, systema-tisierende Texte gewählt, die zumeist von Experten stammen, um den Themenbereich abzugrenzen und zu dimensionieren. Angelehnt an den Framing-Ansatz, die Nachrichtenwerttheorie, die linguistische Analyse von Nachrichten-schemata und die Erzähltheorie lassen sich Dimensionen unterscheiden. Als theoretisch relevant und praktikabel erwiesen sich drei Hauptdimensionen: „Akteure“, „Definition von Schaden und/oder Nutzen“ sowie „Problemlösungen“.

4) Bestimmung und Evaluation der Keyword-Listen: Bei der Bestimmung der Suchwörter wurden vier Wege eingeschlagen: Auswertung von systematisierenden Gesamtdarstellungen des Themenbereichs, Suche nach Synonymen im Duden, Auswertung von Glossaren und Häufigkeitsauszählung aktueller journalistischer Artikel. Da Suchen auf Twitter nicht immer zuverlässig alle Wörter mit gleichem Wortstamm erfassen, wurden die Listen durch alle sich von der Grundform unterscheidenden Wortvarianten ergänzt.

Die Suchwortlisten bestanden aus insgesamt 769 Keywords, die im Juni 2013 in einer einwöchigen Testphase eingesetzt wurden: Energiewende: 341 (darunter 139 Grund-formen und 202 Beugungen), Datenschutz: 106 (49, 57), Skandal: 80 (30, 50), Katastrophe: 198 (68, 130) und Wahlen 44 (44, 0). In der Testwoche wurden insgesamt 199.764 Beiträge gesammelt, im Durchschnitt 260 Beiträge pro Keyword. Für die optimale Erfassung eines Themenbereiches und darin aufkommender Einzelthemen sollten drei Kriterien erfüllt werden: (1) Die Suche nach Beiträgen sollte möglichst nicht auf einem oder wenigen Suchbegriffen basieren. (2) Unproduktive Keywords sollten nicht aufgenommen werden, da sie zur Belastung des Abfragesystems führen. (3) Keywords, die viele irrelevante Beiträge erfassen, sollten nicht aufgenommen werden, da sie die Ergebnisse verfälschen. Die Keywords wurden im ersten Schritt auf ihre Produktivität geprüft. Keywords, die in der Testwoche zehn oder weniger Tweets produzierten, wurden aussortiert. Im weiteren Schritt wurden alle Beugungen eines Wortes aggregiert betrachtet. Wenn ein Keyword nicht mindestens 20% der durch einen Grundbegriff und die dazugehörigen Beugungen erfassten Tweets produzierte, wurde es im Vergleich zu den anderen Wortformen als unproduktiv gewertet und aussortiert (z.B. Brand: 7110, Brände: 16, Bränden: 16, Brandes: 37, Brands: 345 – gesamt 7524, das Wort Brand generierte fast 95% der Beiträge). Für die verbliebenen 270 Suchwörter wurden jeweils 50 Tweets per Zufallsauswahl gezogen, die zusätzlich auf ihre inhaltliche Relevanz überprüft wurden.

Nur 108 (40%) dieser Keywords sammelten mehr als 50% relevante Beiträge. Es zeichneten sich auch deutliche Unterschiede bei den Themenbereichen ab: Alle Keywords aus dem Bereich „Wahlen“ griffen relevante Tweets ab, im Bereich „Datenschutz“ waren es 78% (25) der Keywords, bei der „Energiewende“ 27% (23), im Themenbereich „Katastrophe“ 21% (18) und bei „Skandal“ 26% (9) der Keywords.

Page 29: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

29

Eine 10% Toleranzgrenze bei irrelevanten Tweets unterschritten nur 20% der geprüften Keywords (N=55). Die schlechteren Ergebnisse der letzten beiden Themenbereiche könnten an der starken Ereignisabhängigkeit vieler der in diesen Themenbereichen verwendeten Keywords beruhen – sie werden erst in dem Kontext verwendet, wenn ein Ereignis dazu Anstoß gibt. Interessant ist auch, dass scheinbar eindeutige Suchwörter wie z.B. Politikernamen auch zu vielen irrelevanten Beiträgen führen können. Die Ergebnisse bestätigen, dass Keywords zur Operationalisierung von Themenbereichen theoretisch gründlich reflektiert, methodisch vielfältig erfasst und empirisch evaluiert werden müssen. Dernbach, Beatrice (2000): Themen in der Publizistik – Wie entsteht die Agenda öffentlicher Kommunikation?

Publizistik, 45 (1), S. 38-50. Luhmann, Niklas (1974): Öffentliche Meinung. In: Langenbucher, Wolfgang R. (Hrsg.): Zur Theorie der

politischen Kommunikation (S. 27-54). München: Pieper.

#aufschrei: Strukturanalyse einer Ad-Hoc-Öffentlichkeit Axel Maireder & Stephan Schlögl (Uni Wien) Öffentlichkeit besteht aus einer Vielzahl von Kommunikationssphären, die jeweils unterschiedliche Rahmen zur Diskussion öffentlicher Themen bereit stellen. Diese Sphären lassen sich hinsichtlich ihrer Offenheit, sozialer Rollenstruktur, und ihrer ge-sellschaftlichen Relevanz unterschieden, wie dies Gerhards und Neidhards (1993) mit ihrer Differenzierung in ‚Encounter’-, Versammlungs- und Massenmedien-Öffentlich-keit vorschlagen. Eine andere Unterscheidung kann hinsichtlich der jeweils verhandelten Themen erfolgen, wie im Konzept der ‚Teilöffentlichkeiten’ oder ‚publics’ (Gruning & Hunt, 1984), das insbesondere in den Public Relations Anwendung findet. Die Verknüpfung der verschiedenen Sphären öffentlicher Kommunikation fand lange Zeit (fast) ausschließlich über Massenmedien, und die von ihr hergestellte gesamtgesellschaftliche Sphäre der nationalen (politischen) Öffentlichkeit, statt.

Internetkommunikation erleichtert die Entstehung von Teilöffentlichkeiten, da sich Menschen mit ähnlichen Interessen, ungeachtet räumlicher und materieller Einschränkungen, kommunikativ zusammenfinden können. Gleichzeitig werden diese Kommunikationssphären vielfach dichter und dauerhafter miteinander verknüpft. Denn jeder einzelne Blogger, Twitter-, oder Facebook-Nutzer trägt durch seine Kommunikationspraxis zur Verteilung von Information in der Netzöffentlichkeit bei, und fungiert damit als ‚Knoten’ in den Kommunikationsnetzwerken, bzw. als ‚Brücke’ zwischen unterschiedlichen Sphären öffentlicher Kommunikation (vgl.

Page 30: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

30

Benkler, 2006; Anderson, 2010; Simone, 2010). Diese Verknüpfungen können, parallel zur massenmedial hergestellten Öffentlichkeit, als zentral für die Funktion moderner Demokratien gelten (vgl. Dahlgren, 2005).

Die Frage nach horizontalen und vertikalen Verknüpfungen unterschiedlicher Sphären öffentlicher Kommunikation steht im Mittelpunkt einer Analyse der #aufschrei Debatte von Jänner 2013. Innerhalb von 24 Stunden hatte sich damals aus der Twitter-Konversation einiger weniger Nutzer (in Folge eines Stern-Artikels zum aufdringlichem Verhalten des FDP-Politikers Rainer Brüderle gegenüber einer jungen Journalistin) eine breite nationale Debatte rund um Sexismus in der Gesellschaft entwickelt. Der Hashtag #aufschrei fungierte dabei zugleich als signifikantes Symbol für den aufkeimenden Diskurs, als auch als soziotechnisches Ordnungssystem innerhalb Twitter. Den so geschaffene Kommunikationsraum #aufschrei verstehen wir als ‚Ad-hoc’-Öffentlichkeit (Bruns & Burgess, 2012), als kurzfristiges, offenes und thematisch konzentriertes soziales Interaktionssystem. In unserer Analyse fragen wie nach der Entwicklung dieser ‚Ad-Hoc’-Öffentlichkeit im Verhältnis zu langlebigeren sozialen Kommunikationsstrukturen (Teilöffentlichkeiten), und der Verknüpfung verschiedener Öffentlichkeits-Ebenen, in den ersten 24 Stunden nach der erstmaligen Nutzung des Hashtags.

Durch die Eindeutigkeit des Hashtags konnten wir über die Twitter-API alle entsprechend markierten Tweets identifizieren und speichern, als auch erweiterte Informationen zu allen beteiligten Nutzer einholen. Auf dieser Datenbasis führten wir eine Reihe von Netzwerk- und Timeline-Analysen (vgl. Bruns & Stieglitz, 2012) durch, unter anderem eine Clusteranalyse (Pons & Latapy, 2005) in den Followee-Netzwerken der beteiligten Nutzer, mit dem Ziel jene ‚stabileren’ Teilöffentlichkeiten zu identifizieren in denen über #aufschrei kommuniziert wurde.

In einer nach diesen Clustern differenzierten Analyse der Nutzeraktivität über die Zeit (Tweets pro Stunde) können wir zeigen, wie sich #aufschrei schon in den Nachtstunden des frühen 25. Jänner von einer Konversation zwischen Nutzern in einer als ‚Feminismus-Nahe’ identifizierten Community zu einer breiten Diskussion mehrerer Teilöffentlichkeiten (vor allem die von uns auf Basis der Top-Nutzer der Cluster als ‚Piraten’, ‚Rot-Grüne Politik’ und ‚Österreich’ bezeichneten Cluster) ausgeweitet hat, und am nächsten Morgen schließlich weiter diffundierte. Der Vergleich mit den in den Tweets vertretenen Standpunkten zu Sexismus und zur Debatte selbst (auf Basis einer klassischen Inhaltsanalyse für eine Teilstichprobe) zeigt zudem, wie sich die ursprüngliche Bedeutung des Hashtags (Kommunikation über persönliche Sexismus-Erfahrungen) gewandelt hat, und wie dieser Wandel mit der Aktivität unterschiedlicher Cluster zusammenhängt.

Hinsichtlich der Verknüpfung unterschiedlicher Öffentlichkeitsebenen zeigt sich, dass die am Vormittag einsetzende Berichterstattung — durchaus überraschend — keinen erkennbaren unmittelbaren Effekt auf die Beteiligung an der Diskussion auf Twitter hatte, auch wenn von Twitter vielfach auf Massenmedien verlinkt wurde. Mit der zunehmenden Zahl und Heterogenität (auf Basis der Followee-Beziehungen) der Beteiligten, und der Inklusion der in Blogbeiträgen und journalistischen

Page 31: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

31

Kommentaren dargelegten Meinungen, differenziert sich die Diskussion auf Twitter jedoch aus.

Im Call zur Tagung ist von den ‚Artefakten’ sozialer Kommunikationsprozesse die Rede, deren Analyse neue Erkenntnisse zur Struktur öffentlicher Kommunikation ermöglicht. Unsere Forschung zeigt einige Möglichkeiten auf, Digital Methods für das Verständnis der Entwicklung thematisch konzentrierter Interaktionssysteme in der Netzöffentlichkeit zu nutzen. Gleichzeitig zeigt unsere Analyse, wie vielschichtig diese Entwicklungen verlaufen, wie sich kurzlebige Sphären öffentlicher Kommunikation innerhalb stabilerer sozialer Kommunikationssysteme ausdifferenzieren, wie die Verknüpfungen zwischen Akteuren die Diffusion von Information und die Aushand-lungsmuster öffentlicher Themen mitprägen. Anderson, C. (2010). Journalistic Networks and the Diffusion of Local News: The Brief, Happy News Life of the

“Francisville Four”. Political Communication, 27(3): 289–309. Benkler, Y. (2006). The Wealth of Networks: How Social Production Transforms Markets and Freedom. New

Haven and London: Yale University Press. Bruns, A. & Burgess, J. (2012). Researching News Discussion on Twitter: New Methodologies. Journalism

Studies, 13(5-6): 801–814. Bruns, A. & Stieglitz S. (2013). Towards more systematic Twitter analysis: metrics for tweeting activities.

International Journal of Social Research Methodology, 16(2): 89-108. Dahlgren, P. (2005). The Internet, Public Spheres, and Political Communication: Dispersion and Deliberation.

Political Communication, 22(2): 147–162. Gerhards, J. & Neidhart F. (1993). Strukturen und Funktionen moderner Öffentlichkeit. In Langenbucher, W. R.

(Eds.), Politische Kommunikation (S. 52-88). Vienna: Braumüller. Grunig, J. & Hunt T. (1984). Managing Public Relations. New York: Holt, Rinehart and Winston. Pons, P., & Latapy, M. (2005). Computing communities in large networks using random walks.

http://arxiv.org/abs/physics/0512106 Simone, M. (2010). Deliberative Democracy Online: Bridging Networks With Digital Technologies. The

Communication Review, 13(2): 120–139.

Page 32: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

32

PANEL 1B | FR 14:00 - 15:30 | Chair: Irmgard Wetzstein | Ort: IPK SE-Raum 9 (2. Stock)

Sprachanalysen

Computergestützte Inhaltsanalyse von politischen Diskursen auf Twitter. Ein Mixed-Methods-Ansatz zur Erschließung von Themen, Sprechakten und Argumentationsmustern. Jessica Einspänner, Mark Dang-Anh & Caja Thimm (Uni Bonn) Täglich werden massenhaft nutzergenerierte Inhalte im Internet erzeugt. Diese Informationen stellen Zeugnisse sozialer Handlungen dar, die vor allem für die Medien- und Kommunikationswissenschaft aber auch für die (Medien-)Linguistik von großem Interesse sind. Somit stellen sich neue methodische Herausforderungen, die diesem transdisziplinären Interesse am Untersuchungsbereich „Online-Kommuni-kation“ gerecht werden wollen.

Bei nutzergenerierten Daten im Online-Kontext handelt es sich in der Regel nicht um Rekonstruktionen von Kommunikationsprozessen und -situationen, sondern um tatsächlich vollzogene (Sprach-) Performanzen in digitaler Umgebung unter realen Alltagsbedingungen. Die Forschung mit digitalen Daten bietet dabei verschiedene Vor- und Nachteile. Als ein Vorteil ist beispielsweise die Forschungsökonomie zu sehen, wonach aufgrund der digitalen Verfügbarkeit der Daten der Schritt einer aufwändigen Datengenerierung (z.B. durch Interviews, Befragungen etc.) entfällt. Ebenso unterscheiden sich derart registrierte natural occuring data in ihrer Qualität grundsätzlich von rekonstruktiven bzw. elizitierten Daten (Bergmann 1985). Als nachteilig erweist sich häufig die den digitalen Daten inhärente Fluidizität, also ihre Modifizierbarkeit und ihre schnelle Weiterverbreitungsmöglichkeit, was durchdachte Lösungen für die Datensicherung und -archivierung erforderlich macht. Zudem ermöglicht die Analyse von gespeicherten, also fixierten und dekontextualisierten digitalen Daten immer nur eine partielle Rekonstruktion der sozialen Produktions- und Rezeptionssituationen.

Eine besondere Herausforderung stellt die Analyse von Twitternachrichten dar. Zum einen ist – wie bei vielen Daten aus Online-Netzwerken, die zwischenmenschliche Interaktionen abbilden – der Anspruch, ein erschöpfendes Datenset zu erhalten, selten realisierbar. Dies liegt oftmals in den technischen Vorgaben von Twitter begründet, die nur eine bestimmte Quantität an Abfragen zum Erhalt von Tweets und der zugehörigen Metadaten über ihre API-Schnittstellen zulassen, oder aber an den mangelnden Hardware-Speicherkapazitäten, die besonders im Fall von „big data“

Page 33: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

33

das Datensammeln erschweren (Boyd/Crawford 2012). Daneben stellt die Analyse des selektierten Datensets entsprechend der Forschungsfragen und –hypothesen einen hochgradig anspruchsvollen Prozess dar, insbesondere wenn neben rein quantitativen Auswertungen auch qualitative Analysen einbezogen werden sollen. Gerade im Falle sich im Social Web herausbildender Kommunikationsformen, wie etwa Twitterkommunikaten, sind qualitative Analysen, die sich auf konventionelle linguistische Verfahren beziehen, nicht immer anwendbar. Neue semiotische und funktionale Potentiale digitaler Kommunikationsplattformen erzeugen neue (sprachliche) Nutzungspraktiken und erfordern demnach eine Anpassung und Erweiterung der analytischen Zugriffe. Soll eine große Menge an Tweets inhaltsanalytisch untersucht werden, stoßen hierbei manuelle Verfahren jedoch bald an ihre Grenzen.

In vielen Fällen ist die Kombination von quantitativer und qualitativer Inhaltsanalyse von Kommunikaten eine geeignete Lösung, um möglichst verschiedene Phänomene im Datenset sichtbar machen zu können (Mayring 2007). Im Fall von Twitterdaten können quantitative Auswertungen, wie beispielsweise die Auszählung von ver-wendeten Twitteroperatoren wie @-Adressierung, Retweets, Hashtags oder Hyper-links, Hinweise auf typenspezifische Nutzungsprofile von Twitterusern geben (Thimm et al. 2012). Auch die Beobachtung der Anzahl von Tweets in einem bestimmten Zeitraum oder von einer bestimmter Usergruppe kann einzelne Spitzen („Peaks“) herausstellen und so Hinweisgeber für entscheidende Twitter-Momente sein, die möglicherweise auf realweltliche Ereignisse Bezug nehmen (s. z.B. Bruns/Stieglitz 2013). Qualitative Analysen können neben der statistischen Identifizierung und Auswertung zusätzlich Aufschluss darüber geben, wie sich kommunikative Funktionen und Kontexte in der besonderen Online-Umgebung entwickeln, beispielsweise über die Unterscheidung persuasiver und argumentativer linguistischer Strategien, den Grad der Implizitheit und Explizitheit von Illokutionen oder die Markierung von Topikalität.

In dem angestrebten Vortrag soll ein Analyseverfahren vorgestellt werden, bei dem Tweets, die politischen Diskursen entstammen, sowohl quantitativ als auch qualitativ ausgewertet werden. Dabei wird die Methode der computergestützten Inhaltsanalyse mithilfe einer Datenanalysesoftware (QDA Miner) vorgestellt, die eine triangulative Herangehensweise erlaubt: Über die transtextuelle Durchführung von

1. Operatorenanalyse, die typisierte Nutzungspraktiken der Partizipienten offen-legt,

2. Sprechaktanalyse, die die sprachlichen Implikationen und Explikationen er-fasst,

3. Themenanalyse, die die Topikalität der Beiträge und deren Erzeugungsmecha-nismen in den Blick nimmt und

4. Argumentationsanalyse, die argumentative und persuasive Strategien der Dis-kursteilnehmer untersucht,

Page 34: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

34

werden in einem übergreifenden Schema Codes erstellt, deren Bezüge zu einander spezifische Muster politischer Twitterkommunikation ergeben. Die analysierten Tweets entstammen den Kontexten von Landtagswahlen in Deutschland von 2011 bis 2013 sowie der Bundestagswahl 2013 und sind Abbildungen der Interaktionen zwischen BürgerInnen, PolitikerInnen und Parteien.

Mithilfe dieses Mixed-Methods-Ansatzes lassen sich Verfahren wie die Clusteranalyse mit qualitativen Codierungen kombinieren und mithin die Tiefe spezifischer Kommunikationsmustern auf Twitter ergründen. Bergmann, J. (1985). Flüchtigkeit und methodische Fixierung sozialer Wirklichkeit: Aufzeichnungen als Daten

der interpretativen Soziologie. In W. Bonß, H. Hartmann (Hrsg.),Entzauberte Wissenschaft: Zur Relativität und Geltung soziologischer Forschung (S. 299-320). Sonderband 3 der Zeitschrift “Soziale Welt”. Göttingen: Schwarz.

Boyd, D. & Crawford, K. (2012). Critical Questions for Big Data. Information, Communication & Society 15(5), 662–679.

Bruns, A. & Stieglitz, S. (2013). Towards more systematic Twitter analysis: metrics for tweeting activities. International Journal of Social Research Methodology 16(2), 91-108.

Mayring, P. (2007). Qualitative Inhaltsanalyse: Grundlagen und Techniken (9. Auflage). Weinheim/Basel: Beltz. Thimm, C., Einspänner, J., & Dang-Anh, M. (2012). Twitter als Wahlkampfmedium. Modellierung und Analyse

politischer Social-Media-Nutzung. Publizistik, 57(3), 293–313.

Methoden und Tools zum automatischen Erkennen von Doing Gender – Ein interdisziplinärer Ansatz Brigitte Krenn (OFAI) & Karin Wetschanow (INSET)

Einleitung In den letzten Jahren werden Social Media Foren von Wirtschaft und Politik als eine neue Ressource der Meinungsforschung entdeckt. Der vermehrte Einsatz von Social Media Analysen in der Meinungsforschung hat das Interesse an automatisierter, textbasierter Gender Identification geweckt. Das Augenmerk liegt auf Modellen der automatischen Sprachverarbeitung, in denen unterschiedliche Verfahren des maschinellen Lernens eingesetzt werden, um von Texten auf das Autor_innen-geschlecht rückzuschließen. Bisherige Ansätze betrachten Gender typischerweise als binäres Klassifikationsproblem (z.B.: Burger et al. 2011; Zhang et al. 2011) und definieren die untersuchte Kategorie nicht näher (z.B.: Rao et al. 2010). Einige Papiere (z.B.: Argamon et al. 2003; Argamon et al. 2007; Rao et al. 2010) beziehen sich auf linguistische Arbeiten der 80er und 90er Jahre und machen damit ihren Bezug zu einer essentialistisch-kontextfreien Auffassung von Gender deutlich. Konstruktivis-

Page 35: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

35

tisch-kontextsensitive Theorien, welche die heutige Genderlinguistik dominieren (Speer und Stokoe 2011; Spieß 2012), werden sowohl in der theoretischen Fundierung als auch in der maschinellen Modellierung vernachlässigt. Entsprechend werden kontextuelle Einflussfaktoren vor allem implizit in der Auswahl der zu analysierenden Daten berücksichtigt. So betrachten Argamon et al. (2003) verschie-dene Quellen aus dem BNC, Argamon et al. (2007) Blogs zu unterschiedlichen The-men, Newman et al. (2008) Texte aus unterschiedlichen psychologischen Studien und Cheng et al. (2011) variiert Genres. Die Mehrzahl der Arbeiten bezieht sich auf eng-lischsprachige Daten, entsprechende Arbeiten für Deutsch sind uns nicht bekannt.

Ansatz und Vorgehensweise An diesen Beobachtungen setzt der vorliegende Beitrag an. Mit dem Ansatz desIndexing Gender (Kotthoff 2002; Kotthoff 2012; Ochs 1992) gehen wir davon aus, dass Gender mehr oder weniger explizit kommuniziert werden kann. Nur wenige sprachliche Merkmale zeigen Gender direkt an. Solche exklusiven Genderindexikalisierungen sind häufig in Benutzerprofilen (Angabe des Geschlechts, Username, Nickname udgl.) aber auch in den Social Media Beiträgen selbst (z.B. ich als Frau/Mutter, ich bin transsexuell udgl.) zu finden. Wir nutzen sie, um ein vergeschlechtlichtes Trainings- und Testmaterial zu erstellen. Weniger explizit wird Gender hergestellt, wenn es nicht im Vordergrund des Handelns steht. Dann wird Gender lediglich in stilistischen Realisierungen von interaktionalem Handeln sichtbar. Solche Verweise sind eng mit historisch entstandenen Geschlechterassoziationen verbunden und können nur innerhalb einer community of practice (Wenger 1998) verstanden und interpretiert werden. Dieses Zusammenspiel von Kontextfaktoren und stilistisch, textuellen Merkmalen steht im Zentrum der Forschungsarbeit und stellt neben der Fokussierung auf deutschsprachige Social Media Beiträge (untersucht werden Foren- und Facebook-Postings sowie Tweets) den zentralen Neuigkeitswert des Unternehmens dar.

Für die technische Umsetzung bedeutet das, dass in der maschinellen Verarbeitung in Abhängigkeit des Kontextes verschiedene Modelle aktiviert werden müssen. Insbesondere kann der Kontext nicht als endliche, vorab bestimmte Menge von Situationen verstanden werden, sondern muss im Sinne der Generalisierung als eine Vielzahl von Faktoren begriffen werden. Diese Faktoren beeinflussen die für die Analyse notwendigen Modelle, die durch eine Vielzahl von Faktoren bestimmt sind. Entscheidungsbäume (Breiman et al. 1984; Rokach und Maimon 2008) als Verfahren für maschinelles Lernen unterstützen die Modellierungsflexibilität und Inter-pretierbarkeit der Daten und sind daher die Methode erster Wahl. Die Merkmale, die im Baum überprüft werden, können für jeden Knoten beliebig vorgegeben werden.

In einem Wechselspiel zwischen qualitativ diskursanalytischer Hypothesenbildung und datengetriebenen Methoden wird das maschinelle Lernen vorangetrieben. Vorgaben erfolgen einerseits auf Basis der Ergebnisse aus den qualitativen Analysen, andererseits können die Entscheidungen auch aus den vorgegebenen Daten trainiert werden. Auf der Ebene der qualitativen Diskursanalyse wird untersucht, wie Gender auf der Mikroebene der Interaktion in einzelnen Social Media Plattformen (Foren,

Page 36: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

36

Facebook, Twitter) und Themenkontexten (z.B. Gesundheit, Politik, Kochen, Fischen, …) sprachlich hergestellt wird. Dies liefert Hypothesen über die Verknüpfung kontextueller Faktoren (Setting, Thema, Anlass, Grad der Öffentlichkeit) mit sprachlichen Praktiken. Somit können bisherige bestehende Hypothesen (Herring und Störger in Druck) adaptiert oder ergänzt werden, aber auch wertvolle Ideen bezüglich bisher gänzlich unberücksichtigter Einflussfaktoren entstehen. So zeigte sich etwa auf der Ebene der Analyse exklusiver Genderindexikalisierungen, dass die Genderkategorie „transsexuell“ als Selbstkategorisierung benutzt wird und damit als Genderklasse aufgesetzt werden muss.

Untersucht wird, wieweit ein Ansatz, der zunächst nach Kontextfaktoren, und erst tiefer im Baum nach Textmerkmalen unterscheidet, zu besseren Ergebnissen führt, als einer in dem nur Textmerkmale verwendet werden. Während wir bei den eingesetzten Lernverfahren weitestgehend auf bereits bestehende Technologien zurückgreifen, besteht die forscherische Herausforderung in der Entwicklung/ Erstellung eines Merkmalskatalogs, der diskursanalytisch motiviert und der automat-isierten Analyse zugänglich ist. Zum Vergleich hinsichtlich der Aussagegenauigkeit werden Support Vector Machines (Shawe-Taylor und Cristianini 2004; Vapnik 1995) mit nicht-linearem Kernel zum Modelllernen herangezogen. Diese bieten zwar keine Interpretierbarkeit, können durch einen passenden Kernel jedoch ebenfalls nicht-lineare Abhängigkeiten von Kontextfaktoren und Textmerkmalen abbilden. Argamon, S., Koppel, M., Fine, J. & Shimoni, A. R. (2003). Gender, genre, and writing style in formal written

texts. Text, 23(3), 321-346. Argamon, S., Koppel, M., Pennebaker, J. & Schler, J. (2007). Mining the Blogosphere: Age, gender and the

varieties of self-expression. First Monday, 12(9). doi: doi:10.5210/fm.v12i9.2003 Breiman, L., Friedman, J. H., Olshen, R. A. & Stone, C. J. (1984). Classification and regression trees. Monterey,

CA Wadsworth & Brooks/Cole Advanced Books & Software. Cheng, N., Chandramouli, R. & Subbalakshmi, K. P. (2011). Author gender identification from text.Digital

Investigation, 8(1), 78-88. doi: http://dx.doi.org/10.1016/j.diin.2011.04.002 Herring, S. C. & Störger, S. (in Druck). Gender and (A)nonymity in Computer-Mediated Communication. In

Holmes, J., Meyerhoff, M. & Ehrlich, S. (Hrsg.), Handbook of Language and Gender (2 Aufl.). Hoboken, N.Y.: Wiley-Blackwell Publishing.

Kotthoff, H. (2002). Was heißt eigentlich “doing gender”? Zu Interaktion und Geschlecht. In van Leeuwen-Turnovcová, J. e. a. (Hrsg.), Wiener Slawistischer Almanach, Sonderband 55 “Gender-Forschung in der Slawistik” (S. 1-29).

Kotthoff, H. (2012). “Indexing gender” unter weiblichen Jugendlichen in privaten Telefongesprächen. In Günthner, S., Hüpper, D. & Spieß, C. (Hrsg.), Genderlinguistik. Sprachliche Konstruktionen von Geschlechtsidentitäten (S. 251-285). Berlin: de Gruyter.

Newman, M. L., Groom, C. J., Handelmann, L. D. & Pennebaker, J. (2008). Gender Differences in Language Use: An Analysis of 14, 000 Text Samples. Discourse Processes, 45, 211-236.

Ochs, E. (1992). Indexing Gender. In Duranti, A. & Goodwin, C. (Eds.), Rethinking Context (S. 335-358). Cambridge: Cambridge University Press.

Rao, D., Yarowsky, D., Shreevats, A. & Gupta, M. (2010). Classifying Latent User Attributes in twitter.SMUC, 10(October 30).

Rokach, L. & Maimon, O. (2008). Data mining with decision trees: theory and applications. New Jersey: World Scientific Publishing Co. Pte. Ltd.

Shawe-Taylor, J. & Cristianini, N. (2004). Kernel Methods for Pattern Analysis. Cambridge: Cambridge University Press.

Page 37: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

37

Speer, S. & Stokoe, E. (Eds.). (2011). Conversation and gender (1. publ. ed.). Cambridge: Cambridge Univ. Press.

Spieß, C. (2012). Linguistische Genderforschung und Diskurslinguistik. Theorie – Methode – Praxis. In Günthner, S., Hüpper, D. & Spieß, C. (Hrsg.), Genderlinguistik. Sprachliche Konstruktionen von Geschlechtsidentität. (S. 53-85). Berlin: De Gruyter.

Vapnik, V. (1995). The Nature of Statistical Learning Theory. Berlin: Springer. Wenger, E. (1998). Communities of practice: Learning, meaning and identity. Cambridge: Cambridge

University Press. Zhang, Y., Dang, Y. & Chen, H. (2011). Gender Classification for Web Forums. IEEE TRANSACTIONS ON

SYSTEMS, MAN, AND CYBERNETICS—PART A: SYSTEMS AND HUMANS, 41(4), 668-677.

Optionen von automatischer Sprachanalyse für die Untersuchung von öffentlicher Kommunikation im Internet Michael Eble & Daniel Stein (Fraunhofer IAIS, Bonn) Die alltägliche öffentliche Kommunikation erfüllt für moderne Gesellschaften eine Reihe von Transparenz-, Validierungs- und Orientierungsfunktionen (Neidhardt 1994; Donges und Imhof 2005). Für die öffentliche Kommunikation im Internet sind audio-visuelle Medieninhalte inzwischen ein wesentlicher Bestandteil: Dazu zählen erstens Angebote im Bereich der journalistisch-publizistischen Kommunikation - wie z. B. die Mediatheken öffentlich-rechtlicher Medienorganisationen. Zweitens sind es An-gebote, die sowohl der öffentlichen als auch der Individualkommunikation dienen - wie z. B. Social-Web-Plattformen (YouTube, Facebook, Twitter etc.). In beiden Bereichen, das belegt u. a. die ARD/ZDF-Onlinestudie 2012, werden audio-visuelle Inhalte immer häufiger und intensiver dazu genutzt, um onlinebasierte Öffentlich-keiten für Themen herzustellen (van Eimeren/Frees 2012, S. 371ff.). Hinzu kommt, dass gerade die im Social Web vernetzten Öffentlichkeiten und die dortige Anschluss-kommunikation ebenfalls zunehmend von inhaltlich und technisch miteinander vernetzten audio-visuellen Medieninhalten geprägt sind (Schmidt 2011, 2013).

Aus methodischer Sicht resultieren daraus mehrere Herausforderungen für die On-line-Inhaltsanalyse von audio-visuellen Angeboten, wie sie teilweise auch bereits für textuelle Inhalte bestehen (Eble 2013, S. 150ff.; Welker und Wünsch 2010; Zeller und Wolling 2010): Erstens ist zunächst die Zugänglichkeit von audio-visuellen Medien-inhalten in Mediatheken und Social-Web-Plattformen über geeignete Crawling-Ver-fahren herzustellen. Zweitens ist die Dezentralität von Daten dann eine Heraus-forderung, wenn öffentliche Kommunikation und die daraus resultierende Anschluss-kommunikation in Multi-Plattformen-Designs untersucht werden sollen. Damit ist, drittens, die Flüchtigkeit von Daten verbunden, die im Fall der öffentlichen-recht-lichen Mediatheken aus der befristeten Bereitstellung und im Fall von Social-Web-

Page 38: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

38

Plattformen u. a. aus Limitationen der jeweiligen Schnittstellen (APIs) resultieren. Nicht zuletzt wachsen, viertens, die Volumina der zu analysierenden audio-visuellen Daten weiter an.

Diese vier Aspekte bedeuten eine hohe technische Komplexität – angefangen bei der Erhebung der audio-visuellen Daten, über ihre Umwandlung in textuelle Daten, bis hin zur „Übergabe“ dieser Daten an Software-Anwendungen zur Auswertung (z. B. SPSS oder QDA Miner). Bei der Auswertung ergibt sich dann u. a. die Heraus-forderung, dass der Aufwand für die Transkription gesprochener Sprache sehr hoch ist: Für eine einstündige Nachrichtensendung sind nach unserer Erfahrung rund sieben Stunden manueller Transkriptionsaufwand erforderlich.

Im Hinblick auf ‚Digital Methods‘ stellt sich damit die Frage, inwieweit Verfahren der automatischen Sprachanalyse, wie sie die Informatik erforscht, systematisch in die kommunikationswissenschaftliche Anwendung überführt werden können. Eine der sichtbarsten Anwendungen der Sprachanalyse ist die automatische Sprach-erkennung (Speech to Text), also die automatisierte Transkription gesprochener Wörter in eine Schriftform zur Erschließung (vgl. Schwenninger et al. 2013). Daneben gibt es aber auch eine ganze Reihe von automatischen Analysekomponenten (u. a. Sprachdetektion, Sprechersegmentierung und -erkennung, Phonemerkennung und prosodische Analyse), die für die Untersuchung öffentlicher Kommunikation im Internet eingesetzt werden können. Relevante bzw. derzeit laufende Forschungs- und Entwicklungsprojekte, die sich mit Audio- und Videoerschließung befassen, sind u. a. AUVIS (http://tla.mpi.nl/projects_info/auvis/) als Nachfolgeprojekt von AVATECH (http://tla.mpi.nl/projects_info/avatech/), AXES (www.axes-project.eu), Ficontent (www.ficontent.eu), inEvent (www.inevent-project.eu), LinkedTV (www.linkedtv.eu), MediaGrid (www.mediagrid-community.de) sowie TOSCA-MP (www.tosca-mp.eu).

Verdichtet man die Ergebnisse dieser Projekte, so ist die Transkription von Sprache tatsächlich oft nur ein Teilaspekt ihrer Erschließung. So wurden etwa in AVATECH aggregierende Funktionen zur Erforschung linguistischer Phänomene seltener oder aussterbender Sprachen, etwa durch Audio-Mustererkennung oder durch query-by-example, zusammengeführt (Masneri et al. 2012). Auch die sogenannten Fingerprint-Verfahren werden im Rahmen des LinkedTV-Projektes dazu verwendet, Zusammen-schnitte von vorher ausgestrahlten Fernsehinterviews zu detektieren (Bardeli et al. 2012) und um damit auch automatische Medienresonanzanalysen zu unterstützen.

Ziel des interdisziplinären Beitrags ist es, den vier genannten methodischen Heraus-forderungen der Online-Inhaltsanalyse von audio-visuellen Medieninhalten ver-schiedene Ansätze aus dem Bereich der automatischen Sprachanalyse gegen-überzustellen. Der Beitrag möchte damit einen Transfer zwischen Informatik und Kommunikationswissenschaft leisten und einen Überblick über Ansätze für die Analyse öffentlicher Kommunikation im Internet geben. Bardeli, R., Schwenninger, J., & Stein, D. (2012). Audio Fingerprinting for Media Synchronisation and Duplicate

Detection. In Media Synchronisation Workshop, Berlin, Germany, October 2012. 4 Seiten. Donges, P., & Imhof, K.: Öffentlichkeit im Wandel. In: H. Bonfadelli, O. Jarren, & G. Siegert (Eds.),Einführung in

die Publizistikwissenschaft (2. Auflage, S. 147-175). Bern, Stuttgart, Wien: Haupt.

Page 39: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

39

Eble, M. (2013). Medienmarken im Social Web: Wettbewerbsstrategien und Leistungsindikatoren von Online-Medien aus medienökonomischer Perspektive. Berlin u.a.: LIT.

Masneri, S., Schreer, O., Schneider, D., Tschöpel, S., Bardeli, R., Bordag, R., Auer, E., Sloetjes, H., & Wittenburg, P. (2010). Towards semi-automatic annotations for video and audio corpora. InProceedings of the 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Technologies (LREC 2010).

McMillian, S. J. (2000). The Microscope and the moving Target :The Challenge of applying Content Analysis to the World Wide Web. Journalism and Mass Communication Quarterly, 77(1), 80-98.

Neidhardt, F. (1994). Öffentlichkeit, öffentliche Meinung, soziale Bewegungen. In F. Neidhardt (Hrsg.), Öffentlichkeit, öffentliche Meinung, soziale Bewegungen (S. 7-41). Wiesbaden: Westdeutscher Verlag.

Schmidt, J. (2011). Das neue Netz :Merkmale, Praktiken und Folgen des Web 2.0. 2. Auflage. Konstanz :UVK. Schmidt, J (2013). Onlinebasierte Öffentlichkeiten: Praktiken, Arenen und Strukturen. In C. Fraas, S. Meier, & C.

Pentzold, C. (Hrsg.), Online-Diskurse. Theorien und Methoden transmedialer Online-Diskursforschung. Köln: Herbert von Halem Verlag.

Schwenninger, J., Stein, D., & Stadtschnitzer, M. (2013). Automatic Parameter Tuning and Extended Training Material: Recent Advances in the Fraunhofer Speech Recognition System. InProceedings Workshop Audiosignal- und Sprachverarbeitung, Koblenz, Germany, September 2013. 8 Seiten.

Van Eimeren, B., & Frees, B. (2012). Ergebnisse der ARD/ZDF-Onlinestudie 2012. Media Perspektiven, (7-8), 362-379.

Welker, M, & Wünsch, C. (Eds.), Die Online-Inhaltsanalyse. Forschungsobjekt Internet. Köln: Herbert von Halem Verlag.

Zeller, F. , & Wolling, J. (2010). Struktur- und Qualitätsanalyse publizistischer Onlineangebote: Überlegungen zur Konzeption der Online-Inhaltsanalyse. Media Perspektiven, (3), 143-153.

Page 40: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

40

PANEL 2A | FR 16:00 - 17:30 | Chair: Martin Emmer | Ort: IPK Hörsaal 3 (3. Stock)

Theoretische Perspektiven

Mit Big Data gegen das „Ende der Theorie“? Merja Mahrt (Uni Düsseldorf) Forschung auf Basis sehr großer, meist digital erhobener Daten hält seit einigen Jahren Einzug in die Kommunikationswissenschaft, was etwa in der Abschluss-diskussion der ICA-Jahrestagung in Phoenix 2012 unter der Frage „das Ende der Theorie?“ durchaus kontrovers diskutiert wurde. Auf der folgenden ICA-Tagung wurde Big Data und ihre Bedeutung für unterschiedliche Forschungsfelder in sieben Sessions als Hauptthema behandelt. Und auch in der Literatur ist die Debatte in der Mitte des Fachs angekommen: Nach Journal of Broadcasting & Electronic Media und International Journal of Communication bereitet das Journal of Communication ein drittes Zeitschriftensonderheft zum Thema vor.

Dabei stehen zwei Beobachtungen nebeneinander: Zum einen pochen Kommuni-kationswissenschaftler/innen auf den Wert und die zentrale Bedeutung von Theoriediskussion und -entwicklung für die Zukunft des Fachs (boyd & Crawford 2012; Mahrt & Scharkow 2013). Zum anderen werden weiterhin vor allem daten-getriebene und deskriptive Analysen veröffentlicht, die etwa Twitter-Meldungen für die Messung von Agenden verwenden (Verdegem & D’heer 2013) oder die Anzahl von Kontakten in Facebook als Maß für Sozialkapital einsetzen (Brooks, Welser, Hogan und Titsworth 2011). Wie in vielen anderen Studien stellt sich im ersten Fall die Frage, welche Aussagekraft eine Analyse von Twitter-Meldungen (etwa im Wahlkampf, wie in der zitierten Studie) hat, wenn nur ein nicht repräsentativer Bruchteil der Bevölkerung den Dienst nutzt. Der zweite Fall ist beispielhaft dafür, wie ein kom-plexes Konstrukt wie Sozialkapital auf einen einfach zu erfassenden Indikator her-untergebrochen wird, was die Relevanz der Studie für das Forschungsfeld zumindest fragwürdig macht.

Ist es der Reiz des Vorhandenen und Machbaren, der Forschung dieser Art befördert? Eigentlich sollten doch theoretische Überlegungen die Auswahl von relevanten Stichproben und die Operationalisierung von aussagekräftigen Indikatoren leiten. Ansonsten mag das „Ende der Theorie“ zumindest in der Big Data-Forschung tat-sächlich nicht weit entfernt erscheinen. Dies liegt aber nicht an Big Data-Arbeiten an sich, die durchaus theoretisch gehaltvoll sein können. Im Vortrag sollen drei Schritte hinsichtlich ihres Werts für die theoretische Weiterentwicklung der Kommunikations-wissenschaft durch Big Data diskutiert werden:

Page 41: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

41

Komparative Forschung. Beim jetzigen Stand der Forschung sollte insbesondere die Vergleichbarkeit von durch Big Data-Analysen generierten Ergebnissen mit denen etablierter Verfahren geprüft werden. Mehrmethodenansätze können hier helfen, die zur Zeit eher unklare Bedeutung von etwa Untersuchungen von Twitter- oder Face-booknutzerdaten zu bestimmen.

Kooperation. Die Erhebung sowie die Struktur der Daten von Big Data-Studien unter-scheiden sich oft deutlich vom sozialwissenschaftlichen Standardarsenal. Hier kann sich die Kooperation mit anderen Fächern als nützlich erweisen, die etwa für den Um-gang mit großen Datenmengen, Programmierung oder automatisierter Sprach-verarbeitung Verfahren entwickelt und erprobt haben. Einige der für kommunika-tionswissenschaftliche Fragen relevantesten Studien sind darüber hinaus in Zusam-menarbeit mit Plattformbetreibern entstanden (z.B. Bakshy, Rosenn, Marlow und Adamic 2012; Bond et al. 2012).

Da der Zugang zu Plattformbetreibern beschränkt ist sowie die Forschungsinteressen anderer Fächer auch in Zukunft nicht deckungsgleich mit denen der Kommuni-kationswissenschaft sein werden, sollte schließlich auch im Fach Kompetenz für die Durchführung von Big Data-Analysen aufgebaut werden:

Ausbildung. Die heutige Ausbildung in Forschungsmethoden der Kommunikations-wissenschaft bereitet üblicherweise nicht auf Big Data-Studien vor. Hier ist zu prüfen, inwiefern etwa in forschungsstarken Studiengängen oder an Standorten mit Schwer-punkt auf digitalen Medien die Methodenlehre so erweitert werden kann, dass auch aus dem Fach selbst Methoden- und Theorieentwicklung parallel vorangebracht wer-den können. Bakshy, E., Rosenn, I., Marlow, C., & Adamic, L. (2012). The role of social networks in information diffusion.

Proceedings of the 21st international conference on World Wide Web, Lyon, France. doi: 10.1145/2187836.2187907. Zugegriffen: 13. Sep. 2013.

Bond, R. M., Fariss, C. J., Jones, J. J., Kramer, A. D. I., Marlow, C., Settle, J. E., et al. (2012). A 61-million-person experiment in social influence and political mobilization. Nature, 489(7415), 295-298.

boyd, d., & Crawford, K. (2012). Critical questions for big data. Provocations for a cultural, technological, and scholarly phenomenon. Information, Communication & Society, 15(5), 662-679.

Brooks, B., Welser, H. T., Hogan, B., & Titsworth, S. (2011). Socioeconomic status updates. Family SES and emergent social capital in college student Facebook networks. Information, Communication & Society, 14(4), 529-549.

Mahrt, M., & Scharkow, M. (2013). The value of big data in digital media research. Journal of Broadcasting & Electronic Media, 57(1), 20-33.

Verdegem, P., & D’heer, E. (2013). The role of Twitter in political agenda-setting during elections: Findings from the 2012 elections in Belgium. Paper presented at the conference Twitter and Microblogging: Political, Professional and Personal Practices, Lancaster, UK. http://hdl.handle.net/1854/LU-3200218.

Page 42: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

42

Das Digitale, das Körperliche und das Öffentliche: Zur Vereinbarkeit von Digital Methods und praxissoziologischen Ansätzen Heinz Wittenbrink, Julian Ausserhofer & Brigitte Alice Radl (FH Joaneum Graz) „Digital Methods”, so wie sie Rogers (2009, 2010, 2013) entworfen hat, stellen einen Paradigmenwechsel in der sozialwissenschaftlichen Internetforschung dar: Anstatt analoge Forschung aufgrund geringerer Transaktionskosten über das Web abzuwickeln („digitized methods”) oder virtuelle Welten zu erforschen, versammelt Rogers unter dem Begriff „Digital Methods” all jene Ansätze, die mittels webnativer Forschungsmethoden Aussagen über gesellschaftliche Zustände und kulturellen Wandel treffen (2009, p. 8). Digitale Objekte und Schnittstellen wie Algorithmen, Bots, Browser-Cookies, User-Interfaces oder APIs finden in Digital Methods (so wie auch in den Software Studies) Berücksichtigung in den Forschungsansätzen. Was indes bei Forschungen, die nach Digital Methods passieren, zumeist unbeantwortet bleibt, sind die sozialen Kontexte, in denen die untersuchte Webkommunikation geschieht. Einmal im Netz, werden Inhalte und andere digitale Objekte als gegeben angenom-men. Zwar wird zuweilen noch auf die physische Situation beim Zustandekommens digitaler Objekte hingewiesen, doch hier hört die methodologische Reflexion auf. Ein Tweet ist in der folgenden Analyse de facto doch nur eine (in der Regel) (semi-)öffentliche Nachricht, eine Wikipedia-Edit-History das Zeugnis eines wild geführten Online-Diskurses, usw.. Was hinter dem Tweet oder dem Wikipedia-Edit steht, bleibt zumeist unbeantwortet, da schwer erfassbar.

Um die situativen Komponenten von Onlinekommunikation zu verstehen, bieten sich praxeologische Ansätze an. Aufbauend auf Robert Schmidt (2012), der sich unter anderem auf Pierre Bourdieu (1979/2009) und Hanna Ahrendt (1958/2002) bezieht, gehen wir davon aus, dass Webkommunikation neben der digitalen immer auch eine physische bzw. situative Komponente hat: Körper und Materialien etwa. Diese Kom-ponenten sind (im praxeologischen Verständnis Schmidts) öffentlich und beobacht-bar (genau so wie die damit korrelierende Kommunikation im Netz mittels Digital Methods). Indes rücken nur wenige praxeologische Forschungen die Besonderheiten von Sitationen computervermittelter Kommunikation ins Zentrum. Eine Ausnahme bildet Knorr Cetina (2009), die Währungshändler bei ihrer Arbeit beobachtet hat. Bezugnehmend auf Goffman (1964) spricht sie von „synthetischen Situationen”, in denen die Informationen auf den Bildschirmen ständig Handlungen notwendig machen. Was „hinter” dem Bildschirm geschieht, ist indes auch für sie nicht erfass-bar.

Aufbauend auf die oben beschrieben Stärken und Defizite der zwei Ansätze ver-suchen wir in unserem wissenschaftsreflexiven Beitrag, zwei Methodologien mit spezifischen Epistemologien aufeinander zu beziehen: Auf der einen Seite Rogers’ Digital Methods, auf der anderen Seite praxissoziologische Ansätze, die die situativen

Page 43: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

43

Besonderheiten der Entstehung von Onlinekommunikation berücksichtigen. Wir thematisieren Möglichkeiten der „Triangulation” (Schmidt) von Webkommunikation im Kontext von anderen beobachtbaren Aktivitäten, z.B. alltagssprachlicher Kom-munikation und Aktivität im physikalischen Raum.

Digital Methods im Sinne Rogers’ und die Soziologie der Praktiken im Sinne Schmidts lassen sich aufeinander beziehen, weil die sozialwissenschaftliche Praxis beider Ansätze auf die von den Akteuren hergestellte Öffentlichkeit aufbaut: Bei Schmidt ist die Öffentlichkeit sozialer Praktiken die Voraussetzung dafür, dass sie sich wissenschaftlich erforschen lassen. Rogers’ Konzept der sozialen Realitäten im Netz basiert auf der besonderen, technisch produzierten Öffentlichkeit des Webs; sie lässt sich Schmidts Verständnis von Öffentlichkeit zuordnen.

Sowohl in Bezug zu Rogers wie in Bezug zu Schmidt fragen wir nach Besonderheiten der wissenschaftlichen Praxis bzw. der wissenschaftlichen “Triangulation” im Ver-hältnis zur alltäglichen Praxis. Diese Besonderheiten ordnen wir spezifischen Frage-stellungen bzw. Strategien zu. Wir thematisieren dabei exemplarisch Strategien mit pädagogischen Intentionen und andererseits sozialtheoretische Strategien. Bei den pädagogischen Strategien wird Webkommunikation wissenschaftlich untersucht, um sie besser lehrbar zu machen. Bei den sozialtheoretischen Strategien wird Webkom-munikation untersucht, um ihre Besonderheiten im Verhältnis zu anderen Formen der Sozialität herauszuarbeiten. Arendt, H. (1958/2002). Vita activa oder Vom tätigen Leben. München [u.a.]: Piper. Bourdieu, P. (1979/2009). Entwurf einer Theorie der Praxis: auf der ethnologischen Grundlage der kabylischen

Gesellschaft (3rd ed.). Frankfurt am Main: Suhrkamp Verlag. Cetina, K. K. (2009). The Synthetic Situation: Interactionism for a Global World. Symbolic Interaction, 32(1),

61–87. doi:10.1525/si.2009.32.1.61 Goffman, E. (1964). The Neglected Situation. American Anthropologist, 66(6), 133–136.

doi:10.1525/aa.1964.66.suppl_3.02a00090 Rogers, R. (2009). The End of the Virtual: Digital Methods. Amsterdam: Vossiuspers UvA. Rogers, R. (2010). Internet Research: The Question of Method — A Keynote Address from the YouTube and the

2008 Election Cycle in the United States Conference. Journal of Information Technology & Politics, 7, 241–260. doi:10.1080/19331681003753438

Rogers, R. (2013). Digital Methods. Cambridge, Massachusetts & London, England: MIT Press. Schmidt, R. (2012). Soziologie der Praktiken: Konzeptionelle Studien und empirische Analysen. Berlin:

Suhrkamp.

Page 44: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

44

Big Data – small problems? Ethische Perspektiven auf Forschung unter Zuhilfenahme onlinebasierter Kommunikationsspuren Nele Heise (Hans-Bredow-Institut, Hamburg) Wohl kaum eine „Neuerung“ hat in den vergangenen Jahren für derart großes Aufsehen und ein entsprechendes Echo in akademischen Diskursen gesorgt wie die Verwendung von „big data“ für (sozial-)wissenschaftliche Analysen. Verstanden wer-den hierunter „massive quantities of information produced by and about people, things, and their interactions“ (boyd und Crawford 2011: 1) sowie deren Erfassung, Speicherung und Verwertung, z. B. mittels statistischer Analyseverfahren oder Netz-werkanalysen.

Zwar werden hierdurch verschiedene Forschungsprozesse erleichtert, indem z. B. Informationen über Datenbanken und so genannte APIs erschlossen werden können. Allerdings stellen sich auch neue methodologische Fragen, z. B. im Hinblick auf die Archivierbarkeit, den Gehalt sowie die inhärenten „biases“ solcher Daten (vgl. Burgess und Bruns 2012; Crawford 2013), sowie nach der zunehmenden Bedeutung ihrer „Verwalter“, wie z. B. Twitter (Gillespie 2010). Und auch die Diskussion um eine notwendige Kontextualisierung von „big social data“ mittels qualitativer Verfahren hat unlängst begonnen (vgl. Manovich 2012).

Seltener indes werden die ethischen Implikationen dieser neuen Form online-basierter Forschung diskutiert. Gegenstand des Vortrags ist eine forschungsethische Einordnung der Erfassung und Analyse nutzergenerierter Verhaltensspuren unter Rückgriff auf die von Heise (2013) identifizierten Kontexte der Internetforschung-sethik. Demnach sollen aufgrund der „hybriden Rolle“ der WissenschaftlerIn - als ErforscherIn und NutzerIn von Online-Kommunikation - im Verlaufe des Forschungs-prozesses sowohl forschungs- als auch kommunikationsethische Prinzipien befolgt werden.

Vor dem Hintergrund einer solchen Lesart berührt Forschung mittels onlinebasierter „big data“ auch verschiedene kommunikationsethische Prinzipien, insbesondere die Wahrung der „Personalität“, also die Achtung Anderer als Selbstzweck und das Verbot einer Verdinglichung bzw. Instrumentalisierung von Personen (Wolff 2007): Während dieses Prinzip schon bei herkömmlichen standardisierten Verfahren „verwässert“, verschwindet die einzelne Nutzerin in großen, z. T. Millionen Einzel-daten umfassenden Datensätzen mehr oder weniger vollständig. Dass eine solche Form der Datenaggregierung ethisch bedenklich sei, hebt z. B. McFarland (2012) hevor: „because it dehumanizes those being judged (…) and thus threats those profiled objects as collections of facts, rather than as persons”.

Gleichsam berührt die Verwendung von „big data“ grundlegende Standards – Freiwilligkeit, informierte Einwilligung, Datenschutz, Anonymität – und Prinzipien der

Page 45: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

45

Forschungsethik wie auch die Wertbasis von Wissenschaft allgemein (u. a. Diener und Crandall 1978; Fenner 2010). Vier forschungsethische Prinzipien (vgl. Strohm Kitchener und Kitchener 2009) seien hier exemplarisch herausgestellt:

• Nonmaleficence: im Hinblick auf die Nichtschädigung stellen sich nicht nur Fragen nach der Vermeidung möglicher Risiken (für beforschte Personen/-gruppen), sondern auch nach dem Schutz von (sensiblen) Daten, der Privatsphäre sowie der Anonymisierung von Daten. So zeigt das von Zimmer (2010) diskutierte Beispiel einer US-amerikanischen Forschungsgruppe, die große Facebook-Nutzerdatensätze veröffentlichte, dass „big data“ nicht per se anonym sind. Und auch die vieldiskutierte Frage nach der (Nicht-)Öffentlichkeit bzw. Privatheit verschiedener Daten ist hier bedeutungsvoll (Schmidt 2009; boyd/Crawford 2011).

• Beneficence: Hierbei geht es nicht nur um Wohlergehen, Autonomie und Selbstbestimmung der TeilnehmerInnen, sondern auch um die Anerkennung und Respektierung ihrer Werte und Entscheidungen, z. B. hinsichtlich der Frage nach einem „informed consent“ und der Wahrung ihres Rechtes auf informationelle Selbstbestimmung (vgl. Schmidt 2012) im Rahmen von „big data“-Analysen. Zudem stellt sich implizit die Frage, welchen (gesellschaft-lichen) Nutzen und Folgen derartige Analysen haben, z. B. mittels „predictive analytics“ (Wen 2012)? Und welchen konkreten Einfluss hat die Deutung von „big data“ und deren inhärenten „biases“ auf das Leben von Menschen?

• Justice: Im Hinblick auf das Prinzip, dass alle Menschen gleich behandelt werden sollen, stellt sich u. a. die Frage, welche Menschen von „big data“-Analysen ausgeschlossen sind (z. B. aufgrund der Nicht-Nutzung sozialer Netzwerke) und welche Konsequenzen dies hat. Oder in den Worten von Crawford (2013): „What happens if you live in the shadow of big data sets?” Auch hinsichtlich der Kontrolle, Macht und dem Zugang zu Daten gilt es dieses Prinzip zu hinterfragen, denn: “researchers have the tools and access, while social media users as a whole do not“ (boyd/Crawford 2011, S. 11).

• Fidelity: Das Vertrauensprinzip bezieht sich nicht nur auf die informierte Einwilligung oder Datenschutz, sondern auch auf die Offenlegung von Forschung sowie das Ernstnehmen etwaiger Ängste und Bedenken seitens der NutzerInnen. So führt die jüngste Bekanntmachung massiver Ausspäh-Vorgänge durch die NSA einmal mehr vor Augen, wie wichtig es ist onlinebasierte Forschung vom Verdacht einer (verdeckten) „Überwachung“ der NutzerInnen abzugrenzen.

Die Frage „big data – small problems?“ muss im Hinblick auf forschungsethische Aspekte wohl eher verneint werden. Vielmehr kann und sollte das Aufkommen einer „data-driven science“ als Erinnerung an die besondere Verantwortung der Forschung verstanden werden. Denn wieder einmal stehen Wissenschaftler verschiedenster Disziplinen vor der Herausforderung, technische Machbarkeit und ethische Vertretbarkeit ihres Handelns abzuwägen (Eynon et al. 2009; Fraas et al. 2012). Vor diesem Hintergrund ist es nicht nur Ziel des Vortrages, die mannigfaltigen ethischen Fragen und „Dilemmata“ von Forschung auf Basis von „big data“ aufzuzeigen.

Page 46: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

46

Gleichsam geht damit eine Einladung an das Plenum – und an die scientific community - einher, jene Fragen gemeinsam zu diskutieren und Lösungsansätze zu entwickeln, etwa mittels der Umsetzung von Prinzipien wie Transparenz, Sicherheit und Accountability (Wen 2012). boyd, d., & Crawford, K. (2011). Six Provocations for Big Data.

http://softwarestudies.com/cultural_analytics/Six_Provocations_for_Big_Data.pdf. Burgess, J., & Bruns, A. (2012). Twitter Archives and the Challenges of ‘Big Social Data’ for Media and

Communication Research. M/C Journal, 15(5). http://journal.media-culture.org.au/index.php/mcjournal/article/viewArticle/561/0.

Crawford, K. (2013). The Hidden Biases of Big Data. http://blogs.hbr.org/cs/2013/04/the_hidden_biases_in_big_data.html.

Diener, E., & Crandall, R. (1978). Ethics in Social and Behavioral Research. Chicago: U of Chicago Press. Eynon, R., Schroeder, R., & Fry, J. (2009). New Techniques in Online Research. Challenges for Research Ethics.

21st Century Society, 4(2), 187–199. Fenner, D. (2010). Einführung in die Angewandte Ethik. Tübingen: Francke. Fraas, C., Meier, S., & Pentzold, C. (2012). Online-Kommunikation. Grundlagen, Praxisfelder und Methoden.

Wien: Oldenbourg Verlag. Gillespie, T. (2010). The Politics of ‘Platforms’. New Media & Society, 12(3), 347–364. Heise, N. (2013). ‘Doing it for real’ – Authentizität als kommunikationsethische Voraussetzung onlinebasierter

Forschung. In M. Emmer, A. Filipovic, J.-H. Schmidt, & I. Stapf (Hrsg.), Echtheit, Wahrheit, Ehrlichkeit. Authentizität in der computervermittelten Kommunikation (S. 88–109). Weinheim: Juventa.

Manovich, L. (2012). Trending: The Promises and the Challenges of Big Social Data http://www.manovich.net/DOCS/Manovich_trending_paper.pdf.

McFarland, M. (2012). Ethical Implications of Data Aggregation http://www.scu.edu/ethics/ practicing/focusareas/technology/internet/privacy/data-aggregation.html

Schmidt, J.-H. (2009). Braucht das Web 2.0 eine eigene Forschungsethik? Zeitschrift für Kommunikationsökologie und Medienethik, 11(2), 40–44.

Schmidt, J.-H. (2012). Persönliche Öffentlichkeiten und informationelle Selbstbestimmung im Social Web. In J.-H. Schmidt, & T. Weichert (Hrsg.), Datenschutz (S. 215-225). Bonn: Bundeszentrale für politische Bildung.

Strohm Kitchener, K., & Kitchener, R. F. (2009). Social Research Ethics. Historical and Philosophical Issues. In D. Mertens, & P. E. Ginsberg (Hrsg.), The Handbook of Social Research Ethics (S. 5–22). Thousand Oaks: Sage Publications.

Wen, H. (2012). The Ethics of Big Data. http://www.forbes.com/sites/oreillymedia/2012/06/21/the-ethics-of-big-data.

Wolff, O. J. (2007). Kommunikationsethik des Internets: eine anthropologisch-theologische Grundlegung. Hamburg: Verlag Dr. Kovač.

Zimmer, M. (2010). ‘But the data is already public’: on the ethics of research on Facebook. Ethics and Information Technology, 12(4), 313–326.

Page 47: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

47

PANEL 2B | FR 16:00 - 17:30 | Chair: Axel Bruns | Ort: IPK Seminarraum 2 (UG)

Netzwerkanalyse

Die Erhebung ego-zentrierter sozialer Netzwerke in Web Surveys: Experimente mit einer visuellen Erhebungsmethode zur Verbesserung der Datenqualität Uwe Matzat & Chris Snijders (TU Eindhoven) Die Analyse vieler kommunikationswissenschaftlicher Phänomene inner- (und auch ausser)halb des Internets bezieht sich auf Theorien sozialer Netzwerke, wobei die Netzwerke oftmals aus der Perspektive einzelner Akteure (= sog. ego-zentrierte soziale Netzwerke) betrachtet werden. Die Erhebung von Daten zur Analyse ego-zentrierter socialer Netzwerke ist allerdings sehr aufwändig und fand traditionellerweise nur mit Hilfe eines Interviewers in face-to-face oder telefonischen Interviews statt (Kogovsek, 2006). Mittlerweile werden allerdings auch Web Surveys zur Erhebung von ego-zentrierten Netzwerkdaten verwendet (z.B. Marin, 2004). Gleichzeitig ist aber bekannt, dass die Qualität der Netzwerkdaten sich stark verschlechtert, wenn in einem Web Survey Netzwerkdaten ohne Interviewer erhoben werden (Matzat & Snijders, 2010). Wir präsentieren in diesem Vortrag erste Ergebnisse von Methodenexperimenten, die eine auf Visualisierungstechniken beruhende Erhebung der Daten ego-zentrierter sozialer Netzwerke innerhalb von Web Surveys ermöglichen soll.

Die am häufigsten verwendete Methode zur Erhebung von ego-zentrierten sozialen Netzwerkdaten beruht auf dem sog. „Name-Generator Verfahren“ von Burt (1984), das oftmals auch in allgemeinen Bevölkerungsumfragen verwendet wurde. Das Verfahren beruht auf drei Schritten. In einem ersten Schritt wird dem Respondenten eine Frage (Name-Generator) gestellt, die ihn auffordert eine beschränkte Anzahl von Individuen (sog. Alteri) zu nennen, mit denen er eine wohldefinierte soziale Beziehung hat, die in der Regel von engerer oder dauerhafterer Art ist. Hierzu wird dem Respondenten eine limiterte Anzahl von Namens­feldern zur Verfügung gestellt, in die er Synonyme der Alteri eintragen soll. In einem zweiten Schritt werden zu jedem der vom Respondenten genannten Alteri eine beschränkte Anzahl deskriptiver Fragen gestellt. In einem dritten Schritt wird zu jedem Paar von Alteri eine Frage zur

Page 48: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

48

Existenz und Stärke der Beziehung zwischen diesen beiden Alteri gestellt (Inter-Alter-Response-Matrix). Das Verfahren ist sehr zeitaufwändig und - insbesonders bei der Nennung zahlreicher Alteri und damit relativ großer Netzwerke - auch sehr monoton für den Respondenten. Die Einbeziehung eines Interviewers zur Motivierung und zur Ausübung von sozialer Kontrolle bei der Erhebung von ego-zentrierten Netzwerk-daten schien deshalb unabdinglich. Experimentelle Vergleiche der Verwendung dieses Verfahrens innerhalb von face-to-face Interviews vs. Web Surveys zeigen, daß Respondenten ohne einen Interviewer vermehrt zu einem zeitsparenden und mechanischen Antwortverhalten neigen, das zu systematischen Verzerrungen in den Netzwerkmerkmalen führt. So nennen Respondenten in Web Surveys signifikant weniger Alteri, sie beantworten weniger Fragen oder beenden die Befragung vorzeitig (Matzat & Snijders, 2010). Insbesondere erweist sich aber die Verwendung der Inter-Alter-Response-Matrix im dritten Schritt in Web Surveys als sehr schwierig. Web Survey Respondenten beantworten signifikant weniger Matrixfragen, sie wählen in der Matrix signifikant häufiger die erste Antwortoption in einem Drop-down Menü und signifikant mehr Respondenten wählen für alle Paare von Alteri dieselbe Antwortoption (ibid.). Die beiden letztgenannten Antwortformen sind für den Res-pondenten zeitsparend, führen aber zu einer systematischen Verzerrung in den Merkmalen der Netzwerke.

Das von uns vorgeschlagene Verfahren zur Erhebung von ego-zentrierten Netzwerkdaten in Web Surveys versucht, den dritten Schritt für den Respondenten motivierender zu gestalten, um so ein Drop-out oder ein zeitsparendes und mechanistisches Antwortverhalten zu verhindern. Wir verwenden ein Survey-Tool, das dem Respondenten unmittelbar während der Beantwortung der Matrix-Fragen sein eigenes soziales Netzwerk visualisiert. Unsere Hypothese ist, daß die Visualiserung motivierend wirkt, so daß der Verminderung der Qualität der Netz-werkdaten entgegen gewirkt werden kann. Wir präsentieren erste Ergebnisse von Methodenexperimenten dieses Verfahrens in studentischen Stichproben sowie mit Mitgliedern eines kommerziellen Online-Access-Panels (n=725). Die Experimente benutzen ein between-subject Design, wobei das treatment aus der Nutzung des Visualisierungs­verfahrens innerhalb des Web Surveys besteht und Respondenten in der control-condition die traditionelle Inter-Alter-Response-Matrix (ohne Visuali-sierung) innerhalb des Web Surveys verwenden. In linearen und logistischen multivariaten Regressionen analysieren wir (als Merkmale der Datenqualität) die Drop-Out Rate, fehlende Werte, Indikatoren mechanistischen Antwortverhaltens und andere Variablen. Die Resultate zeigen, daß einige -allerdings noch nicht alle- Probleme der Datenqualität mit diesem Verfahren reduziert werden können. Burt, R. S. (1984). Network items and the General Social Survey. Social Networks, 6, 293-339. Kogovsek, T. (2006). Reliability and Validity of Measuring Social Support Networks by Web and Telephone.

Metodolzski zvezki, 3, 239-252. Marin, A. (2004). Are respondents more likely to list alters with certain characteristics? Implications for name

generator data. Social Networks, 26, 289-307. Matzat, U. & Snijders, C. (2010). Does the online collection of ego-centered network data reduce data quality?

An experimental comparison. Social Networks, 32, 105-111.

Page 49: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

49

Digitale Methoden und soziale Netzwerk-plattformen: Zwischen Medium-spezifizität und analytischen Gesten Bernhard Rieder (Uni v Amsterdam) Die Erforschung sozialer Netzwerkplattformen (SNP) - Facebook, Twitter, usw. - mit di-gitalen Methoden (Rogers 2013) unterscheidet sich in vielerlei Hinsicht von der Unter-suchung „traditioneller“ Bereiche menschlicher Kommunikation. Einerseits wird die Erhebung von großen Datenmengen durch die Verfügbarkeit von Programmier-schnittstellen (API) erheblich erleichtert; andererseits verlangt dieSpezifizität dieser Schnittstellen, die zumeist die formalen Spezifikationen der SNP reflektiert, detail-lierte Untersuchung um die Beschaffenheit und Aussagekraft der gesammelten Daten überhaupt erst bewerten zu können. Im Fall von Facebook etwa erlaubt eine mächtige API das Sammeln ausgesprochen detaillierter Daten - und das, im Gegensatz zu Twitter, ohne Verfallsdatum - allerdings ist es nicht möglich, automatisch zu erkennen, ob ein leeres Datenfeld leer ist weil eine Benutzerin dieses nicht ausgefüllt hat, oder weil ihre Einstellungen zur Datenweitergabe diese blockieren. Während in klassischen statistischen Zugängen Fisher’scher Prägung die Qualität der Stichprobe als entscheidend gilt, muss die Erforschung von SNP die „Mediumspezifizität“ (medium specificity) der jeweiligen Plattform als integralen Teil des Forschungs-designs betrachten und in seine Datenkritik einbeziehen.

Gleichzeitig eröffnet die Einbeziehung der spezifischen Funktionalitäten und Charak-teristika einer Plattform, im technischen Sinne, aber auch in Bezug auf die sozialen Praktiken der Benutzer, die Entwicklung „analytischer Gesten“ die einen detaillierten Zusammenhang zwischen Analyseinstrumentarium und Daten artikulieren. Während klassische Verfahren der statistischen Datenuntersuchung, wie etwa die Berechnung von Korrelationskoeffizienten oder die Faktorenanalyse, allgemeine Beziehungen zwischen numerischen Variablen feststellen und beschreiben können, ermöglichen Analysetechniken die auf das Medium fokussieren neue Zugänge, die die oben genannten Probleme einbeziehen und zum Teil in „Tugenden“ verwandeln. Ein Beis-piel: Auf Twitter und anderen SNP machen sog. Bots, automatische Programme die bis zu mehrere tausend Tweets pro Tag versenden, einen erheblichen Teil der Nach-richtenproduktion aus. Diese Bots – und menschliche Spampraktiken sind da nicht viel anders – können z.B. die Berechnung von Durchschnittswerten extrem verzerren (wobei wohl jede Berechnung von Durchschnittswerten ohne die Einbeziehung weiterer Aspekte einer Verteilung als hoch problematisch eingestuft werden muss). Metriken die etwa den Rhythmus (zeitliche Regularität) oder die inhaltliche Diversität (z.B. Variation in gesendeten Domainnamen) eines Twitterprofil berechnen, erlauben nicht nur die Identifizierung von Bots, sondern öffnen zusätzlich Wege für potentiell aussagekräftige Klassifizierungen von Benutzerinnen. Solche Zugänge lassen sich in verschiedene formelle Analyseverfahren integrieren, und gerade in der sozialen Netzwerkanalyse, wo graphentheoretische und geometrische Techniken traditionell

Page 50: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

50

dominieren, sind „interpretierende“ Metriken – oder einfach Metriken mit Modellcharakter - gängig. Verfahren wie PageRank oder die verschiedenen Varianten von Netzwerkzentralität (Freeman 1979) verlangen immer schon eine Einbeziehung von Aspekten der unterliegenden sozialen Realität, die sich nicht alleine aus dem Datenmaterial ergibt (der manuell zu wählende Faktor Alpha in PageRank z.B. drückt aus wie stark Autorität in einem sozialen Netzwerk als kumulativ behandelt werden soll) und diese Tendenz verstärkt sich mit steigender Komplexität der Daten und Methoden.

Wie die Debatte um den oftmals unreflektierten Gebrauch statistischer Techniken in den Sozialwissenschaften (Gigerenzer et at. 1989), v.a. von Signifikanztests mit Null-hypothesen, zeigt, war die Dichotomie zwischen „Theorie“ und „Empirie“ immer schon unzureichend. Dieser Betrag versucht zu zeigen, dass im Besonderen die empirische Forschung mit Hilfe digitaler Methoden nach mehr Theorie verlangt, nach einer permanenten und fundamentalen Auseinandersetzung mit formellen Analysetechniken die, im Gegensatz zur oft geäußerten Auffassung dass Daten von selbst sprechen würden, mit elaborierten technisch-konzeptuellen Gesten die Daten erst zum Sprechen bringen. Am Beispiel der Entwicklung zweier Forschungstools, eines für Facebook, das andere für Twitter, soll gezeigt werden wie Mediumspezifizität gleichzeitig als Herausforderung und Chance für die empirische Sozialforschung gedacht werden kann. Freeman, L. (1979). Centrality in Social Networks. Conceptual Clarification. Social Networks, 1, 215-239. Gigerenzer, G., Swijtink, Z., Porter, T., Daston, L., Beatty, J., Krüger, L. (1989). The empire of chance: How

probability changed science and every day life. Cambridge, UK: Cambridge University Press. Rogers, R. (2013). Digital Methods. Cambridge MA: The MIT Press.

Die Netzwerke politischer Gespräche im Vergleich: Twitternutzung in den Bundestagswahlkämpfen 2009 und 2013 Pascal Jürgens (Uni Mainz) & Andreas Jungherr (Uni Bamberg)

Motivation Der zunehmenden digitalen Durchdringung des zivilgesellschaftlichen Lebens folgend spielt sich ein wachsender Teil politischer Kommunikation im Netz ab. Neben den klassischen Publikationsformaten wie Weblogs, deren Desintermediation politischen Akteuren freie Hand bei der Veröffentlichung eigener Inhalte gibt, gewin-nen dabei auch soziale Netzwerkplattformen an Bedeutung. Twitter und Facebook

Page 51: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

51

führen mit ihren spezifischen Formaten für Austausch und soziale Verknüpfung Inter-aktionsformen ein, deren Auswirkungen noch unzureichend geklärt sind. Innerhalb des durch den Betreiber gesetzten Rahmens vermischen sich private und öffentliche Kommunikation; beide Formen werden zudem als digitale Spuren protokolliert. Der Forschung steht somit über die quantifizierten Beobachtungsdaten eine Methode zur Verfügung, um Kommunikation über politische Themen (z.B. Wahlkämpfe oder politische Proteste) innerhalb von sozialen Netzwerkplattformen zwischen polit-ischen Akteuren und anderen Nutzern zu untersuchen. Der vorliegende Beitrag prä-sentiert eine vergleichende Analyse solcher digitaler Spuren aus den Wahlkämpfen zur Bundestagswahl 2009 und 2013.

Untersuchungsgegenstand Im Sommer 2009 fand in Deutschland die erste große Wahl statt, in der Kampagnen, Kandidaten und Öffentlichkeit verstärkt auch soziale Netzwerkplattformen nutzen, um über den Wahlkampf zu kommunizieren. Wie Untersuchungen zum Kommunika-tionsraum Twitter zu diesem Wahlkampf bereits zeigen konnten, wurde der Austausch zu politischen Themen wesentlich durch bereits vor der Wahl etablierte Online-Eliten geprägt, von denen ein Großteil eine Affinität zur in der Entstehung begriffenen Piratenpartei aufwies. Für den Wahlkampf 2013 ist zu erwarten, dass die etablierten politischen Akteure auch die Öffentlichkeit in sozialen Netzwerken mit eigenen Social-Media-Strategien zu prägen versuchen.

Methode Diese Studie verwendet eine Vollerhebung der Nachrichten aller Twitter-Nutzer, die sich im Wahlkampf 2009 und 2013 durch politische Stichworte (Hashtags) zu Wahlthemen äu-ßerten. Die aus gerichteter Kommunikation entstehenden Beziehungen werden zu einem Gesamtnetzwerk zusammengefügt, das den Austausch zu politischen Themen abbildet. Innerhalb des Netzwerks werden vier verschiedene Akteurstypen differenziert: Politiker, Parteien, parteiaffine Nutzer und Nutzer, die zwar über politische Themen schrieben, die aber keiner Partei als Unterstützer zugeordnet werden konnten. Die zwei so entstandenen Netzwerke repräsentieren den über die Zeit der Wahlkämpfe 2009 und 2013 aggregierten politischen Kommunikationsraum auf der sozialen Netzwerkplattform Twitter. Die ver-gleichende Analyse greift auf netzwerkanalytische Metriken zurück und verfolgt zwei Ziele:

1. Zunächst gilt es, das Nutzerverhalten in beiden Wahlen auf der Makroebene systematisch zu vergleichen. Als Kriterien dienen hierbei Publikationsaktivität, Vernetzungsgrade, Unterstützung von Parteien, die Verteilung von Aufmerk-samkeit innerhalb des Netzwerks und andere Standardmetriken.

2. Im Anschluss liefert eine detaillierte Analyse Aufschluss über die Rolle der vier Akteurstypen. Sowohl die Aktivität als auch der Einfluss und die Sichtbarkeit der Akteure werden nach Parteien differenziert ausgewertet.

Ausblick / Erwartete Ergebnisse Auf der Basis der vorliegenden Daten ist bekannt, dass die Twitter-Aktivität 2009 stark von institutional ungebundenen Individuen geprägt war. Seither aufgetretene

Page 52: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

52

Phasen politischer Nutzung wie beispielsweise die Proteste zum Projekt Stuttgart 21 legen die Vermutung nahe, dass Nutzer sich inzwischen stärker an etablierten Ak-teuren ausrichten und weniger Austausch über Parteigrenzen hinweg stattfindet. Die Überprüfung dieser Hypothesen liefert in jedem Fall eine aktuelle Bestandsaufnahme der noch jungen politischen Kommunikationskultur im deutschsprachigen Internet.

Page 53: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

53

PANEL 3A | SA 09:00 - 10:00 | Chair: Jessica Einspänner | Ort: IPK Hörsaal 3 (3. Stock)

Professionelle Öffentlichkeiten

Profifußball online: Methodische Ansätze und empirische Ergebnisse einer Analyse erweiterter professioneller Öffentlichkeiten im Social Web Philip Sinner (Uni Salzburg) Die Veränderungen des Kommunikationsumfeldes werfen neue, auch theoretische und methodologische Probleme in der empirischen Forschung auf. Gerade mit Blick auf neue Formen digitaler öffentlicher Kommunikation muss sich die Kommunikationswissenschaft als Sozialwissenschaft diesen Herausforderungen stellen „weil sie ansonsten an gesellschaftlicher Erklärungskraft verlieren könnte“ (Bonfadelli, Jarren und Siegert 2010, S. 12). Dieser Beitrag baut auf einer Untersuchung auf, in deren Zentrum die Frage steht, wie die Fußballvereine der deutschen Bundesliga Social Media nutzen. Er zeigt dabei auf, wie auch komplexen digitalen Kommunikationsstrukturen mit ‚klassischen‘ Methoden der empirischen Sozialforschung, die konsequent ineinander greifen, auf adäquate und zielführende Weise begegnet werden kann.

Die Angebots- und Kommunikationsformen des Social Web bieten sowohl die Möglichkeit zur Schaffung „persönlicher Öffentlichkeiten“ als auch zur „Erweiterung professionell hergestellter Öffentlichkeiten“ (Schmidt 2011, S. 107 und S. 135) und führen so zunehmend zu einem ‚Verschwimmen‘ der Grenzen zwischen Individual- und Massenkommunikation und dadurch zu einer zwangsläufigen Erweiterung und Vertiefung des kommunikationswissenschaftlichen Forschungsfeldes. Sport im Allgemeinen und der Fußball im Besonderen gelten „als Publikumsattraktion und Quotengarant im Feld der populären Kultur oder schlicht als ökono-mischer GlobalPlayer“ (Schwier 2009, S. 28; Hervorheb. i. O.). Professionelle Fußball-vereine verfolgen komplexe Kommunikationsstrategien und betreiben intensive Beziehungspflege zu ihren Fans, insbesondere auf Ebene von Social Media Angeboten. Dieser Form der Kommunikation ist sowohl aus theoretischer (parasoziale Interaktion) als auch methodischer Perspektive anders zu begegnen als Social Media Angeboten einzelner Spieler. Fußballvereine in den höchsten Spielklassen haben in der Regel eine Doppelfunktion auf sportlicher (Verein/Organisation) sowie kommerzieller Ebene (Kapitalgesellschaft) inne. Um den vielschichtigen Beziehungs- und Interaktionsstrukturen zwischen den jeweiligen Fans

Page 54: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

54

und ‚ihren‘ Vereinen gerecht zu werden, können die Artefakte sozialer Kommunikationsprozesse nicht einzeln analysiert werden. Vielmehr gilt es diese vor den jeweiligen sportlichen, finanziellen und traditionsbehafteten Hintergründen der Vereine zu betrachten und dabei die öffentlichen digitalen Kommunikationsprozesse auf den Ebenen der Produktion, des Produkts und der Rezeption im Spiegel ihrer gesellschaftlichen Relevanz zu beleuchten.

Eine integrative Analyse dieser Ebenen setzt eine wohlüberlegte und fein aufeinander abgestimmte Methodenkombination voraus. Die hier vorgestellte methodische Anlage entspricht diesen Forderungen in mehrfacher Hinsicht, indem sie in einem mehrstufigen Verfahren quantitative und qualitative Erhebungs- und Auswahl-methoden kombiniert. Die Grundlage bildet die systematische Erfassung und Analyse von quantitativen Basisdaten zu Angebots- und Rezeptionsstrukturen der Social Media Angebote aller 18 deutschen Bundesligavereine mit dem Ziel der statistisch begründeten Typenbildung (manuelles Webscreening und Clusteranalyse). Die Stichprobenauswahl für die darauf aufbauenden qualitativen Untersuchungsschritte in Form von Fallbeispielen erfolgte anhand von fünf theoriegeleiteten Merkmale. Die darauf folgende Befragung (qualitative Leitfadeninterviews) von Social Media Verant-wortlichen auf der Vereinsseite hatte zum Ziel, sowohl die Produktionsbedingungen und die dahinterliegenden Kommunikationsstrategien als auch den Umgang mit Anschlusskommunikation und Fanbeiträgen (Rezeption durch die Vereine) zu erfassen. Abschließend wurden die Angebote einer qualitativen Medien-inhaltsanalyse (Struktur- und Leitfadenanalyse) mit Fokus auf Identitäts-, Beziehungs- und Informationsmanagement (vgl. Schmidt 2011, S. 105) der Vereine unterzogen. Die kontrastive Betrachtung der Ergebnisse aus diesen unterschiedlichen methodischen Perspektiven ermöglicht es so, die einzelnen Untersuchungsschritte einander sowohl ergänzend als auch überprüfend gegenüberzustellen, um der Komplexität des Forschungsgegenstandes gerecht zu werden und die Aussagekraft der Ergebnisse zu erhöhen. Dieser Beitrag bietet sowohl ausgewählte Ergebnisse der Bundesliga-Studie als auch eine Darstellung und Reflexion des integrativen Forschungsdesigns und seiner Methoden. Bonfadelli, H., Jarren, O., & Siegert, G. (2010). Publizistik- und Kommunikationswissenschaft – ein

transdisziplinäres Fach. In: H. Bonfadelli, O. Jarren, & G. Siegert (Eds.), Einführung in die Publizistikwissenschaft (S. 2-17). Bern: Haupt Verlag.

Schmidt, J. (2011). Das neue Netz. Merkmale, Praktiken und Folgen des Web 2.0. Konstanz: UVK. Schwier, J. (2009). Sport in den Medien als kulturelles Alltagsphänomen. In: T. Horky, T. Schauerte, T, & J.

Schwier (Eds.), Sportjournalismus (S. 27-44). Konstanz: UVK

Page 55: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

55

Digitale Spuren der Bundestagswahl 2009: Twitter-Nachrichten zwischen taktischer Unterstützung und symbolischer Zugehörigkeitserklärung Andreas Jungherr (Uni Bamberg) Die stetig steigende Nutzung von Internetdiensten über Computer und mobile Endgeräte führt zu einem ebenfalls stetig steigenden Datenberg, der menschliches Verhalten in immer wachsendem Detail dokumentiert. Betrachtete man Daten über menschliches Verhalten in und mit dem Internet bis vor kurzem noch hauptsächlich, um mehr Wissen über das Verhalten von Menschen in diesem neuen, virtuellen Raum zu gewinnen so werden inzwischen digitale Datenspuren, die Menschen in ihrem Umgang mit Internetdiensten produzieren, immer stärker von Forschern genutzt, um Rückschlüsse über menschliches Verhalten generell zu sammeln. Diese Verschiebung des Forschungsschwerpunkts wird unter den Begriffen “Digital Methods” oder auch “Computational Social Science” verstanden.

Die Kernaussage dieser neuen digitalen Methoden ist es also, über Spurenmenschliches Verhalten online Rückschlüsse auf menschliches Verhalten allgemeinzu ziehen. Diese Kernaussage soll in diesem Artikel an einem Fallbeispiel aus dem deutschen Bundestagswahlkampf 2009 überprüft werden.

Während des Bundestagswahlkampfs 2009 nutzen sowohl Parteien, Kandidaten und auch Bürger zum ersten Mal in Deutschland stark den Microblogging-Dienst Twitter. Twitter bietet für Forscher eine interessante Datengrundlage, da der Dienst – zumindest noch zur Zeit – Forschern einen relativ umfangreichen Zugriff auf seine Daten erlaubt. Die Untersuchungen in diesem Artikel basieren auf einem Datenset, das von dem Autor und einem weiteren Kollegen im Jahr 2009 erhoben wurde. Dieser Datensatz beinhaltet alle Twitter-Nachrichten, die von Nutzern veröffentlicht wurden, die mindestens einmal zwischen Juni und Oktober 2009 ein politisch relevantes Hashtag in mindestens einer ihrer Nachrichten verwendeten. Dies führte zu einem Datensatz von knapp 10 Millionen Nachrichten, die von über 33.000 Nutzern veröffentlicht wurden.

In diesem Papier soll dieser Datensatz genutzt werden, um drei Fragen zu beantworten, die sich auf die oben beschriebenen Kernaussagen der digitalen Methoden beziehen:

1. Sind relevante Kampagnenereignisse (z.B. die Fernsehdebatte der Kann-didaten oder der Wahlsonntag) an Änderungen der Nachrichtenfrequenz von Tweets ablesbar?

2. Lässt sich das Ergebnis der Bundestagswahl 2009 robust aus den relativen Verhältnissen der Nennungen von Parteien und Kandidaten auf Twitter ablesen?

3. Wird die Kommunikation auf Twitter überwiegend durch taktische Unterstützung oder symbolische Zugehörigkeitserklärungen geprägt?

Page 56: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

56

Die Beantwortung der ersten zwei Fragen erlaubt Rückschlüsse darauf in welchen Fällen es möglich ist anhand von auf Internetdiensten gesammelten Nutzerdiensten Rückschlüsse über politische Offline-Ereignisse und Prozesse zu treffen. Zusätzlich erlaubt die Beantwortung der dritten Frage eine Einschätzung darüber welche Nutzungsart die politische Nutzung von Twitter dominiert.

Politische Kommunikation auf Twitter. Ein methodischer Vergleich von konventioneller und automatisierter Inhaltsanalyse am Beispiel der Salzburger Landtagswahl Jürgen Grimm & Christiane Grill (Uni Wien) In der digitalen online-Kommunikation zeigt sich eine immense Kraft. Die Zahl aktiver Twitter-Accounts hat sich in Österreich zwischen 2011 und 2012 nahezu verdoppelt und lag im September 2012 bei über 53.000 Accounts (http://socialmediaradar.at). Auch Parteien und SpitzenkandidatInnen, die um Wählerstimmen kämpfen, betreiben mittlerweile planmäßig politische PR im Netz. Die Bedeutung von Twitter im Wahlkampf ist dabei unbestritten (Schmitt-Beck und Mackenrodt 2010; Thimm, Dang und Einspänner 2011; Thimm, Einspänner und Dang 2012). Einige Studien belegen sogar, dass Tweets den Wahlerfolg von Parteien und PolitikerInnen vorhersagen (Ceron und D’Adda 2013; Skoric et al. 2012; Tumasjan et al. 2010), was jedoch nicht unbestritten bleibt (Jungherr et al. 2012). Die Salzburger Landtagswahl 2013 stellte für die österreichischen Parteien insofern eine Sondersituation dar, als die Dominanz der sozialdemokratischen Partei SPÖ aufgrund eines Finanzskandals gefährdet schien. Sowohl alteingesessene als auch jung emporkommende Parteien sahen ihre Chancen auf einen Wahlerfolg, die ihre Twitter-Aktivitäten zusätzlich motivierte.

Unsere Untersuchung dieser Landtagswahl in Österreich verfolgt zwei Ziele:

1. Rekonstruktion der politischen Kommunikation auf Twitter im Rahmen der Salzburger Landtagswahlen

Verwendet wird eine konventionelle Inhaltsanalyse, deren Kategoriensystem bereits bei vorgängigen Wahlen in Österreich eingesetzt wurde. Die meisten bisherigen Twitter-Studien waren akteurszentriert ausgerichtet (Ausserhofer und Maireder 2013; Cheong und Cheong 2011; Dang, Einspänner und Thimm 2013; Skoric et al. 2012; mit Ausnahme von Bruns und Stieglitz 2012). Um die Anschlussfähigkeit an “klassische” Forschungsfelder wie Agenda-Setting und die Agenda-Building zu verbessern,

Page 57: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

57

bevorzugen wir ein themenzentriertes Konzept, das wir mit einem akteurszentrierten Ansatz kombinieren.

2. Methodischer Vergleich konventioneller und automatischer Erhebungsweisen:

Die meisten Twitter-Analysen sind bislang konventionelle Inhaltsanalyse (Humphreys et al. 2013; Maireder und Schwarzenegger 2012), da reliable Instrumente zur Erfassung von Akronymen und Abkürzungen auf Twitter fehlen. Perspektivisch lassen sich die hochdynamische und wachstumsintensive Twitter-Kommunikation jedoch mit konventionellen Methoden alleine nicht bewältigen. Daher ist es erforderlich, Instrumente zur algorithmisierbaren automatischen Analyse zu entwickeln und/oder diese mit konventionellen Methoden zu kombinieren. Aktuelle Studien zeigen bereits Möglichkeiten dazu auf (Highfield 2012; Lünich, Rössler und Hautzer 2012; Stockwell et al. 2009; van Atteveldt 2008; Scharkov 2011a, 2011b). Wir verwenden eine eigens für Twitter entwickelte kontextsensitive Wortliste für Themenindikationen, die mit den Themenkategorien der konventionellen Inhaltsanalyse kompatibel ist.

Forschungsfragen Anlässlich der Salzburger Landtagswahl 2013 stellen wir folgende inhaltsbezogene For-schungsfragen: Welche Themen-Dynamiken entwickeln sich auf Twitter im Vorfeld der Landtagswahl? In welchem Ausmaß sind an der Themensetzung SpitzenkandidatInnen, Parteien, JournalistInnen und BürgerInnen beteiligt? Welche Themenverläufe und Themen-Assoziationen werden generiert? Und schließlich: Welche Bezüge weist die Twitter-Kommunikation zum Ergebnis der Landtagswahlen auf?

Des Weiteren gilt es folgende methodische Forschungsfragen zu klären: Welche Grenzen sind der Analyse von Twitter-Daten mit automatisierten Inhaltsanalyse-Tools gesetzt? Inwiefern unterscheiden sich Erhebungsreliabilität und -validität konventioneller gegenüber automatisierten Verfahren? Welche Folgen resultieren daraus für die Rekonstruktion der Themenstruktur im Rahmen einer Assoziations-struktur-Analyse und einer semantischen Netzwerk-Analyse?

Datengrundlage und Methode Mithilfe des Twitter Application Programming Interface (API), dessen Praktikabilität in Studien von Skoric et al. 2012 und Giglietto et al. 2012 getestet wurde, wurden österreichische Tweets von ausgewählten österreichischen Twitter-Usern, sogenannte Ursprungs-Tweets, im Zeitraum des Wahltags (Wahltag plus/minus 1 Tag; 4.5.- 6.5.2013) ausgelesen und in einem Excel-File gefiltert.

Das methodische Vorgehen umfasst die folgenden Schritte:

Auf der ersten Untersuchungsebene wird mit einer konventionellen Inhaltsanalyse gearbeitet. Deren Kategoriensystem besteht aus Variablen u.a. zu Themen (=Politik-felder), Politikebene (regional, national, international), Art der Themenbehand-lung (problem- vs. lösungsorientiert) und thematischer Kontextuierung (z.B. Wahl-kampfbezug, Bezug zum politischen Prozess, nicht-politische Thematisierungen). Aufgrund der Listenform der Ursprungs-Tweets geht zunächst der Zusammenhang

Page 58: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

58

der Twitter-Kommunikation verloren. Diesem Verlust begegnen wir mit zwei Methoden der Kontext-Analyse:

a) Gesprächsanalyse: Dabei werden manuell die Gesprächsverläufe der Ursprungs-Tweets berücksichtigt, die als Attribuierung und Erweiterung des Universum U der Ursprungs-Tweets aufgefasst werden und in ein Universum U’ resultieren. Durch Vergleiche (der thematischen Struktur) von U mit dem erweiterten U’-Universum lassen sich die durch die Kommunikationsdynamik veränderten thematischen Schwerpunktsektzungen quantifizieren.

b) Analyse der Intertextualität: In analoger Weise und auf der Gesprächsanalyse auf-bauend werden in einem weiteren Schritt der Kontextanalyse die Textverweise (=In-tertextualität) sowohl in den ursprünglichen Tweets als auch die im Gespräch eingebetteten erfasst und inhaltsanalytisch untersucht. Hieraus ergibt sich dann ein weiteres Twitter-Universum UT. Durch die Kombination klassisch segmentierender Inhaltsanalyse und Kontextanalyse lassen sich die ermittelten Themen für weiter-gehende Agenda-Setting Analysen (z.B. Intermedia-Agenda-Setting, Agenda-Building durch Parteiprogramme, etc.) zu entsprechenden Indizes zusammenfassen.

Auf der zweiten Untersuchungsebene wird als automatisiertes Inhaltsanalyse-Tool die quelloffene Software AmCAT (Amsterdam Content Analysis Toolkit) verwendet und genau auf die beschriebene Datenstruktur appliziert. Anhand von Themenindika-toren, die bei der konventionellen Inhaltsanalyse mit erhoben wurden, können sodann die Themenstrukturen aus der konventionellen mit denen der automa-tisierten Inhaltsanalyse verglichen werden. AmCAT beinhaltet eine Vielzahl von Skripten zur sofortigen automatisierten Datenanalyse. Zusätzlich ist eine der großen Stärken des Programms die semantische Netzwerkanalyse (Van Atteveldt 2008), die wir neben der Assoziationsstrukturanalyse (Lisch 1979; Grimm 1986) bei der Datenauswertung einsetzen.

Relevanz und Neuartigkeit der Untersuchung Twitter berichtete vor Kurzem von 200 Millionen aktiven Usern und 400 Millionen Tweets pro Tag (https://blog.twitter.com/2013/celebrating-twitter7). Um die Dynamik dieses Feldes adäquat analysieren zu können, sind elaborierte Analysemethoden erforderlich, die es gestatten, auch big data zu analysieren. In Ansätzen ist dies bereits mit bestehenden automatisierten Methoden möglich, deren Validität im Verhältnis zu konventionellen Methoden jedoch kaum erforscht ist. Mit dieser Arbeit wollen wir zur Validitätsprüfung und Weiterentwicklung automatisierter Verfahren beitragen. Ausserhofer, J., & Maireder, A. (2013). National politics on Twitter. Structures and topics of a networked public

sphere. Information, Communication & Society. doi: 10.1080/1369118X.2012.756050. Bruns, A., & Stieglitz, S. (2012). Quantitative approaches to comparing communication patterns on

Twitter. Journal of Technology in Human Services. doi: 10.1080/15228835.2012.744249. Ceron, A. & D’Adda, G. (2013). Enlightening the voters: The effectiveness of alternative electoral strategies in

the 2013 Italian election monitored through (sentiment) analysis of Twitter posts. Paper presented at the ECPR General Conference, 5-8 September, Bordeaux.

Page 59: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

59

Cheong, F., & Cheong, C. (2011). Social media data mining: a social network analysis of tweets during the 2010-2011 Australian floods. In Proceeding of PACIS 2011. Retrieved from http://aisel.aisnet.org/pacis2011/46.

Dang-Anh, M., Einspänner, J., & Thimm, C. (2013). Mediatisierung und Medialität in Social Media: Das Diskurssystem “Twitter”. In Schwarz-Friesel, M., & Marx, K. (Eds.), Sprache und Kommunikation im technischen Zeitalter. Wieviel Technik (v)erträgt unsere Gesellschaft? (S. 68-91). Berlin: de Gruyter.

Grimm, J. (1986). Assoziationsstrukturen im Kriminalheftroman – oder die Verwurzelung fiktionaler Konzepte in der Lebenswelt. Ergebnisse einer systematischen Inhaltsanalyse. Spiel, (5),241-260.

Giglietto, F., Rossi, L., & Bennato, D. (2012). The open laboratory: limits and possibilities of using Facebook, Twitter, and YouTube as a research data source. Journal of Technology in Human Services. doi: 10.1080/15228835.2012.743797.

Highfield, T. (2012). Talking of many things: using topical networks to study discussions in social media. Journal of Technology in Human Services. doi: 10.1080/15228835.2012.746894.

Humphreys, L., Gill, P., Krishnamurty, B., & Newbury, E. (2013). Historicizing new media: a content analysis of Twitter. Journal of Communication. doi:10.1111/jcom.12030.

Jungherr, A., Jürgens, P., & Schoen, H. (2012). Why the Pirate Party Won the German Election of 2009 or The Trouble With Predictions: A Response to Tumasjan, A., Sprenger, T. O., Sander, P. G., & Welpe, I. M. “Predicting Elections With Twitter: What 140 Characters Reveal About Political Sentiment”. Social Science Computer Review. doi: 10.1177/0894439311404119.

Lisch, R. (1979). Assoziationsstrukturanalyse (ASA). Ein Vorschlag zur Weiterentwicklung der Inhaltsanalyse. Publizistik, (24), 65-83.

Lünich, M., Rössler, P., & Hautzer, L. (2012). Social navigation on the Internet: a framework for the analysis of communication processes. Journal of Technology in Human Services. doi: 10.1080/15228835.2012.744244.

Maireder, A., & Schwarzenegger, C. (2012). A moment of connected individuals. Information, Communication & Society. doi: 10.1080/1369118X.2011.589908.

Scharkow, M. (2011a). Thematic content analysis using supervised machine learning: an empirical evaluation using German online news. Quality & Quantity. doi: 10.1007/s11135-011-9545-7.

Scharkow, M. (2011b). Zur Verknüpfung manueller und automatischer Inhaltsanalyse durch maschinelles Lernen. Medien & Kommunikationswissenschaft, 59(4), 545-562.

Schmitt-Beck, R., & Mackenrodt, C. 2010. Social networks and mass media as mobilizers and demobilizers: A study of turnout at a German local election. Electoral Studies. doi: 10.1016/j.electstud.2010.03.011.

Skoric, M., Poor, N., Achananuparp, P., Lim, E.-P., & Jiang, J. (2012): Tweets and votes: a study oft he 2011 Singapore General Election. In Proceedings of 2012 45th Hawaii International Conference on System Sciences, S. 2583-2591.

Stockwell, P., Colomb, R. M., Smith, A. E., & Wiles, J. (2009). Use of an automatic content analysis tool: a technique for seeing both local and global scope. International Journal of Human-Computer Studies. doi: 10.1016/j.ijhcs.2008.12.001.

Thimm, C., Dang-Anh, M., & Einspänner, J. (2011). Diskurssystem Twitter: Semiotische und handlungs-theoretische Perspektiven. In M. Anastasiadis, & C. Thimm (Eds.), Social Media – Theorie und Praxis digitaler Sozialität (S. 178-223). Frankfurt: Lang.

Thimm, C., Einspänner, J., & Dang-Anh, M. (2012). Twitter als Wahlkampfmedium: Modellierung und Analyse politischer Social-Media-Nutzung. Publizistik, 57(3), 293-314.

Tumasjan, A., Sprenger, T. O., Sandner, P. G., Welpe, I. M. (2010). Predicting elections with Twitter: What 140 characters reveal about political sentiment. In Proceedings of the Fourth International AAAI Conference on Weblogs and Social Media.

Van Atteveldt, W. (2008). Semantic network analysis. Techniques for extracting, representing and querying media content. Charleston, SC: BookSurge.

 

Page 60: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

60

PANEL 3B | SA 09:00 - 10:00 | Chair: Nele Heise| Ort: IPK Seminarraum 2 (UG)

Interpersonale Kommunikation

Testing Dunbar’s Number. Die Analyse von Freundschaftsbeziehungen auf Facebook Anne-Kathrin Becker, Daniela Benger, Elisabeth Fanzke, Sven Jöckel & Marie-Christin Merkel (Uni Erfurt) Weltweit gut 1,1 Milliarden (Facebook 2013) Facebook-Mitglieder haben mittlerweile über 140 Milliarden Freundschaften geschlossen. Die 18-29-Jährigen, als besonders aktive Personengruppe, haben im Durchschnitt 318,5 Facebook-Freunde (Miller et al. 2013). Soziale Netzwerke (SN) wie Facebook ermöglichen es NutzerInnen theoretisch eine unbegrenzte Anzahl an Freundschaften und Beziehungen einzugehen (boyd 2008). Untersuchungen des Anthropologen Robin Dunbar ergaben allerdings, dass Menschen aufgrund ihres Neocortex-Volumens nur eine bestimmte Anzahl an sozialen Beziehungen aufrecht erhalten können. Die aus diesen Studien abgeleitete und als „dunbar´s number” populär gewordene Zahl 150 – bei der es sich streng genommen um ein 95% Konfidenzintervall um den Mittelwert von 147 handelt – bezeichnet dabei das Limit an sozialen Kontakten, zu denen ein gewisses Maß an Vertrauen und Verbindlichkeit besteht (Dunbar 1992; 1993; 2010; vgl. für SN auch boyd 2008; 2009; Tong et al. 2008). Vor diesem Hintergrund stellt sich die Frage, inwieweit sich Dunbars anthropologisch hergeleitete Beziehungskreise im Zeitalter von Facebook weiterhin als gültig erweisen. Führt Facebook zu einer Erweiterung unserer kognitiv begrenzten Fähigkeit, Freundschaften einzugehen und zu managen – oder reduziert sich der Kern der Facebook-Freunde auf eben jene von Dunbar abgeleitete Zahl von ca. 150 Personen (vgl. bspw. Lax 2012)?

Neben jener anthropologisch und kognitiv bestimmten Grenze von 150 Personen stellt Dunbar fest, dass sich innerhalb dieses Personenkreises hierarchisch geordnete Subgruppen herauskristallisieren, die von Faktoren wie Vertrauen, Intimitätsgrad oder Kontakthäufigkeit determiniert werden. Den engsten und innersten Kreis (3-5 Personen) bildet die sog. „Support Clique“. Den nächstgelegenen Beziehungskreis beschreibt Dunbar als „Sympathy Group“ (12-15). Persönliche, individuelle Attribute können bis zu circa 150 Personen zugeschrieben werden, auch existiert eine gemeinsame soziale Geschichte oder es gibt ein bestimmtes Level an Intimität (Dunbar et al 2007, S.119ff., vgl. auch Dunbar 2010, Zhou et al. 2005). Bezeichnenderweise existieren in der Soziologie unabhängig davon ähnlich hierarchisch strukturierte und von ähnlichen Faktoren determinierte Gruppen-strukturen (vgl. Hurrelmann & Quenzel 2012).

Page 61: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

61

Viele, vor allem auch junge Facebook-NutzerInnen, weisen jedoch deutlich mehr als eben jene 150 (Facebook-)Freundschaften auf. Es stellte sich daher die Frage, ob sich die benannten (anthropologisch/ evolutionspsychologisch sowie soziologisch hergeleiteten) Strukturen sozialer Gruppen durch soziale Netzwerke verändern – und wenn ja, wie?

Methode Methodisch kombiniert diese Arbeit dabei klassische quantitative und qualitative Feldzugänge der standardisierten Befragung und Beobachtung mit Leifaden-interviews. Neben den Befunden dieser Studien soll – vor dem Hintergrund des Tagungsthemas - diskutiert werden, inwieweit ein solches methodisches Vorgehen der Verbindung klassischer, sozialwissenschaftlicher Forschungsmethoden für die Analyse von Beziehungen in SN herangezogen werden kann.

In einem ersten, explorativen Studienteil wurden N=386 SchülerInnen eines Gymnasiums zu ihrer Facebook-Nutzung und ihren Freundschaften schriftlich befragt (Alter = 14.63, SD. = 1.76; 56% weiblich). Den Kern der Studie bilden jedoch teilstandardisierte Leitfadeninterviews mit vier Jugendlichen im Alter von 15 bis 17 Jahren. Anhand verschiedener Szenerien wurden abstrakte Konstrukte wie Vertrauen und Intimität in alltägliche zielgruppengerechte Beispielsituationen übertragen. Die Probanden konnten so ihre Kontakte (N = 574) den entsprechenden Kreisen nach Dunbar zuordnen. Zusätzlich wurden Alter und Geschlecht bzw. „die persönliche Geschichte“ der genannten Kontakte ermittelt.

Ergebnisse (Auswahl) Zentrale Erkenntnis der explorativen, standardisierten Vorstudie ist, dass die durchschnittliche Anzahl der Freundschaften bei den Jugendlichen (nach Selbstauskunft!) mit 230 leicht oberhalb der von Dunbar identifizierten Grenze liegt. Mit dem Alter – aber vor allem mit zunehmender Facebook-Mitgliedschaft steigt die Anzahl der Freundschaften. Doch knapp 37% der SchülerInnen gaben an, mit Personen befreundet zu sein, die sie nicht persönlich kennen.

Die qualitative Kernstudie ergab, dass die vier Befragten weit mehr als 150 Facebook-Kontakte besitzen, wobei sich die meisten nach der Kategorisierung nicht als Freunde im Sinne konventioneller Definitionen herausstellten. Die Freundschaften des sozialen Online-Netzwerks Facebook führen nach Selbstauskunft der Probanden zu keiner signifikanten Erweiterung des größten, äußersten (150 Personen) Beziehungskreises (143,5 Personen/Proband). Gleichzeitig stellte sich heraus, dass die beiden ersten Kreise größer ausfallen als von Dunbar und Kollegen sowie Hurrelmann und Quenzel beschrieben (der erste Kreis 7 Personen/Proband, der zweite Kreis 34,4 Personen/Proband).

Diskussion Die Studie(n) basierten weitgehend auf klassischen („analogen“) Forschungsmetho-den. Standardisierte und vor allem automatisierte („digitale“) Verfahren scheinen allerdings nicht in der Lage zu sein, solche komplexen sozialen Sachverhalte wie

Page 62: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

62

Freundschaftsstrukturen adäquat zu erfassen. Der verhältnismäßig große Aufwand reduziert die Generalisierbarkeit sowie Quantifizierbarkeit der Ergebnisse (4 Leit-fadeninterviews aber N = 574 Kontakte). Zwar ist es gelungen, Hinweise für eine weitere Gültigkeit von „dunbar’s number“ bei den Sozialen Netzwerken Jugendlicher zu identifizieren, eine systematische Übertragbarkeit steht jedoch noch aus. Gerade hier bietet sich ein Dialog zwischen automatisierten Verfahren („Big Data“) und klassischer Sozialforschung an. boyd, d. (2008). Facebook’s Privacy Trainwreck. Exposure, Invasion, and Social Convergence.Convergence:

The International Journal of Research into New Media Technologies, 14(1), 13 – 20. boyd, d. (2009): Friendship. In: Ito Mizuko, Sonja Baumer, Matteo Bittanti, danah boyd, Rachel Cody, Becky

Herr-Stephenson, Heather A. Horst, Patricia G. Lange, Dilan Mahendran, Katynka Z. Martinez, C. J. Pascoe, Dan Perkel, Laura Robinson, Christo Sims, Lisa Tripp (Eds.), Hanging Out, Messing Around, and Geeking. Kids Living and Learning with New Media (S. 79-116). Cambridge: MIT Press.

Dunbar, R. I. (1992). Neocortex size as a constraint on group size in primates. Journal of Human Evolution, 20, 469 – 493.

Dunbar, R. I. (1993). Coevolution of neocortical size, group size and language in humans.Behavioral and Brain Sciences, 16, 681 – 735.

Dunbar, R. I. M. (2010). How many friends does one person need? London: Faber and Faber. Dunbar, R. I. M., Barrett, L. & Lycett, J. (2007). Evolutionary Psychology – A Beginner‘s Guide. Oxford:

Oneworld. Facebook (2013). http://newsroom.fb.com/content/default.aspx?NewsAreaId=22 Hurrelmann, K. & Quenzel, G. (2012). Lebensphase Jugend. Eine Einführung in die Sozialwissenschaftliche

Jugendforschung (11., vollständig überarbeitete Auflage). Weinheim [u. a.]: Beltz Juventa. Lax, R. (2012). Dunbar’s Number Kicked My Ass in Facebook Friends Experiment. Online unter:

http://www.wired.com/underwire/2012/03/dunbars-number-facebook/ Miller, B., Mundey, P. & Hill, H.P.(2013). Faith in the Age of Facebook: Exploring the Links Between Religion and

Social Network Site Membership and Use. In: Sociology of Religion Advance Access. Online unter: http://socrel.oxfordjournals.org

Tong, S.T., Van der Heide, B., Langwell, L., Walther, J.B. (2008). Too Much of a Good Thing? The Relationship Between Number of Friends and Interpersonal Impressions on Facebook. Journal of Computer-Mediated Communication 13, 531-549

Zhou, W.-X.; Sornette, D.; Hill, R. A. & Dunbar, R. I. M. (2005). Discrete hierarchical organization of social group sizes. Online unter: http://rspb.royalsocietypublishing.org/content/272/1561/439

 

Page 63: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.
Page 64: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

64

setzende Kommunikationseffekte zwischen Konsumenten zurückgeführt wird (vgl. Rogers 1962, Bass 1969), kann der Diffusionsverlauf im Kinomarkt nach der Einführung weder anbieter- noch rezipientenseitig grundlegend beeinflusst werden. Kommunikationseffekte zwischen den Rezipienten müssen daher vor allem vor dem Kinostart bedeutsam sein, sodass idealtypisch ein Zwei-Phasen-Modell der Kinofilmdiffusion unterstellt werden kann (vgl. Sattelberger 2012: 52).

Im Rahmen der vorliegenden Studie werden interpersonal-öffentliche Kommuni-kationsprozesse vor dem Kinostart über aggregierte Statistiken auf Social-Media-Plattformen erhoben und in ein etabliertes Erfolgsfaktorenmodell integriert, um zu überprüfen, ob diese einen Einfluss auf die Kinobesucherzahl ausüben (vgl. Abbildung 2). Der Ansatz erlaubt es folglich manifeste Prozesse computervermittelter Kommunikation zu erfassen und auf ihre konative Wirkung hin zu untersuchen, wobei gleichzeitig eine Abschätzung des Effekts verschiedener Kanäle computervermittelter Kommunikation getroffen werden kann. Dies ist jedoch nicht für alle Formen interpersonal-öffentlicher Kommunikation im Internet möglich. Das Konstrukt “computervermittelte interpersonal-öffentliche Kommunikation vor dem Kinostart” wird daher als latenter Faktor verstanden und seine Modellierung folgt der Strukturgleichungslogik (vgl. Abb. 2). Der zeitlichen Dynamik der Kommunikations-prozesse kann Rechnung getragen werden, indem für jeden der 12 Messzeitpunkte ein separates Modell berechnet wird. Dadurch kann geprüft werden, welchen Einfluss interpersonal-öffentliche Kommunikationsprozesse (hypothetisch) auf die Kinobesucherzahl gehabt hätten, wäre dieser in der folgenden Woche gestartet. Dieses Vorgehen ermöglicht eine Abschätzung der konativen Wirkung computervermittelter interpersonal-öffentlicher Kommunikationsprozesse zu verschiedenen Zeitpunkten vor dem Kinostart und erlaubt somit eine Beurteilung über deren Eignung zur Verbesserung von Prognosen über den Absatz von Kinofilmen.

Der Beitrag präsentiert somit einen Ansatz, wie manifeste Strukturen computer-vermittelter Kommunikation gemessen, operationalisiert und analysiert werden können. Der Forschungsansatz bietet dadurch Transferpotenzial auf die Untersuchung konativer Wirkungen bei Meinungsbildungsprozessen über Vertrauensgüter allgemein, beispielsweise über die Wirkungen der Verläufe politischer Kommunikation in Wahlkämpfen auf das Wahlverhalten.

Variablenbeschreibung Manifeste Strukturen computervermittelter Kommunikation werden zum einen anhand des sozialen Netzwerkdiensts Facebook untersucht, wobei die Aktivität als Summenwert bestehend aus Empfehlungen (“Likes”), Weiterleitungen (“Shares”) und Kommentierungen (“Comments”) in das Modell eingeht. Dieses aggregierte Maß der Aktivität auf Facebook wird als “Empfehlungen” im Modell bezeichnet und sowohl für filmspezifische Facebook-Fanseiten, YouTube-Trailer, als auch für filmspezifische Angebote onlinebasierter Filmportale (www.filmstarts.de, www.kino.de und www.moviepilot.de) erhoben.

Page 65: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

65

Zusätzlich wird mit dem Faktor “Kommentierung” die Anzahl an Kommentaren bzw. Kurzmitteilungen über die entsprechenden Filme auf dem Micro-Blogging-Dienst Twitter, auf YouTube und auf den filmspezifischen onlinebasierten Filmportalen erfasst. Für die Facebook-Fanseiten ist zudem bekannt, wie viele Nutzer zum entsprechenden Zeitpunkt über den jeweiligen Film “sprechen”.

In den Faktor “Wertung” geht der prozentuale Anteil positiver Nutzerwertungen an den Gesamtwertungen zum Film auf YouTube ein. In vergleichbarer Weise werden die Wertungen auf den Online-Filmportalen als Prozentwerte ausgewiesen (0 = niedrigstes; 100 = höchstes). Die weiteren Erfolgsfaktoren werden in der fol-genden Tabelle zusammengefasst: Variable(Erfolgsfaktor) Kurzbeschreibung

Filmreihen Besucherzahl des letzten Films der Reihe in Deutschland Darsteller Anzahl der lokalen Suchanfragen zum Schauspieler auf Google Regie Anzahl der globalen Suchanfragen zum Regisseur auf Google Filmkritiken Prozentuale Bewertung durch Filmkritiker der Redaktionen

(0 = niedrigstes; 100 = höchstes) Filmpreise Punktwert der gewonnenen Filmpreise vor dem deutschen Kinostart (FFA-

Kriterien zur Referenzfilmförderung) Leinwände Anzahl der Filmleinwände zum Kinostart

Datensatzbeschreibung Der Datensatz umfasst alle Kinofilme, die in Deutschland zwischen dem 26. Juni und 27. Dezember 2012 gestartet sind. Insgesamt sind dies 234 Filme (Vollerhebung), wo-bei vollständige Daten für 216 Filme vorliegen. Die Daten zur Erhebung der inter-personal-öffentlichen Kommunikationsprozesse im sozialen Netzwerk Facebook wurden mittels einer eigenen Softwarelösung wöchentlich automatisiert für die 12 Wochen vor dem Kinostart erhoben, wobei in Empfehlungen ("Likes"), Weiter-leitungen ("Shares") und Kommentierungen ("Comments") unterschieden wird. Um das Messmodell durch die Ausdifferenzierung dieser Variablen nicht zu überfrachten, geht diese als Summenwert in das Modell ein. Die automatisierte Erhebung wurde durch die ebenfalls wöchentliche manuelle Erhebung weiterer Indikatoren ergänzt. Im Detail sind dies die Anzahl der Nutzer, die auf einer Facebook-Fanseite über einen Film "sprechen", die Anzahl der Kommentare und Kurznachrichten auf YouTube, Twitter und auf Online-Filmportalen sowie die Bewertungen auf YouTube und auf Online-Filmportalen.

Die Auswahl der Portale erfolgte dabei auf Basis ihrer Reichweite in Deutschland. Be-zogen auf die Nutzerzahl in Deutschland ist Facebook Marktführer im Bereich der sozialen Netzwerkdienste, Twitter im Bereich der Micro-Blogging-Plattformen und YouTube im Bereich der Portale für audio-visuelle Inhalte. Für die Auswahl der Online-Filmportale wurde die IVW-Reichweite herangezogen, wobei nur Angebote mit

Page 66: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.
Page 67: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

67

durchgeführt, sodass die Ergebnisse des Strukturgleichungsmodells erst im Rahmen der Tagung "Digital Methods - Innovative Ansätze zur Analyse öffentlicher Kommunikation im Internet" im November 2013 präsentiert werden. Backhaus, K., Erichson, B., & Weiber, R. (2011): Fortgeschrittene Multivariate Analysemethoden. Eine

anwendungsorientierte Einführung. Heidelberg u. a.: Springer-Verlag. Bass, F. M. (1969): A new product growth model for consumer durables. In: Management Science, Ausgabe 15,

S. 215-227. Chang, B.-H., & Ki, E.-J. (2005). Devising a practical model for predicting theatrical movie success: focusing on

the experience good property. Journal of Media Economics, 18, 247–269. Dellarocas, C., Awad, N. F., & Zhang, X. (2007). Exploring the value of online product reviews in forecasting

sales: The case of motion pictures. Journal of Interactive Marketing, 21, 23–45. Dimmick, J. & Wang, T. (2005). Toward an economic theory of media diffusion based on the parameters of the

logistic growth equation. The Journal of Media Economics, 18, 233-246. Duan, W., Bin, G., & Whinston, A. B. (2008). The dynamics of online word-of-mouth and product sales - an

empirical investigation of the movie industry. Journal of Retailing, 84(2), 233–242. Haas, A., Keyling, T., & Brosius H.-B. (2010). Online-Duskussionsforen als Inikator für interpersonale (Offline)

Kommunikation? Methodische Ansätze und Probleme. In N. Jackob, T. Zerback, O. Jandura, & M. Maurer (Hrsg.). Das Internet als Forschungsinstrument und -gegenstand in der Kommunikationswissenschaft. Köln: Herbert von Halem Verlag.

Hennig-Thurau, T., Houston, M. B., & Walsh, G. (2007): Determinants of motion picture box office and profitability: an interrelationship approach. Review of Managerial Science, 1, 65-92.

Rogers, E. M. (1962): Diffusion of innovations, 1. Ausgabe. Glencoe: Free Press.

What are these researchers doing in my Wikipedia?” Forschungsethische Axiome und forschungs-praktische Kompromisse teilnehmenden Beobachtens in digital vernetzten Umgebungen Christian Pentzold (HIIG, Berlin)

Hintergrund Sozialwissenschaftliche Untersuchungen sozialen Lebens sollen forschungsethisch plausibel und integer vorbereitet sein, ablaufen und dargestellt werden. Die dazu gesetzten vier forschungsethischen Axiome - Anonymität absichern, Vertraulichkeit zusagen, informierte Zustimmung einholen und Schädigungen vermeiden – gelten für Analysen online-medial (mit-) konstituierter Lebenswelten ebenso, wie sie Anforderung an jede methodisch-empirische Auseinandersetzung mit sozialen Zusammenhängen im weitesten Sinn sind (vgl. Hopf 2005, Ess/AoIR Ethics Working

Page 68: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

68

Committee 2002, Eynon/Fry/Schroeder 2008, McKee/Porter 2009, Markham/ Buchanan/AoIR Ethics Working Committee 2012).

Die besondere Dringlichkeit, nach der forschungsethischen Dimension des nicht-standardisierten Erforschens digitaler Kommunikation zu fragen, ergibt sich aus drei Entwicklungen:

Zum einen aus der allgemeinen Aufwertung forschungsethischer Diskussionen und ent-sprechender Kodifizierungsversuche, wie sie beispielsweise in den soziologischen und kommunikationswissenschaftlichen deutschsprachigen Fachgesellschaften in den letzten zwei Jahrzehnten stattgefunden haben (vgl. DGPuK 1999 DGS 2007).

Zum anderen durch die Innovation sozialer Medien und digital vernetzter Kommunikation, die fraglich macht, inwiefern bei ihrer Untersuchung kodifizierte forschungsethische Musterlösungen übernommen werden können und ob hier überhaupt vergleichbare forschungsethische Aufgaben vorliegen.

Darüber hinaus hat zwar hat jüngst insbesondere die Option massiven Sammelns und Auswertens von Daten (‚big data’) forschungsethische Reflexionen auf sich gezo-gen, doch stellt sich die Notwendigkeit forschungsethischer Überlegungen ebenso dringlich für qualitativ orientierte Verfahren. Denn hier ist zum einen bei der Datenerhebung der Rapport zum interessierenden Feld gerade persönlich und indivi-duell zu gestalten, statt dass abstrahierbare Daten aggregiert werden können. Zum anderen kann der Forschungsbericht selten auf persönliche Stimmen und individualisierte Beispiele verzichten.

Problemfelder und Ergebnisse Der Vortrag wird erstens die forschungsethischen Problemfelder digitaler qualitativer Methoden ordnen. Dazu werden die Charakteristika online-medialen Kommunizierens mit den forschungsethischen Axiomen in Problemfeldern in Beziehung gesetzt:

Es wird demnach im ersten Problemfeld geschaut, welche Konsequenzen die (be-dingte) Öffentlichkeit und Recherchierbarkeit von selbst-, fremd- und systemgener-ierten Informationen für das Gewährleisten von Anonymität und Vermeidung von Schädigungen haben. Im zweiten Problemfeld wird diskutiert, welche Konsequenzen wiederum die Anonymität bzw. Pseudonymität des Interagierens online für das Absichern von Vertraulichkeit und informierter Zustimmung mit sich bringen.

Der konkrete forschungspraktische Umgang mit diesen beiden Problemfeldern wird am Beispiel einer Studie des teilnehmenden Beobachtens der deutsch- und englischsprachigen Wikipedia demonstriert (Projektlaufzeit: 01/2010-04/2013). Es wird diskutiert, wie hier ein methodisch viables und forschungsethisch plausibles Vorgehen zwischen Erfüllen, Kompromiss und Scheitern strategisch verfuhr.

Die Verfahrensentscheidungen konzentrierten sich im ersten Problemfeld auf den Umgang mit den Aktivitätsaufzeichnungen und öffentlichen Selbstauskünften der Au-toren, der Rückführbarkeit aller im Wiki gemachten Edits und des Umgangs der Nutzer mit Publizität einerhand und den lizenzrechtlichen Anforderungen nach Au-torennennung und den methodischen Kriterien der Authentizität des empirischen

Page 69: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

69

Materials sowie des Validierens seiner rekonstruktiven Verwendung andrerhand. Im zweiten Problemfeld galt es wiederum, einerseits die informationelle Selbst-bestimmung der Autoren, die plattformgemäße Zusicherung von Anonymität und die sich daraus ergebende unzuverlässige Ansprechbarkeit pseudonymer bzw. anonymer Nutzer mit der Forderung nach Absichern von Vertraulichkeit und Einholen informierter Zustimmung andererseits forschungspraktisch auszubalancieren. DGPuK Deutsche Gesellschaft für Publizistik und Kommunikationswissenschaft (1999). Erklärung der

Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft zur Sicherung guter wissenschaftlicher Praxis. http://www.dgpuk.de/uber-die-dgpuk/ethikerklarung/.

DGS Deutsche Gesellschaft für Soziologie (2007). Ethik-Kodex der Deutschen Gesellschaft für Soziologie und des Berufsverbandes deutscher Soziologinnen und Soziologen. http://www.soziologie.de/index.php?id=19.

Ess, C. & AoIR Ethics Working Committee (2002). Ethical decision-making and Internet research. Recommendations from the AoIR Ethics Working Committee. http://aoir.org/reports/ethics.pdf.

Eynon, R., Fry, J. & Schroeder, R. (2008). The ethics of Internet research. In: Fielding, N., Lee, R.M. & Blank, G. (Hg.): The Sage Handbook of Internet Research. (S. 23-41). Thousand Oaks: Sage. Hopf, C. (2005). Forschungsethik und qualitative Forschung. In: Flick, U., von Kardoff, E. & Steinke, I.

(Eds.), Qualitative Forschung. Ein Handbuch. (S. 589-600). Reinbek b. Hamburg; Rowohlt. Markham, A., E. A. Buchanan & AoIR Ethics Working Committee (2012). Ethical decision-making and Internet

Research 2.0: Recommendations from the AoIR Ethics Working Committee. http://aoir.org/reports/ethics2.pdf.

McKee, H. & J.E. Porter (2008). The Ethics of Digital Writing Research: A Rhetorical Approach. New York: Peter Lang.

Page 70: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

70

PANEL 4A | SA 10:15 - 11:15 | Chair: Heinz Wittenbrink | Ort: IPK Hörsaal 3 (3. Stock)

Nachrichten

Gesprächswert 2.0. - Der Einfluss von Nachrichtenfaktoren auf die Anschlusskommunikation auf Facebook Pascal Barro & Sven Engesser (Uni Zürich) Die Nachrichtenwerttheorie gilt als Klassiker der Kommunikationswissenschaft. Ursprünglich als Selektionskriterien der Journalisten und Redaktionen modelliert, wurde sie später als allgemeinere Wahrnehmungstheorie von Ereignissen verstanden (u. a. Warren, 1934; Galtung & Ruge, 1965). In jüngerer Zeit werden Nachrichtenwerte zudem vermehrt aus einer rezipientenorientierten Perspektive untersucht (Eilders, 1997). Basierend auf dem Nachrichtenwert als Gesprächswert wird der Frage nachgegangen, welche Nachrichtenfaktoren in Medien für Anschlusskommunikation sorgen (Gehrau, 2010, S. 156). Sommer et al. (2012) untersuchen in drei Studien, wie sich Fernsehnachrichten in Gesprächen wiederfinden. Sie können lediglich einen „indirekten“ Einfluss von Nachrichtenwerten auf den Gesprächswert finden (S. 396).

Generell zeigt sich die Anschlusskommunikation als Gesprächswertindikator in der Empirie als schwer zu erhebendes Konstrukt. Jedoch eignen sich neue Medien und Soziale Netzwerke im Speziellen zur Untersuchung. Die Menge an Kommentaren und weiteren Interaktionsmöglichkeiten lässt sich als Indikator für den Gesprächswert heranziehen. Soziale Netzwerke wurden bisher in erster Linie aus sozialpsycho-logischer und pädagogischer Perspektive erforscht. Dabei stand die Analyse der privaten Öffentlichkeit im Zentrum. Bisher eher ausgeblendet wurden „Akteure, die soziale Netzwerke professionell für das Erreichen partikularer Persuasionsziele [...] oder publizistischer Ziele [...] verwenden.“ (Neuberger, 2011, S. 35). Auf Netzwerk-Plattformen kann das disperse Publikum Medieninhalte diskutieren. Die Anschlusskommunikation wird in Form von Kommentaren an die Journalisten zurückadressiert (Neuberger & Quandt, 2010, S. 68). Die vorliegende Arbeit baut theoretisch und methodisch auf den Studien von Engesser et al. (2010), Weber (2012) und Ziegele (2012) auf, welche sich mit der Anschlusskommunikation im Internet und bei Sozialen Medien befasst haben.

Die vorliegende Studie beschäftigt sich mit den Facebook-Fanseiten von großen Tageszeitungen aus der Schweiz, Deutschland und den USA. Zusätzlich wird pro Land ein Facebook-Pionier als Best-Practice-Medium ausgewählt. Insbesondere soll die Rolle von Nachrichtenwerten in Bezug auf die Anschlusskommunikation durch die

Page 71: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

71

Nutzer genauer beleuchtet werden. Die Messung der Anschlusskommunikation erfolgt anhand der Kommentare, die auf einen Beitrag anfallen. Weiter wird der Zusammenhang zwischen Kommentaren, geteilten Beiträgen („Shares“) und „Likes“ untersucht, um den vollen Umfang an Nutzerreaktionen auf den Beitrag zu erfassen.

Im Zeitraum zwischen 27. April und 11. Juni 2012 wurden alle 4 410 Beiträge der ausgewählten Medien über das API2 von Facebook erfasst. Daraus wurde für die Codierung der Nachrichtenwerte pro Medium eine Stichprobe von 40 Beiträgen mittels einer Wahrscheinlichkeitsauswahl gezogen (n = 480, = 0.64 – 1.00).

Mittels einer Varianzanalyse konnte in Boulevardmedien gegenüber den Qualitäts-zeitungen eine stärkere Personalisierung (F(2, 469) = 7.7, p < .001) und eine geringere Reichweite (F(2, 460) = 36.05, p < .001) nachgewiesen werden. Die Nachrichten-faktoren Personalisierung (r = .125, p < .01), Prominenz (r = .098, p < .01), Konflikt (r = .159, p < .001) und Nähe (r = .119, p < .01) übten signifikant positive Effekte auf die Anzahl der Nutzerkommentare aus. Im Gesamtmodell ist die Funktion des Nachrichtenwerts als Gesprächswert mit einer Varianzaufklärung von 11,6 Prozent nachweisbar. Entgegen der Studie von Weber (2012) über den Niederschlag von Nachrichtenfaktoren auf Nutzerkommentare auf den Homepages der Medien konnte Schaden keinen signifikanten Effekt erzielen. Ein möglicher Erklärungsversuch könnte darin bestehen, dass angemeldete Facebook Nutzer in ihrem Netzwerk Schadenfreude weniger offensichtlich äußern, als dies Nutzer von anonymen Kommentarfunktionen auf Medienwebseiten tun. Dies könnte eventuell in Zusammenhang mit den Ergebnissen von Sommer et al. (2012) stehen, wonach Negativität dem Gesprächswert entgegenwirkt (S. 398). Diesen Vermutungen müsste jedoch in weiterer Forschung differenzierter nachgegangen werden.

Bei der Anschlusskommunikation zeigte sich ein enger positiver Zusammenhang zwi-schen Kommentaren, „Shares“ und „Likes“. Zur Differenzierung der Ergebnisse wurde anhand eines Mediationsmodells untersucht, welchen Einfluss die Kommen-tare über die „Shares“ auf die „Likes“ haben (Hayes, 2012, S. 6). Es zeigten sich sowohl signifikante Effekte von den Kommentaren auf die „Shares“ (a = 0.22, p < .001), von den „Shares“ auf die „Likes“ (b = 1.42, p < .001) sowie ein indirekter Effekt von den Kommentaren zu den „Likes“ (c = 0.53, p < .001). Die Anschluss-kommunikation auf veröffentlichte Beiträge vermag demnach deren „sharen“ und „liken“ signifikant zu fördern.

Die Konzepte der Anschlusskommunikation und der Nachrichtenwerttheorie haben sich auch für die partizipative Verwendung des Internets bewährt. Die Arbeit zeigt die Aktualität und Interdependenz der beiden Ansätze, indem sie auch hier Nachrichtenfaktoren herauskristallisiert, die sich positiv auf die Anschlusskommunikation auswirken.

Eilders, Christiane (1997): Nachrichtenfaktoren und Rezeption. Eine empirische Analyse zur Auswahl und

Verarbeitung politischer Kommunikation. Opladen. Westdeutscher Verlag. Engesser, Sven, Krämer, Benjamin & Ammann, Ilona (2010). Bereichernd oder belanglos? Der Nachrichtenwert

der partizipativen Pressefotografie im Boulevardjournalismus. Publizistik, 55(2), 129-151.

Page 72: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

72

Fretwurst, Benjamin (2008). Nachrichten im Interesse der Zuschauer: Eine konzeptionelle und empirische Neubestimmung der Nachrichtenwerttheorie. UVK. Konstanz.

Galtung, Johan/Ruge, Mari H. (1965): The Structure of Foreign News. The Presentation of the Congo, Cuba and Cyprus Crisis in Four Norwegian Newspapers. In : Journal of Peace Research (1), S. 64-91.

Gehrau, Volker & Goerz, Lutz (2010). Gespräche über Medien unter veränderten medialen Verbindungen. Publizistik, 55, 153-172.

Gehrau, Volker (2011). Interpersonale Kommunikation und Massenmedien. In: Neuberger, Christoph & Gehrau, Volker (Hrsg.). StudiVZ: Diffunsion und Wirkung eines sozialen Netzwerks im Internet. Wiesbaden.

Hayes, Andrew F. (2012). PROCESS: A versatile computational tool for observed variable mediation, moderation, and conditional process modeling. (White Paper). Ohio.

Neuberger, Christoph (2011). Soziale Netzwerke im Internet: Kommunikationswissenschaftliche Einordnung und Forschungsüberblick. In: Neuberger, Christoph & Gehrau, Volker (Hrsg.). StudiVZ: Diffunsion und Wirkung eines sozialen Netzwerks im Internet. Wiesbaden.

Neuberger, Christoph & Quandt, Thorsten (2010). Internet-Journalismus: Vom traditionellen Gatekeeping zum partizipativen Journalismus? In: Schweiger, Wolfgang & Beck, Klaus (Hrsg.), Handbuch Online-Kommunikation. Wiesbaden.

Sommer, Denise/Fretwurst Benjamin/Sommer, Katharina/Gehrau, Volker (2012): Nachrichtenwert und Gespräche über Medienthemen. In: Publizistik, 70(4), S. 381-401.

Warren, Carl N. (1934): Modern News Reporting. New York: Harper & Bros Publishing. Weber, Patrick (2012). Nachrichtenfaktoren & User Generated Content: Die Bedeutung von Nachrichtenfaktoren für Kommentierungen der politischen Berichterstattung auf Nachrichtenwebsites. Medien & Kommunikationswissenschaft, 60(2), S. 218-239.

Ziegele, Marc (2012). In search for an online discussion value: Assessing media-initiateduser communication from a news value perspective. Vortrag auf der Jahrestagung der International Communication Association, Boston, MA, 25. Mai 2011

„Digital Methods” im Journalismus: Workflows in datenjournalistischen Projekten Julian Ausserhofer (FH Joanneum Graz) Das Analysieren und Visualisieren von kleinen und mittelgroßen Datenmengen gehört immer öfter zum journalistischen Arbeitsalltag. Was früher Wetterreportern und Wahlanalystinnen vorbehalten war, passiert heute in vielen Ressorts auf der ganzen Welt. Beim Datenjournalismus ist die Tabellenkalkulation und nicht die Textverarbeitung das wichtigste journalistische Werkzeug. Und obwohl immer mehr BürgerreporterInnen und Redaktionen Datenjournalismus betreiben, steht die empirische, wissenschaftlich fundierte Untersuchung dieser Praktiken erst am Anfang (Anderson, 2012; Bounegru, 2013, p. 3; Schwabl & Roither, 2012; Spiller & Weinacht, 2013). Daran mag auch die bis in die 1950er zurückreichende Tradition des Computer-Assisted Reporting (für einen historischen Überblick über CAR, siehe Cox, 2000), das durchaus als Wegbereiter des heutigen Datenjournalismus gesehen werden kann, wenig ändern, schließlich ist einerseits die (fast ausschließlich US-amerikanische) Forschung über CAR überschaubar, andererseits pflegen CAR und

Page 73: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

73

Datenjournalismus jeweils unterschiedliche Methoden und Selbstverständnisse (Bounegru, 2012).

JournalistInnen, die ihre Berichterstattung auf strukturierter Information aufbauen, greifen auf ähnliche Methoden zurück, wie sie auch in den Sozialwissenschaften angewandt werden (Weaver & McCombs, 1980; Meyer, 2002, 2011). Einer der markantesten Unterschiede liegt in der Datenerhebung: In den wenigsten Fällen führen JournalistInnen diese selbst durch. Zumeist verwenden sie zugespielte Daten oder öffentliche Daten (z.B. Statistiken, Wetter- oder Wahldaten). Sozialwissen-schaftlerInnen erheben ihre Daten jedoch in der Regel selbst. Bei anderen Verfahren sind sich (Daten-)Journalismus und (Sozial-)Wissenschaft wiederum sehr ähnlich – auch wenn unterschiedliche Standards in Sachen Sorgfalt, Geschwindigkeit und Ethik an den Tag gelegt werden: Die akquirierten Daten werden gesäubert, integriert, analysiert und präsentiert. Sowohl Journalismus wie auch Sozialwissenschaft setzen auf klassische Methoden wie Umfragen, Interviews, soziale Netzwerkanalyse oder Feldstudien.

Neben den klassischen sozialwissenschaftlichen Methoden verwenden Daten-journalistInnen jedoch immer öfter das, was Rogers (2009, 2010, 2013) im Kontext der Internetforschung als „Digital Methods” bezeichnet hat: Forschungsmethoden, die das Internet nicht als Mittler klassischer sozialwissenschaftlicher Arbeitsweisen wie z.B. Umfragen benützen, sondern Methoden, die das Internet, dessen Struktur, digitale Objekte und Artefakte computerunterstützt erforschen, um Aussagen über soziale Sachverhalte zu treffen. Beispielhafte Projekte für die Anwendung digitaler Methoden im Datenjournalismus sind etwa die Visualisierung der Ausbreitung und Entkräftung von Gerüchten in sozialen Medien1 oder die Netzwerkanalyse des Twitternetzwerk des Attentäters auf den Boston-Marathon2. Auch zahlreiche Daten-bankanalysen von so genannten „Leaks” („Iraq War Logs”, „Cablegate”, „Offshore-Leaks”) fallen in die Kategorie des Digital-Methods-Datenjournalismus.

Ziel meines Beitrags ist es, die digitalen Methoden und den redaktionellen Workflow von ausgewählten datenjournalistischen Projekten zu beleuchten. Mich interessiert, wie ein Digital-Methods-Datenjournalismus-Projekt entsteht, über welche Kompe-tenzen die einzelnen Akteure verfügen und welche Rollen digitale Artefakte bei der Arbeit an diesen Projekten spielen. Im Vorfeld der Bundestagswahl 2013 habe ich neun Experteninterviews mit DatenjournalistInnen in deutschen Newsrooms geführt. Damit wurde ein Gutteil derjenigen befragt, die sich hauptberuflich in Deutschland dem Thema widmen. Es zeigt sich, dass Datenjournalismus in den wenigsten Fällen eine Einzelarbeit ist: Zumindest in Zweierteams wird an Projekten gearbeitet (und oft sind es mehr) - eine Person mit Journalismus-Hintergrund, eine Person mit Program-mier- bzw. Visualisierungssausbildung. Je nach Projekt werden auch externe Berater hinzugezogen oder Unterstützung online sowie bei RedakteurInnen von anderen Medienhäusern gesucht. Alle Befragten äußerten den Anspruch, Objektivität durch Transparenz herzustellen, indem sie Methoden und Quellen veröffentlichten - ähnliche Argumentationsmuster wie sie in Communities of Practice (Wenger, 1998) oder der Open-Science- oder Open-Source-Bewegung geäußert werden.

Page 74: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

74

1 http://www.guardian.co.uk/uk/interactive/2011/dec/07/london-riots-twitter 2 http://digg.com/originals/dzhokhar-tsarnaev-twitter-map Anderson, C. W. (2012). Towards a Sociology of Computational and Algorithmic Journalism. New Media &

Society, 0(0), 1–17. doi:10.1177/1461444812465137 Bounegru, L. (2012). Data Journalism in Perspective. In J. Gray, L. Bounegru, & L. Chambers (Eds.),The Data

Journalism Handbook: How Journalists Can Use Data to Improve the News (pp. 17–22). Sebastopol, CA: O’Reilly Media. Retrieved from http://datajournalismhandbook.org/

Bounegru, L. (2013). Sourcing Practices and Knowledge Production in Data Journalism at The Guardian, The New York Times and ProPublica (Unpublished Master Thesis). University of Amsterdam, Amsterdam.

Cox, M. (2000). The Development of Computer-Assisted Reporting. Presented at the Newspaper Division, Association for Education in Journalism and Mass Communication, Southeast Colloquium, Chapel Hill, North Carolina. Retrieved from http://com.miami.edu/car/cox00.pdf

Meyer, P. (2002). Precision Journalism: A Reporter’s Introduction to Social Science Methods (4th ed.). Oxford, England: Rowman & Littlefield.

Meyer, P. (2011, Fall). Precision Journalism and Narrative Journalism: Toward a Unified Field Theory. Nieman Reports. Retrieved from http://www.nieman.harvard.edu/reports/article-online-exclusive/100044/Precision-Journalism-and-Narrative-Journalism-Toward-a-Unified-Field-Theory.aspx

Rogers, R. (2009). The End of the Virtual: Digital Methods. Amsterdam: Vossiuspers UvA. Rogers, R. (2010). Internet Research: The Question of Method — A Keynote Address from the YouTube and the

2008 Election Cycle in the United States Conference. Journal of Information Technology & Politics, 7, 241–260. doi:10.1080/19331681003753438

Rogers, R. (2013). Digital Methods. Cambridge, Massachusetts & London, England: MIT Press. Weaver, D. H., & McCombs, M. E. (1980). Journalism and Social Science: A New Relationship? Public Opinion

Quarterly, 44(4), 477–494. Schwabl, T., & Roither, M. (2012, October 3). Die Relevanz des Datenjournalismus in der täglichen

journalistischen Arbeit. Retrieved from http://www.marketagent.com/webfiles/pdf/news/%7B344AC108-10BB-4A32-9372-35B410C1029D%7D.PDF#

Weinacht, S., & Spiller, R. (2013). Wie wissenschaftlich ist Datenjournalismus? Ergebnisse einer bundesweiten Befragung. WPK Quarterly, (1), 14–15.

Wenger, E. (1998). Communities of Practice: Learning, Meaning, and Identity. Cambridge, UK: Cambridge University Press.

Page 75: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

75

Keyword-basierte Themenerkennung von Online-Nachrichten Elisabeth Günther & Thorsten Quandt (Uni Münster)

Problemstellung Vielseitig, bunt und fast unüberschaubar fluten (journalistische) Beiträge täglich Online-Nachrichtenseiten und die Kapazitäten ihrer Leser: Journalisten beleuchten unterschiedlichste Themen - oder dieselben Themen unter höchst unterschiedlichen Gesichtspunkten. Automatisierte Verfahren ermöglichen es der Kommunikations-wissenschaft, einen Schnappschuss des digitalen Diskurses aufzunehmen und als Artefakte öffentlicher Meinung auszuwerten. Unsere Arbeit konzentriert sich dabei auf die automatisierte Themenerkennung von Nachrichtenbeiträgen. In der Computerlinguistik ist dieser Forschungsbereich Teil des Information Retrievals: das Ziel dieses Fachgebiets besteht darin, komplexe und unstrukturierte Informationen aus vorhandenen (Text-) Korpora herauszuziehen (vgl. Manning, Raghavan & Schütze, 2008). Während die automatisierte Datenerhebung von Online-Nachrichtenbeiträgen mit relativ geringem Aufwand prinzipiell unbegrenzte Stichprobengrößen erlaubt, stellt die Auswertung inhaltlicher Variablen, wie eben in diesem Fall des Themas eines Beitrags, eine erheblich komplexere Aufgabe dar. Verschiedene Analysestrategien hierfür werden in diesem Beitrag vorgestellt und evaluiert.

Verfahren zur automatischen Themenerkennung Insbesondere im Bereich der Computerlinguistik und auch Politikwissenschaft wird die Forschung zur automatischen Themenerkennung von Nachrichtenbeiträgen bereits seit einem guten Jahrzehnt vorangetrieben. In dieser beachtlichen Forschungstradition gibt es mehrere Herangehensweisen, wobei das Keyword-basierte Vorgehen einen Standard im Bereich der sog. Bag of Words-Ansätze ohne menschliche Codierleistungen (wie etwa beim Machine Learning) darstellt. Zentral ist hier das Auffinden prägnanter Schlüsselbegriffe, die einerseits allgemein genug sind, um möglichst viele relevante Texte einzubeziehen, andererseits allerdings auch spezifisch genug, um einen Themenbereich möglichst aussagekräftig von nicht relevanten Beiträgen abzugrenzen. Zu diesem Zweck wird jeder Term in jedem Dokument des Textkorpus zweifach gewichtet: Relevant ist zunächst einmal die absolute Häufigkeit jedes Terms innerhalb eines Dokuments (Local Weighting) - je häufiger ein Begriff innerhalb eines Dokumentes ist, desto relevanter ist er für die Beschreibung von dessen Inhalt. Anstatt jedoch allein die Bedeutung des Terms für ein einzelnes Dokument zu betrachten ist es essenziell, diese zusätzlich im Verhältnis zu ihrem Vorkommen im gesamten Textkorpus zu gewichten (Global Weighting, vgl. Flynn & Dunnion, 2004). Diese Möglichkeit bietet der TF/IDF-Algorithmus (vgl. Manning, Raghavan & Schütze, 2008: 118ff): Seiner Logik folgend kann das Thema eines Dokuments am besten über diejenigen Begriffe beschrieben werden, die

Page 76: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

76

innerhalb des Dokuments überdurchschnittlich oft, im gesamten Textkorpus dagegen umso seltener vorkommen.

Die so ermittelten Keywords werden in einem zweiten Schritt zu Themenbereichen zusammengefasst. In der Literatur finden sich hier verschiedene Verfahren - soll jeder Nachrichtenbeitrag genau einem Thema zugewiesen werden, d.h. ähnliche Dokumente zu einem Themenbereich zusammengefasst werden, so bietet sich die Clusteranalyse an. Um der Tatsache Gewicht zu verleihen, dass ein Beitrag mehrere Themen behandeln kann, wird eine Faktorenanalyse (Varimax Rotation) eingesetzt. Die Konsequenzen dieser Entscheidung werden im Beitrag diskutiert.

Erweiterungen Der Fokus liegt im Beitrag darauf, wie das beschriebene Vorgehen zur automati-sierten Themenerkennung erweitert werden kann. Werden Themen über längere Zeit hinweg beobachtet, so ist es teilweise nicht möglich, zum Zeitpunkt erster Analysen bereits den vollständigen Korpus auswerten zu können. Auch vor dem Hintergrund einer Ersparnis von Zeit und Rechenleistung wird die Möglichkeit evaluiert, relevante Themen anhand eines Teil-Korpus zu bestimmen und diese im Anschluss auf weitere Dokumente zu übertragen. Verfahren zur Keyword-Erweiterung wiederum bieten das Potential die Reliabilität dieses Vorhabens zu verbessern, indem sie Probleme wie dasconcept drifting, also den zeitlichen Wandel eines Themas (vgl. Lee, 2012), auffangen und somit die Übertragbarkeit der Teil-Korpora verbessern. Den Kern bildet dabei die Extraktion von Eigennamen (Personen, Organisationen und Orte) aus den Nachrichtenartikeln. Als Quellen für eine automatische Erweiterung bieten sich beispielsweise Online-Enzyklopädien wie Wikipedia an (vgl. Wartena & Brussee, 2008). Der Beitrag evaluiert, welcher bzw. ob überhaupt ein Mehrwert von einer solchen Keyword-Erweiterung zu erwarten ist. Flynn, C. & Dunnion, J. (2004). Domain-Informed Topic Detection. In Alexander Gelbukh (Eds.),Computational

Linguistics and Intelligent Text Processing (S. 617-626). Berlin: Springer VS. Lee, C.-H. (2012). Mining Spatio-Temporal Information on Microblogging Streams Using a Density-Based

Online Clustering Method. Expert Systems with Applications, 39(10), 9623-41. Manning, C. D., Raghavan, P. & Schütze, H. (2008). Introduction to Information Retrieval. New York: Cambridge

University Press. Wartena, C. & Brussee, R. (2008). Topic Detection by Clustering Keywords. Proceedings der 19. International

Conference on Database and Expert Systems Application (S. 54-58).

Page 77: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

77

PANEL 4B | SA 10:15 - 11:15 | Chair: Christiane Grill | Ort: IPK Seminarraum 2 (UG)

Framing

Versteckte Deutungsrahmen? Framing-Analysen im Social Web Gianna Haake (Uni Münster) Die Framing-Analyse ist eine inzwischen etablierte Methode der Kommunikations-wissenschaft, die darauf abzielt, Deutungsmuster im Bereich der Public Relations, des Journalismus, der Rezipienten oder der Kultur zu erkennen. Mit dem Aufkommen des Social Web ergeben sich neben neuen Anwendungsfeldern, wie für viele andere traditionelle Methoden, auch neue Herausforderungen. Die Nutzer von sozialen Onlinenetzwerken, Twitter und Kommentarfunktionen kommunizieren häufig über Kurznachrichten von wenigen Worten oder Sätzen. Die Frage ist, inwieweit in diesen Texten Frames enthalten sind und sich identifizieren lassen. Solche Frames, die als Medieninhalte einer breiten Öffentlichkeit zugänglich sind und wiederum Einfluss auf individuelle Frames von Nutzern nehmen könnten, sind ein interessanter Forschungsgegenstand sowohl in Bezug auf das Informationsangebot im Internet als auch hinsichtlich der Medieneffekte auf die Kommentatoren.

Ausgehend von der Definition von Robert Entman (1993) lassen sich innerhalb eines Frames vier Frame-Elemente unterscheiden: Problemdefinition, kausale Interpreta-tion, moralische Bewertung und Handlungsempfehlung. Diese sind von besonderem Interesse, da Frames sich gerade nicht auf eine thematische Einordnung beschränken lassen, sondern auch Interpretationen, Wertungen und Perspektiven enthalten (vgl. Carragee, Roefs 2004, S. 217). Die in der Framing-Literatur häufig ausgewiesenen, differenzierten thematischen Frames entsprechen dagegen eher Analysen im Rahmen des Agenda-Setting Ansatzes (vgl. Leonarz 2006, S. 111). Daher hebt Dahinden (2006) die Bedeutung der Entwicklung themenunabhängiger, empirisch gehaltvoller Frame-Indikatoren hervor, die festlegen, welche Merkmale von Medieninhalten als Frame-definierende Elemente aufzufassen sind. Die vorliegende Studie möchte dazu einen Beitrag leisten, indem sie Frame-Elemente identifiziert und Methoden zu deren Messung im Social Web entwickelt.

Kohring und Matthes (2002) ordnen den Frame-Elementen in ihrer Studie über die Biotechnologiedebatte verschiedene Variable zu. Mit einer Clusteranalyse werden dann Frames identifiziert. In der vorliegenden Studie wurde am Beispiel des Themas Reproduktionsmedizin zunächst die journalistische Berichterstattung auf den Online-portalen von fünf deutschen Printmedien ausgewertet. Anstatt wie in früheren

Page 78: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

78

Studien den Anspruch zu erheben, vollständige Frames zu erfassen, wurde eine Ana-lyse im Hinblick auf Frame-Elemente durchgeführt, die weniger Gefahr läuft, Texte überwiegend anhand thematischer Merkmale zusammenzufassen. Mithilfe einer Clusteranalyse konnten so, ausgehend von mehreren Variablen, Frame-Elemente identifiziert werden. Die Ausprägung der Variablen innerhalb der einzelnen Cluster gibt bereits einen Hinweis darauf, welche Textmerkmale für bestimmte Cluster bzw. Frame-Elemente zentral sind. Durch eine „einseitige Steigerung eines oder einiger Gesichtspunkte“ (Weber 1988, S. 191) können dann Idealtypen gebildet werden, deren wesentliche Merkmale sich schließlich auch in dem deutlich größeren Textkorpus von 1.300 Leserkommentaren kodieren lassen, um sie den bekannten Frame-Elementen aus den Artikeln zuzuordnen. Zur Kontrolle, ob die zuvor gefundenen Frame-Indikatoren zur Identifikation von Frame-Elementen wirklich geeignet sind, wurde zum Vergleich eine eigene Clusteranalyse für die Leserkom-mentare auf der Basis einer größeren Zahl von Variablen durchgeführt.

Es stellt sich heraus, dass journalistische Texte und Kommentare teilweise ähnliche Frame-Elemente enthalten. Allerdings gilt dies insbesondere für die Problemdefi-nition und die Bewertung, während sich kausale Interpretationen und Handlungs-empfehlungen kaum in den nutzergenerierten Inhalten messen lassen. Obwohl es Hinweise auf ähnliche Frames in Artikeln und Kommentaren gibt, zeigen sich auch Unterschiede bei den Zusammenhängen zwischen Frame-Elementen. Trotz erkenn-baren Mustern, die Hinweise auf dominante Frames in den journalistischen Texten geben, ist etwa eine moralische Bewertung in keinem der beiden Formate an eine bestimmte Problemdefinition gebunden.

Die Ergebnisse zeigen, dass die Instrumente der Framing-Analyse für die zukünftige Forschung im Social Web angepasst werden müssen. Insbesondere müssen Kern-bestandteile von Frames identifiziert und operationalisiert werden, da sich in Kurz-nachrichten keine vollständigen Frames messen lassen. Die vorliegende Studie zeigt, dass Frame-Elemente eine geeignete Analyseeinheit darstellen können. Gelingt zu-künftig die Übertragung bestehender theoretischer Konzepte auf die für das Internet spezifischen Medieninhalte, bieten sich neue Möglichkeiten die Entstehung und Verbreitung von Frames in der öffentlichen Wahrnehmung von Themen nachzuvoll-ziehen und zu begreifen. Das vorgestellte Untersuchungsdesign ist ein erster Schritt, um in dieser Weise Kommunikationsprozesse im Internet inhaltlich zu erfassen und nachzuverfolgen. Carragee, K.M., Roefs, W. (2004). The Neglect of Power in Recent Framing Research. Journal of

Communication, 54(2), 214–233. Dahinden, U. (2006). Framing. Eine integrative Theorie der Massenkommunikation. Konstanz: UVK. Entman, R.M. (1993). Framing: Towards Clarification of a Fractured Paradigm. Journal of Communication, 43(4), 51–58. Kohring, M., Matthes, J. (2002). The Face(t)s of Biotech in The Nineties: How The German Press Framed

Modern Biotechnology. Public Understanding of Science, 11(2), 143-154. Leonarz, M. (2006). Gentechnik im Fernsehen. Eine Framing-Analyse. Konstanz: UVK. Weber, M. (1988): Die „Objektivität“ sozialwissenschaftlicher und sozialpolitischer Erkenntnis. In:

Winckelmann, Johannes (Eds.), Gesammelte Aufsätze zur Wissenschaftslehre. Band 19 (S.22-87). Tübingen: Mohr.

Page 79: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

79

»…mir ist das Wort zu frech und zu rotzig, liebe Journalisten«. Eine Analyse der Transformation von Medienframes durch aktive Nutzer Christian Baden & Nina Springer (LMU München) Bisher fragte die wirkungszentrierte Framingforschung vor allem danach, wie die Rahmung eines Themas in den Medien die Vorstellungen, Urteile, Bewertungen, Affekte und Entscheidungen von Rezipienten beeinflusst (Scheufele, 2004: 32). Sie geht dabei vor allem von dem Zweisatz aus, dass die mediale Aktivierung eines Schemas auf der ersten Stufe bei Rezipienten auch bestimmte Bewertungen, Entscheidungen oder Affekte auf der zweiten Stufe nahe legt (Scheufele, 2004: 39). Dabei wird der soziale Kontext nicht selten ebenso ausgeblendet wie die Rezeption, Aneignung und Weiterverarbeitung der Diskurse durch die Rezipienten (Wimmer, 2007: 127) – vielmehr betonten Forscher nur selten die relative Unabhängigkeit des Publikums von präsentierten Frames (z. B. Druckman, 2001; Tourangeau & Rasinski, 1988). Baden (2010) konnte allerdings eine kreative Weiterbearbeitung seitens des Publikums dokumentieren, die die Frame-Rezeption beeinflusst. Ideale Voraus-setzungen für die integrative Erhebung von Medien- und Publikumsframes finden sich seit einigen Jahren im Internet: Durch die Kommentarfunktion eröffnen Online-Medienangebote ihren Nutzern die Möglichkeit, die Berichterstattung gemein-sam öffentlich zu bearbeiten, ihre eigenen Frames in die öffentliche Diskussion einzubringen oder die Medienframes zu verändern, z. B. Bestandteile selektiv zu betonen oder kreativ zu rekombinieren (vgl. auch Gamson, 1996). Der Kreativität der Nutzer scheint dabei auf den ersten Blick keine Grenzen gesetzt. Die Analyse der User-Kommentare in Verbindung mit der Berichterstattung ermöglicht daher eine unmittelbare Beobachtung dessen, ob die in der Berichterstattung transportierten Deutungen vom Publikum auch entsprechend übernommen, adaptiert, ergänzt oder sogar konterkariert werden.

Dazu wurde eine quantitative Inhaltsanalyse der Onlineangebote großer deutscher ‚Printmedien‘ durchgeführt: Ins Sample aufgenommen wurden der Boulevardtitel TZ, die linksliberale Süddeutsche, die eher wirtschaftsliberal-konservative Welt, die sozialliberal bildungsbürgerliche Wochenzeitung die Zeit, sowie das Onlineangebot des linksliberal ausgerichteten Spiegels. Um die Medienframes zu erheben, wurden jeweils 8-9 Artikel zu herausragenden, kontroversen Ereignissen im Rahmen der europäischen Finanzkrise im Zeitraum zwischen dem 2. Hilfspaket für Griechenland (21.02.12) und dem Bankenrettungspaket für Spanien (20.07.12) analysiert (n=42). Um die Transformationsleistung des Publikums zu erfassen, wurden zu den ausgewählten Artikeln jeweils die ersten und letzten 5 Leserkommentare selektiert und untersucht (max. 10 Kommentare pro Beitrag, n=386). Die Fokussierung auf die in der Öffentlichkeit zuweilen heiß diskutierte Finanzkrise (Europäisches Parlament, 2011) schafft hierbei Bedingungen, unter denen hinreichend Kommentaraktivität stattfindet, um auch die aktive Interpretation der Nutzer vergleichend zu erheben.

Page 80: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

80

Um zu erfassen, inwiefern die Nutzer tatsächlich abweichende Interpretationen anbieten, nutzt die vorliegende Studie eine neuartige Form der Codierung, welche gebrauchte Frames daraufhin untersucht, ob diese demselben interpretativen Repertoire zuzuordnen sind. Repertoires werden dabei verstanden als makroskopische semantische Strukturen im Diskurs (van Gorp, 2010; Wetherell & Potter, 1988), welche gemeinsame Hintergrundannahmen über das Wesen und Funktionieren der sozialen Umwelt teilen. Innerhalb desselben Repertoires sind verschiedene, miteinander kohärente Frames möglich. Erwartet wurde, dass Nutzer zwar neue Frames konstruieren, aber weitgehend im Rahmen derselben im Artikel angesprochenen Repertoires bleiben.

Unsere Ergebnisse zeigen, dass diese Erwartung zumindest zum Teil zutrifft: Ins-besondere bei Berichterstattung mit ökonomischem Fokus verbleiben Nutzerkom-mentare weitgehend im selben Deutungskontext. Andere Repertoires werden stärker elaboriert (hierunter v. a. politische bzw. moralische Perspektiven). Zugleich verschieben Nutzer den Fokus der Interpretation, indem sie Agentschaft personal-isieren, Handeln persönlich statt situational/strukturbedingt attribuieren (Iyengar, 1991), und einen deutlich allgemeineren Bezugsrahmen als die stark ereignisfokus-sierte Medienberichterstattung aufspannen. Insgesamt lässt sich allerdings beo-bachten, dass die Erklärungskraft der im Nachrichtenartikel verwandten Frames und Repertoires für die resultierenden Deutungen der Nutzer nur gering ausfällt: Kom-mentierer beziehen sich hoch selektiv auf die gelesenen Artikel, elaborieren und kommentieren gerne Details (in der überwiegenden Zahl der Fälle in Form ausdrücklicher Kritik), und zeigen einen hohen Grad an Unabhängigkeit und Kreati-vität. Die vergleichende Analyse von Presse- und Nutzertexten im Internet ermöglicht somit eine vertiefte Untersuchung der bei der Medienrezeption bedeutsamen Informationsverarbeitungsprozesse und eröffnet ein neues, noch weitgehend un-genutztes Feld für die kommunikationswissenschaftliche Rezeptionsforschung. Baden, C. (2010). Communication, contextualization, & cognition: Patterns & processes of frames’ influence

on people’s interpretations of the EU Constitution. Delft, The Netherlands: Eburon. Europäisches Parlament (2011). Europeans and the crisis. European Parliament Eurobarometer.

http://ec.europa.eu/public_opinion/topics/eb76_europeans__and__the__crisis_analytical__summary_en.pdf. Zugegriffen: 13. Sept. 2013.

Druckman, J. N. (2004). Political preference formation: Competition, deliberation, and the (ir)relevance of framing effects American Political Science Review, 98, 671-686.

Entman, R. M. (1993). Framing: Toward clarification of a fractured paradigm. Journal of Communication, 43, 51 58.

Gamson, W. A. (1996). Media discourse as a framing resource. In A. N. Crigler (Hrsg.), The psychology of political communication (S. 111-132). Ann Arbor, MI.

Iyengar, S. (1991). Is anyone responsible?: How television frames political issues. Chicago: University of Chicago Press.

Scheufele, B. (2004). Framing-Effekte auf dem Prüfstand. Eine theoretische, methodische und empirische Auseinandersetzung mit der Wirkungsperspektive des Framing-Ansatzes. Medien & Kommunikationswissenschaft, 52, 30-55.

Tourangeau, R., & Rasinski, K. A. (1988). Cognitive processes underlying context effects in attitude measurement. Psychological Bulletin, 103, 299-314.

Page 81: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

81

van Gorp, B. (2010). Strategies to take subjectivity out of framing analysis. In P. D’Angelo & J. A. Kuypers (Hrsg.), Doing news framing analysis: Empirical and theoretical perspectives (S. 84-109). NY: Routledge.

Wetherell, M., & Potter, J. (1988). Discourse Analysis and the identification of interpretative repertoires. In C. Antaki (Hrsg.), Analysing everyday explanation: A casebook of methods (S. 168-183). London: Sage.

Wimmer, J. (2007). (Gegen-)Öffentlichkeit in der Mediengesellschaft. Wiesbaden: VS.

Social Media Analysen im Lichte ethischer Herausforderungen – Praxisbeispiele aus dem EU-Projekt „UniteEurope“ Verena Grubmüller (INSET Wien) Die Analyse menschlichen Verhaltens in sozialen Online-Medien birgt Potenzial, das sozialwissenschaftliche Methodenrepertoire zu erweitern – Aspekte wie Nicht-Reaktivität und die automatische Aktualisierung von Echtzeitinformationen spielen hier eine wichtige Rolle (vgl. Grubmüller, i.E.). Automatisierte „Social Media Analytics Tools“ (SMAT), die Inhalte in sozialen Medien themenspezifisch sammeln, filtern und auswerten, scheinen der Social Media Analyse (SMA) zusehends den Weg als ernstzunehmende sozialwissenschaftliche Methode zu ebnen, wenngleich mit Einbußen wie etwa der Ignoranz demografischer Variablen oder der gemeinhin bekannten Schwächen automatisierter Kategorisierungen zu rechnen ist (vgl. z.B. Sebastiani 2002).

Die Vor- und Nachteile von SMA gegenüber anderen empirischen (Befragungs-) Methoden müssen jedoch auch im Lichte (forschungs-)ethischer Aspekte betrachtet werden. Als Grundlage dafür dienen dieser Präsentation erste Ergebnisse aus dem EU-FP7-Forschungsprojekt „UniteEurope“ (www.uniteeurope.org), im Zuge dessen ein SMAT zur Untersuchung der städtischen Integration von MigrantInnen entwickelt wird. Als künftige NutzerInnen gelten (Integrations-)ForscherInnen, Fachabteilungen von Stadtverwaltungen sowie lokale und internationale NGOs. Zielgruppenstudien zeigen, dass ethische Aspekte in diesem NutzerInnenkreis ein besonders großes Anliegen sind – nicht zuletzt aufgrund der Sensibilität des Integrationsthemas, die UniteEurope maßgeblich von kommerziellen SMAT unterscheiden (vgl. Wetzstein, Leitner 2012).

Aus diesem NutzerInnenumfeld werden v.a. drei ethische Problemkomplexe deutlich, die Implikationen auf Tool-Funktionen sowie auf deren zugrundeliegende Methodologie mit sich bringen (vgl. Grubmüller, Krieger, Götsch 2013):

Datenschutz/Privatsphäre: Dieser Bereich umfasst sowohl rechtliche als auch ethische Fragestellungen, wobei SMA sich weitgehend in einer rechtlichen „Grauzone“ bewegen. Zudem liegt in der Regel keine informierte Zustimmung

Page 82: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

82

(„informed consent“) der Social Media-NutzerInnen vor. Dies haben SMA zwar mit anderen sozialwissenschaftlichen Methoden gemein, man denke etwa an die verdeckte Beobachtung oder an Feldexperimente; allerdings eröffnet die digitale Natur der „Beobachtung“ sozialen Verhaltens in Online-Medien eine ganz andere Möglichkeit, Zugang zu personenbezogenen Daten zu erhalten. Entsprechende Bedeutung ist dem Schutz der Privatsphäre der Untersuchungsobjekte einzuräumen, was sämtliche Analyseschritte (so auch Versuche, demografische Variablen über die VerafasserInnen zu erfassen (siehe dazu femsma.ofai.at)), lediglich anhand des geposteten Texts erlaubt und zudem die Verdeckung von Namen oder Akronymen erfordert.

Quellenselektion: Die Social Media-Quellen, in denen das SMAT nach themenrelevanten Inhalten sucht, gelten als dessen Fundament: Sie bestimmen, ob und welche Ergebnisse durch das SMAT erzielt werden und ob man sich einer Repräsentativität annähert (zumal eine solche nach derzeitigem Stand nicht erreichbar ist). Dabei ist zu hinterfragen, nach welchen Kriterien die Quellen selektiert werden. Ein häufigkeitsbasierter Ansatz, wie er für kommerzielle Tools verfolgt wird, erweist sich im Projekt UniteEurope nicht als zielführend, da auch Minderheitensichtweisen zum Thema Integration von MigrantInnen ein adäquates Gewicht zu geben ist. Dazu gehören nicht nur die Ansichten von MigrantInnen selbst, denen etwa durch die zielgerichtete Selektion von migrantischen Online-Medien Rechnung getragen wird, sondern auch moderate Perspektiven zum Thema Integration, die einschlägigen Recherchen zufolge in sozialen Medien unter-durchschnittlich stark zum Ausdruck gebracht werden (vgl. Krieger, Grubmüller 2012).

Darstellung der Ergebnisse: Auf ähnliche Weise kann aus ethischer Sicht gegen eine rein quantitative (häufigkeitsbasierte) Darstellung, wie sie in kommerziell genutzten SMAT üblich ist, argumentiert werden, zumal von einzelnen Quellen/NutzerInnen überproportional viele Einträge generiert werden können. Auch von Sentiment-Analysen, die im kommerziellen Bereich Standard sind, wird in UniteEurope abgesehen, was insbesondere an den Grenzen der automatisierten Spracherkennung liegt (z.B. Ironie), denen im sensiblen Integrationsthema mit größter Vorsicht zu begegnen ist. Insgesamt wird es v.a. darum gehen, die Ergebnisse mit zusätzlichen, qualitativen (Kontext-)Informationen anzureichern (etwa die Anzahl und Art der involvierten Quellen, Auszüge aus dem Posting oder ein Link zum Originalbeitrag), die den SMAT-NutzerInnen eine realistische Interpretation ermöglichen.

Im Rahmen der Präsentation soll erörtert werden, in welchem Maße diese aus dem Projekt gewonnenen Erkenntnisse auf die sozialwissenschaftliche SMAT-Nutzung im Allgemeinen anwendbar sind, und in wie fern sie das Potenzial von SMA als Forschungsmethodik beeinflussen, zumal sie doch technologische und methodo-logische Zugeständnisse verlangen. Grubmüller, V. (i.E.): Zielgruppen und Anwendungsgebiete von SMA in der sozialwissenschaftlichen Forschung,

Deliverable an das BMVIT im Rahmen des FEMtech-Projekts „FemSMA – Automatisierte, gendersensible Verfahren zum Ausbau von Social Media Analysen als EDV-gestützte Forschungsmethodik“

Page 83: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

83

Grubmüller, V., Krieger, B., Götsch, K. (2013): Social Media Analytics for government in the light of legal and ethical challenges, in: Edelmann, N., Parycek, P. (Eds.): CeDEM13. Conference for E-Democracy and Open Government (S. 199 – 212). Krems: Edition Donau-Universität Krems.

Krieger, B, Grubmüller, V. (2012): Legal, cultural and ethical aspects report. Deliverable an die Europäische Kommission im Rahmen des FP7-ICT-Projekts „UniteEurope“, in: www.uniteeurope.org/Deliverables (dl 03.09.2013)

Sebastiani, F. (2002): Machine learning in automated text categorization, in: ACM Computing Surveys 34/1, SS. 1-47

Wetzstein, I., Leitner, P. (2012): Best practices report. Deliverable an die Europäische Kommission im Rahmen des FP7-ICT-Projekts „UniteEurope“. Juli 2012 (unveröffentlicht).

Page 84: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

84

PANEL 5A | SA 12:00 - 13:30 | Chair: Jürgen Grimm | Ort: IPK Hörsaal 3 (3. Stock)

Nutzung & Nutzungsmessung

Identifikation und Messung algorithmischer Personalisierungseffekte am Beispiel von Google-Trefferlisten Pascal Jürgens, Birgit Stark & Melanie Magin (Uni Mainz) Suchmaschinen sind die wichtigsten Navigationshilfen im Internet, die als Gatekeeper Webseiten selektieren und bewerten (Pan et al. 2007; Wirth/Böcking/ Karnowski/Pape 2007). Durch die Einführung von Personalisierungstechnologien (Google 2012) hat sich ihr oberflächlich identisches Angebot in jüngster Zeit ge-wandelt: Die vormals einheitlichen Trefferlisten werden nun, basierend auf Algorithmen und von den meisten Nutzern unbemerkt, für jeden User auf Basis vorangegangener Suchvorgänge und gespeicherter Nutzerpräferenzen individuell angepasst. Mittlerweile in vielen Bereichen üblich (z.B. Online-Marketing, soziale Netzwerkplattformen), sind solche Prozesse bei Suchmaschinen gesellschaftlich und medienpolitisch besonders relevant, weil Suchmaschinen den Nutzern das Auffinden von und den Zugang zu Online-Informationen und damit die Nutzung des Internets erst ermöglichen. Die Personalisierung von Trefferlisten birgt somit zwei Wirkungs-potenziale, die kritisch zu hinterfragen sind: (a) Durch die kontinuierliche Anpassung der Suchergebnisse an Nutzerpräferenzen besteht auf der Mikroebene die Gefahr einer zunehmenden Verengung der wahrgenommenen Perspektiven (vgl. Konzept der „Filter Bubble”, Pariser 2011). (b) Als Folge der Divergenz von Suchergebnissen zwischen einzelnen Nutzern können auf der Makroebene bei gesellschaftlich relevanten Themen unterschiedliche Informationsniveaus entstehen (vgl. Fragmen-tierungshypothese /Integrationsfunktion der Medien, z.B. Vlašić 2004).

Neben diesen medienpolitisch relevanten Folgen stellen Personalisierungsprozesse auch eine methodische Herausforderung dar: Um ihnen Rechnung zu tragen, müssen sie in Analysen von Inhalten computervermittelter Kommunikation sowie deren Rezeption und Wirkung künftig zumindest identifiziert und beschrieben, besser aber noch in die Erhebungsmethoden einbezogen werden, um die gewonnenen Daten als Indikatoren für breitere gesellschaftliche Entwicklungen verwenden zu können. Dadurch steigen Komplexität und Aufwand solcher Studien erheblich. Erschwerend kommt hinzu, dass die genaue Funktionsweise der zugrunde liegenden Algorithmen

Page 85: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

85

von den Anbietern geheim gehalten wird und somit bislang eine „black box“ darstellt. Um hier Abhilfe zu schaffen, präsentiert der vorliegende Beitrag am Beispiel von Trefferlisten der weltweit marktführenden Suchmaschine Google ein universell einsetzbares methodisches Instrument, mit dem sich Personalisierungsprozesse identifizieren, messen und transparent machen lassen.

Personalisierte Inhalte sind eine Folge wiederkehrender individueller Nutzung. Das den Algorithmen als Input dienende Nutzerverhalten kann aber (u.a. aus Gründen des Datenschutzes) in den wenigsten Fällen zwecks Kontrolle erhoben werden. Für die Untersuchung der Algorithmen wurde daher ein mehrstufiges, automatisiertes, longitudinales, quasi-experimentelles Design entwickelt: Statt menschlichen Nutzern interagiert ein Programm automatisch nach einer ex ante festgelegten Systematik mit einem Online-Angebot (hier: Google) und protokolliert dessen Output.

Schritt 1: Eigens angelegte Nutzerprofile werden unter Kontrolle von Drittvariablen (z.B. IP-Adresse, Betriebssystem, Browser) mittels regelmäßiger Suchanfragen „trainiert”. Im Verlauf des Experiments stimulieren die Anfragen die Bildung ein-deutiger Interessensprofile.

Schritt 2: Inwiefern sich diese auf künftige Trefferlisten auswirken, wird überprüft, indem für alle Nutzerprofile regelmäßig identische „Benchmark-Begriffe“ eingegeben und die daraus resultierenden Trefferlisten protokolliert werden.

Schritt 3: Im Zeitverlauf lassen sich Personalisierungseffekte an der Divergenz der Trefferlisten zwischen den Nutzerprofilen ablesen, die quantitativ über Rangkorrela-tionen bzw. Inner-Listen-Distanzen (Zhou et al. 2010) abgebildet werden können.

In einer Vorstudie wurden acht prototypische Nutzerprofile (z.B. „50-jähriger, hoch gebildeter Betriebswirt und Hobby-Ruderer“) erstellt. Jedes Profil durchlief eine einmonatige „Trainingsphase“, während der alle zehn Minuten eine eigene, zum Profil passende Suchanfrage gestartet wurde. Daneben erhob das Programm einmal täglich die Trefferlisten für sechs „Benchmark-Begriffe“ zu Themen aus Politik und Alltag. Die Auswertung der Ergebnisse zeigt, dass die Trefferlisten zwar deutlichen Schwankungen unterlagen, die aber über alle Profile hinweg und auch bei Suchen ohne eines der Profile auftraten.

Für die Hauptstudie fand daher spezielles Stimulusmaterial Verwendung, das direkt themenbezogene Interessensprofile erzeugen sollte. Insgesamt fünf Homonyme (Wörter mit unterschiedlichen Bedeutungen) dienten als Benchmark, wobei Wikipedia-Artikel zu den jeweiligen Bedeutungen die Listen der Suchbegriffe lieferten. Erneut erfolgte ein einmonatiges Training, in dem jedes Nutzerprofil minütlich Suchanfragen zu einer Bedeutung abschickte. Parallel wurden die Treffer-listen für die Suche nach dem zentralen Homonym gespeichert. In dieser Versuchs-anlage traten bereits nach wenigen Tagen Personalisierungseffekte auf, was auf eine stark themenspezifische Wirkung schließen lässt.

Diese Befunde verdeutlichen die Dringlichkeit methodischer Designs, welche der zunehmenden Verbreitung individuell angepasster Online-Angebote und den ihnen

Page 86: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

86

immanenten Funktionsprinzipien Rechnung tragen. Der hier vorgestellte Ansatz ist ein erster Schritt in diese Richtung. Google Inc. (2013). Basics: Google Web History.

http://support.google.com/accounts/bin/answer.py?hl=en&answer=54068. Pan, B., Hembrooke, H., Joachims, T., Lorigo, L., Gay, G., & Granka, L. (2007). In Google We Trust: Users’

Decisions on Rank, Position, and Relevance. Journal of Computer-Mediated Communication, 12(3), 801–823. doi:10.1111/j.1083-6101.2007.00351.x.

Pariser, E. (2011). The Filter Bubble. Penguin. Vlašić, A. (2004). Die Integrationsfunktion der Massenmedien. VS Verlag für Sozialwissenschaften. Wirth, W., Böcking, T., Karnowski, V., & Pape, von, T. (2007). Heuristic and Systematic Use of Search Engines.

Journal of Computer-Mediated Communication, 12(3), 778–800. doi:10.1111/j.1083-6101.2007.00350.x. Zhou, T., Kuscsik, Z., Liu, J. G., Medo, M., Wakeling, J. R., & Zhang, Y. C. (2010). Solving the apparent diversity-

accuracy dilemma of recommender systems. Proceedings of the National Academy of Sciences, 107(10), 4511–4515. doi:10.1073/pnas.1000488107.

Online-Tracking und Experience Sampling Method als Mittel zur Erforschung des Privacy-Paradox Julia Niemann (Uni Hohenheim) Das Privacy Paradox beschreibt den fehlenden Zusammenhang zwischen Einstellung zur eigenen Privatsphäre und dem tatsächlichen Offenbarungsverhalten im Social Web. Nutzer berichten einerseits in hohem Maße besorgt zu sein, dennoch teilen sie viele Informationen über sich selbst im Internet mit. Dieses zunächst unplausibel erschein-ende Phänomen wurde bereits mehrfach empirisch nachgewiesen (Aquisti & Gross, 2006; Tufekci, 2008; Taddicken, 2011; Utz & Krämer, 2009). Das Einstellungen und Ver-halten nicht zwangsläufig miteinander zusammenhängen, ist zwar keine neue Erkenntnis (Fishbein & Ajzen, 2010), aber aus sozial-wissenschaftlicher Perspektive unbefriedigend.

Eine mögliche Erklärung für das Privacy-Paradox ist, dass neben den Risiken, die das Veröffentlichen von Inhalten mit sich bringt, auch Nutzenaspekte eine Rolle spielen (vgl. Taddicken & Jers, 2011). Gerade weil einzelne Entscheidungen, z. B. der Upload eines einzelnen Urlaubsfotos, nicht besonders weitreichend und damit ungefährlich erscheinen, sind im Moment der Veröffentlichung vermutlich eher die Vorteile dieses Verhaltens salient.

Das Privacy-Paradox wird üblicherweise mittels Ex-post-Befragungen erforscht, bisweilen werden Inhaltsanalysen des online gestellten Contents herangezogen (z. B. Aquisti & Gross, 2006), die Einstellungskomponente wird zwangsläufig immer erfragt. Zur Erfassung von Einstellungen und Handlungsweisen in der Mediennut-

Page 87: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

87

zungsforschung eignet sich die Methode der Ex-Post-Befragung jedoch nur einge-schränkt, denn sie ist sowohl zeitlich als auch situativ von der Nutzungssituation ent-koppelt (Scherer & Schlütz, 2002). Es sind große kognitive Anstrengungen auf Seiten der Befragten notwendig und Erinnerungsfehler können die Validität der Ergebnisse trüben. Dies gilt insbesondere, wenn es um ein Verhalten geht, das habitualisiert abläuft und dem der Befragte nur wenig Bedeutung beimisst. Soziale Erwünschtheit und nachträgliches Rationalisieren des eigenen Handelns können Befragungsdaten zusätzlich verzerren - gerade bei sensiblen Themen wie dem Datenschutz. Es ist daher verständlich, dass die Befragten in Erhebungen zum Privacy-Paradox meist angeben, ein hohes Interesse am Schutz der eigenen Privatsphäre und ein starkes Bewusstsein für die Risiken zu haben. Dies gilt erst recht, wenn man bedenkt, dass die Umfrage die kognitive Reflektion des Gegenstands fördert (Schnell, 2012). Ein weiterer Kritikpunkt an der früheren Forschung zum Privacy-Paradox ist, dass die Abfrage der Risiken und Sorgen zumeist sehr allgemein erfolgt. Der konkrete Bezug zum eigenen Verhalten fehlt, zudem werden Nutzenaspekte vernachlässigt.

In der hier vorgestellten Studie wurde daher ein etwas anderes Vorgehen gewählt. Mit Hilfe einer Online-Tracking-Studie, wurde das Surfverhalten von 171 jungen Nutzern von Social Networking Site (SNS) über einen Zeitraum von drei Wochen aufgezeichnet. Die Teilnehmer installierten dazu ein Browser-Plugin auf ihrem persönlichen Computer. Dieses Plugin leitete den gesamten Traffic über einen Remote-Server um. Registriert wurden dabei nicht nur die auf Facebook und den VZ-Netzwerken aufgerufenen URLs und die Dauer der Besuche, sondern auch die Häufigkeit von für die Privatsphäre sensitiven Aktionen, beispielsweise das Posten von Statusmeldungen und Pinnwandeinträgen.

Durch den Einsatz des Remote-Servers war es möglich, das Nutzungsverhalten nicht nur zu registrieren, sondern den Teilnehmern zusätzlich während der Nutzung kleine Befra-gungen einzublenden. Diese wurden getriggert, sobald die User eine von acht vorher defi-nierten Aktionen ausführten. In den „Kontextbefragungen“ wurden sowohl Nutzen- als auch Risikenaspekte direkt in der Nutzungssituation abgefragt. Die Befragung erfolgte nicht jedes Mal nach einer Aktion, sondern wurde über einen Zufallsmechanismus gesteuert.

Dieses Vorgehen entspricht der Experience-Sampling-Method (Hektner, Schmidt & Csikszentmihalyi, 2007), bei der bei den Teilnehmern Selbstbeobachtungen initiiert werden. Bereits frühere kommunikationswissenschaftliche Studien konnten so interessante Einblicke in das Mediennutzungsverhalten liefern (z. B. Karnowski & Doedens, 2010; Scherer & Schlütz, 2002).

Im hier vorgeschlagenen Vortrag wird die gewählte Methode und das Vorgehen vorgestellt, Vorzüge und Nachteile werden erläutert. Zudem werden die Ergebnisse des Trackings mit denen einer herkömmlichen Ex-ante-Befragung, die mit dem gleichen Sample durchgeführt wurde, verglichen. In den Daten der Vorabbefragung zeigt sich ein deutliches Ungleichgewicht zwischen Einstellung und Verhalten. Die Ergebnisse des Trackings mit der Experience-Sampling-Method geben Hinweise darauf, dass gerade in der konkreten Nutzungssituation tatsächlich Nutzenaspekte

Page 88: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

88

überwiegen. Dies bietet einen interessanten Erklärungsansatz für das Privacy-Paradox.

Acquisti, A., & Gross, R. (2006, 28.–30. Juni). Imagined Communities: Awareness, Information Sharing, and

Privacy on the Facebook. Privacy Enhancing Technologies Workshop (PET), Cambridge. Fishbein, M. & Ajzen, I. (2010). Predicting and changing behavior. The reasoned action approach. New York:

Psychology Press. Hektner, J. M., Schmidt, J. A. & Csikszentmihalyi, M. (2007). Experience sampling method: Measuring the

quality of everyday life. Thousand Oaks, Calif: Sage Publications. Karnowski, V. & Doedens, S. (2010). Mobile Experience Sampling: Eine Methode zur Untersuchung mobilen

Mediennutzungsverhaltens. In N. Jackob, T. Zerback, O. Jandura & M. Maurer (Hrsg.), Das Internet als Forschungsinstrument und -gegenstand in der Kommunikationswissenschaft (S. 211–226). Köln: von Halem.

Scherer, H. & Schlütz, D. (2002). Gratifikation à la minute: Die zeitnahe Erfassung von Gratifikationen. In: Patrick Rössler, S. Kubisch und Volker Gehrau (Hg.): Empirische Perspektiven der Rezeptionsforschung. München: Reinhard Fischer, S. 133–151.

Schnell, R. (2012). Survey-Interviews: Methoden standardisierter Befragungen. Lehrbuch. Wiesbaden: VS. Taddicken, M. (2011). Selbstoffenbarung im Social Web. In: Publizistik 56(3), p. 281–303. Taddicken, M. & Jers, C. (2011). The Uses of Privacy Online: Trading a Loss of Privacy for Social Web

Gratifications? In: Sabine Trepte und Leonard Reinecke (Hg.): Privacy Online. Perspectives on Privacy and Self-disclosure in the Social Web (S. 143–156). Berlin & Heidelberg: Springer.

Utz, S., & Krämer, N. C. (2009). The Privacy Paradox on Social Network Sites Revised: The Role of Individual Characteristics and Group Norms. CyberPsychology: Journal of Psychological Research on Cyberspace, 3(2), Artikel 2

Page 89: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

89

Logfile-Analyse als Instrument der Online-Nutzungsmessung Martin Emmer & Christian Strippel (FU Berlin) Im Zuge der Digitalisierung haben sich in den vergangenen zwei Jahrzehnten zahlreiche neue Kommunikationsformen im Internet herausgebildet, deren Vielfalt mit klassischen Befragungsmethoden nur noch unbefriedigend abbildbar ist. Neben dem generellen Problem der Reaktivität von Befragungen stoßen sie vor allem wegen der Schwierigkeit, die zahlreichen Modi der Online-Nutzung im Rahmen vielfältiger hybrider Anwendungen detailliert zu erfragen, schnell an Grenzen. Klassische Beobachtungsverfahren wie zum Beispiel von den Probanden geführte Tagebücher oder die Protokollierung der Nutzung durch anwesende Wissenschaftler können ergänzend hinzugezogen werden, sind jedoch mit ähnlichen Problemen behaftet.

Mit der Logfile-Analyse steht hingegen ein automatisiertes Beobachtungsverfahren zur Verfügung, mit dem sich die Internetnutzung präzise und nur bedingt reaktiv messen lässt. Ausgewertet werden dabei automatisch angelegte Protokolltextdateien, die Anfragen, Posts und Abrufe von Inhalten im Internet in Kennwerten wie IP-Adresse, Datum und Uhrzeit, angefragte URL etc. festhalten. Unterschieden werden können sie anhand des Ortes, an dem sie gespeichert werden: So legen Web- und Application-Server Listen über alle Anfragen an, die sie erreichen; beim Nutzer wird das Surfverhalten lokal auf dem Rechner gespeichert (bspw. über die Verlaufs-Funktion des Webbrowsers); und auch ein ggf. zwischengeschalteter Proxy-Server legt Logfiles für den über ihn geleiteten Datenverkehr an.

Grundsätzlich eignen sich alle diese Dateitypen für sozialwissenschaftliche Untersuchungen, weshalb die Logfile-Analyse seit den 1990er Jahren auch einen festen Platz in den Hand- und Methodenbüchern der Online-Forschung hat (z.B. Fraas et al. 2012, S. 184-187; Welker und Wünsch 2010, S. 500-502). Gleichwohl kommt sie empirisch eher selten zur Anwendung (Welker und Matzat 2008, S. 37-42). Im Vortrag wird aufgezeigt, wie solche Logfiles sinnvoll in der empirischen Kommunikations- bzw. Mediennutzungsforschung eingesetzt werden können. Hierzu wird ein Überblick über die zur Verfügung stehenden Zugänge gegeben und anschließend die Anforderungen an die Aufzeichnung und Analyse der Daten diskutiert.

Die prominenteste Variante ist dabei die serverseitige Logfile-Analyse, die in der angewandten Forschung zur Reichweitenmessung und Media Planung eingesetzt wird, für die es aber auch Beispiele in der wissenschaftlichen Forschung gibt (z.B. Hastall und Knobloch-Westerwick 2012; Höchstötter 2007). Die Erhebung individueller Online-Nutzungsdaten ist damit allerdings nicht möglich, denn die dort anfallenden Nutzungsdaten können nicht konkreten Personen zugeordnet werden (Fisch 2004, S. 20-36). Zur Erfassung individueller Online-Nutzung ist deshalb nur die clientseitige Logfile-Analyse geeignet. Sie wird in der Regel mit Hilfe einer auf den Rechnern der Probanden installierten Software umgesetzt (Welker et al. 2005, S. 197-203). Der Nachteil dieses Vorgehens ist, dass die Programmierung und die Installation einer geeigneten Software auf den Rechnern der Probanden umständlich und

Page 90: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

90

zeitaufwändig ist, was die Teilnahmebereitschaft beeinträchtigen und die Reaktivität der Messung wieder erhöhen könnte.

Im Vortrag wird deshalb ein Untersuchungsmodell vorgeschlagen, das mit Hilfe eines Proxy-Servers arbeitet: Hier wird der Internetverkehr umgeleitet und dann zentral und für den Nutzer unauffällig mitprotokolliert (Janetzko 1999, S. 170-171). Dazu muss lediglich die Software des Servers entsprechend programmiert werden, bei den Nutzern selbst reicht eine einmalige Änderung der Netzwerkumgebung. Ein Beispiel für die Auswertung von Proxy-Logfiles liefert bisher nur Berker (1999), allerdings wurden dort lediglich aggregierte Daten ausgewertet, einzelne Nutzer wurden nicht identifiziert. Die zu diskutierenden Herausforderungen der Analyse von Proxy-Logfiles sind unter anderem die Akquise von Probanden, die Kontrolle der Reaktivität, die Operationalisierung der Internetnutzung durch technische Indikatoren sowie die Einhaltung von datenschutzrechtlichen Vorgaben. Berker, T. (1999). WWW-Nutzung an einer deutschen Hochschule: Computer, Sex und eingeführte Namen.

Ergebnisse einer Protokolldateianalyse. In: B. Batinic, A. Werner, L. Gräf, & W. Bandilla (Hrsg.), Online Research. Methoden, Anwendungen und Ergebnisse, (S. 227–243). Göttingen: Hogrefe.

Fisch, M. (2004). Nutzungsmessung im Internet. Erhebung von Akzeptanzdaten deutscher Online-Angebote in der Marktforschung. München: Reinhard Fischer.

Fraas, C., Meier, S., & Pentzold, C. (2012). Online-Kommunikation. Grundlagen, Praxisfelder und Methoden. München: Oldenbourg.

Hastall, M. R., & Knobloch-Westerwick, S. (2012). Verknüpfung von Verhaltensdaten und Befragungsdaten in experimentellen Selektionsstudien. In: W. Loosen, & A. Scholl (Hrsg.), Methodenkombinationen in der Kommunikationswissenschaft. Methodologische Herausforderungen und empirische Praxis (S. 229–245). Köln: Herbert von Halem.

Höchstötter, N. (2007). Suchverhalten im Web – Erhebung, Analyse und Möglichkeiten. Information Wissenschaft und Praxis, 58(3), 135–140.

Janetzko, D. (1999). Statistische Anwendungen im Internet. Daten in Netzumgebungen erheben, auswerten und präsentieren. München: Addison Wesley Longman.

Welker, M., & Matzat, U. (2008). Online-Forschung: Gegenstände, Entwicklung, Institutionalisierung und Ausdifferenzierung eines neuen Forschungszweiges. In: N. Jackob, H. Schoen, & T. Zerback (Hrsg.), Sozialforschung im Internet. Methodologie und Praxis der Online-Befragung (S. 33–48). Wiesbaden: VS Verlag.

Welker, M., & Wünsch, C. (2010). Methoden der Online-Forschung. In: W. Schweiger, & K. Beck (Hrsg.), Handbuch Online-Kommunikation (S. 487–517). Wiesbaden: VS Verlag.

Welker, M., Werner, A., & Scholz, J. (2005). Online-Research. Markt- und Sozialforschung mit dem Internet. Heidelberg: Dpunkt.

 

Page 91: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

91

PANEL 5B | SA 12:00 - 13:30 |Chair: Stephan Schlögl | Ort: IPK Seminarraum 2 (UG)

Web Monitoring

Facepager. Ein Programm zur automatisierten Datenerhebung im Netz. Jakob Jünger (Uni Greifswald) & Till Keyling (LMU München)

Ziel des Vortrags Facebook, Twitter oder Youtube – für eine Vielzahl von Studien zu Social Media werden mittlerweile Daten über sogenannte APIs (Application Programming Interface) erhoben. Diese erlauben – im Gegensatz zu der Technik des Web-Scraping – einen standardisierten Zugang zu den vorstrukturierten Daten dieser Angebote, der gerade bei dynamisch generierten Inhalten (z. B. Web-Technologien wie AJAX) notwendig ist, weil hier Link-Crawler oder einfache Screenshots der Seiten an ihre Grenzen stoßen. Die Datenerhebung über APIs setzt jedoch eigene Programmier-kenntnisse oder eine Kooperation mit Informatikern voraus. Wir haben ein Programm mit grafischer Oberfläche entwickelt, das auch von technischen Laien für eine große Anzahl von APIs verwendet werden kann.

Im Vortrag wollen wir das Programm der Fachöffentlichkeit vorstellen. Dazu werden die Funktionen des Programms kurz besprochen, kommunikationswissenschaftlich einschlägige APIs thematisiert und die grundlegende Vorgehensweise der Datenerhebung wird exemplarisch skizziert. In diesem Zusammenhang soll außer-dem auf Limitationen automatisierter Datenerhebung hingewiesen werden. Wir möchten zudem zur gemeinsamen Weiterentwicklung des Programms einladen und Anregungen der Fachgemeinschaft für mögliche Weiterentwicklungen auf der Tagung diskutieren.

Möglichkeiten automatisierter Datenerhebung Die Erfassung von Daten aus Angeboten im World Wide Web steht den klassischen kommunikationswissenschaftlichen Methoden Inhaltsanalyse und Beobachtung nahe. So können etwa Texte über die APIs publizistischer Medien oder auf Facebook produzierte Postings als Kommunikate erhoben werden, gleichzeitig aber auch strukturelle Daten zur Interaktion zwischen Gruppenmitgliedern oder zu Reaktionen auf Kommentare (z. B. die Anzahl der Likes) betrachtet werden. In unserer Anwendung werden zunächst beliebig viele Startpunkte für die Abfrage einer Schnittstelle vorgegeben. Diese „source seeds“ der Beobachtung repräsentieren Akteure bzw. Objekte (Facebook-Seiten, Facebook-Gruppen etc.), kommunikative

Page 92: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

92

Inhalte (Schlagworte, Hashtags auf Twitter etc.) oder Metadaten zu Objekten (etwa die Anzahl der Weiterleitungen eines Videos). Für jeden dieser Startpunkte können dann die von der Plattform zur Verfügung gestellten Informationen abgefragt, in einer Datenbank abgespeichert und in der Oberfläche des Programms tabellarisch dargestellt werden. Die so erfassten Objekte können den Ausgangspunkt weiterer Erhebungen bilden. So könnten Profildaten zu den Facebook-Seiten von Organisationen, dann die dort geposteten Beiträge und schließlich dazugehörige Kommentare abgespeichert werden. Diese hierarchische Vorgehensweise erlaubt es, das Programm auch als Crawler von Netzwerkstrukturen einzusetzen. Die so erhobenen Daten sind als CSV-Datei exportierbar und damit einer direkten statistischen Auswertung oder weiterführenden Inhaltsanalysen zugänglich.

Fallstricke & Grenzen automatisierter Datenerhebung In einem Beispielprojekt zur Erkundung der Möglichkeiten automatisierter Datener-hebung haben wir den Zusammenhang zwischen Organisationsaktivität und Nutzeraktivität auf Facebook untersucht. Dazu wurden Daten von über 3500 poli-tischen Interessengruppen abgefragt. In diesem Zusammenhang zeigen sich ver-schiedene Grenzen automatisierter Datenerhebung. Während technische Herausford-erungen in Form von Zugriffsbegrenzungen, Downloadgeschwindigkeit und Zugriffs-fehlern angesichts der sonst in der Organisationsforschung verwendeten geringen Fallzahlen verschmerzbar sind, kommen auch Messprobleme zum Vorschein. Beispielsweise können die Autoren von Postings nicht immer zweifelsfrei zugeordnet werden und das automatisierte Einspielen von Nachrichten durch Organisationen stellt die Validität der Aktivitätsmessung in Frage. Insofern geht die durch Automa-tisierung erreichbare Erhöhung von Fallzahlen mitunter zu Lasten der Qualität. Weitere Fallstricke und „blinde Flecken“ der Datenerhebung über Programmier-schnittstellen sollen auf der Tagung vorgestellt werden.

Nutzen und Möglichkeiten automatisierter Social Media Monitoring Tools für die Kommunikationsforschung zur Erfassung und Analyse User-generierter Inhalte Irmgard Wetzstein (Uni Wien) Durch das Anwachsen und den Relevanzgewinn User-generierter Inhalte und entsprechender digitaler Kommunikation in sozialen Medien, wie etwa in Social Networks (z. B. Facebook), Micro-Blogs (z. B. Twitter), Blogs oder Foren (z. B. im Rahmen von Online-Auftritten von Printmedien), haben in den vergangenen Jahren

Page 93: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

93

vor allem UnternehmerInnen und Marketingverantwortliche ein starkes Interesse dafür entwickelt, für sie wesentliche von Social Media-NutzerInnen in einem „natürlichen Setting“ kommunizierte Informationen aus vorerst unstrukturierten und unüberblickbaren „Datenmengen“ zu extrahieren. Zu diesem Zweck und um (zeit)effizient einen Überblick über solche so genannte „Big Data“ (vgl. boyd und Crawford 2012) zu erhalten, wurden Social Media Monitoring Tools bzw. Social Media Analytics Tools1 entwickelt, die aufgrund vordefinierter Algorithmen und Social Media-Quellen jeweilige relevante Inhalte filtern, strukturieren und aggregiert darstellen bzw. visualisieren. Das Angebot bzw. der Markt für automatische Social Media-Analysen ist vielfältig, fokussiert jedoch hauptsächlich unternehmerische Aspekte, wie die Optimierung von Marketingstrategien, Marktforschungsaktivitäten und Brand Management (vgl. Kasper und Kett 2011).

Thema und Ziel Während automatische Social Media Analysen in „Business“-Kontexten bereits eingesetzt werden und etabliert sind, stellt sich die Frage, inwieweit der Einsatz entsprechender Tools auch im Kontext der Kommunikationsforschung, in deren Rahmen Forschungsinteressen im Zusammenhang mit der Analyse von Social Media-Inhalten einen hohen Stellenwert einnehmen, möglich, nützlich und sinnvoll ist. Ziel der Präsentation ist daher eine umfassende Ergründung bzw. Auslotung sowohl von Potenzialen als auch von Grenzen von Social Media Analytics bzw. Monitoring Tools für kommunikationswissenschaftliche Fragestellungen im Kontext von User-generiertem Content. Dabei wird sowohl Tool-orientiert auf Funktionalitäten, Social Media-Quellenabdeckung, Filter- und Sprachoptionen sowie Visualisierungsstrategien, als auch hinsichtlich einer methodisch-kritischen Auseinandersetzung auf methodische und ethische Aspekte wie Repräsentativität, Einverständnis („informed consent“) sowie Privatsphäre und Datenschutz eingegangen.

Ansätze und Vorüberlegungen Hinsichtlich der Auseinandersetzung mit dem kommunikations- bzw. sozialwissenschaftlichen Methodenrepertoire wurde der Aspekt der Automatisierung bereits aufgegriffen, etwa im Rahmen der Thematisierung der Automatisierung von Inhaltsanalysen durch maschinelles Lernen. Automatische Inhaltsanalysen zur Bearbeitung quantitativer inhaltsanalytischer Forschungsinteressen scheinen nicht nur aus Gründen der Zeiteffizienz eine Überlegung wert, sondern auch forschungs-ökonomisch für die Berücksichtigung größerer Datenmengen vorteilhaft zu sein. Zu bedenken ist aber auch, dass sich „einfache“ manuell zuverlässig codierbare Variablen auf lexikalischer Ebene, wie etwa Themenvariablen, zwar ebenso zuverlässig automatisch codieren lassen, komplexere Variablen auf semantischer Ebene automatisiert jedoch weniger zuverlässig erfasst werden können (vgl. Scharkow 2012). Im Zusammenhang mit Social Media Monitoring bzw. Analytics Tools ist Ähnliches im Rahmen so genannter Sentiment-Analysen, d. h. die Unterteilung in positive bzw. negative Aussagen bzw. Bewertungen, zu beobachten,

Page 94: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

94

die vor allem deshalb fehleranfällig sind, weil semantische Gehalte wie Ironie oder Sarkasmus automatisch kaum erfassbar sind.

Methode und Herangehensweise Zur Bearbeitung der Fragestellung über Möglichkeiten und Nutzen automatischer Social Media Analytics bzw. Monitoring-Tools für die Erfassung und Analyse User-generierter Inhalte im Kontext mit kommunikationswissenschaftlichen Forschungsinteressen wird einerseits auf Tool-orientierter Ebene eine im Rahmen eines FP7-Projektes durchgeführte Best Practices-Analyse über Funktionalitäten, Features und Usability solcher Tools herangezogen (vgl. Wetzstein und Leitner 2012). Für die weiter oben erläuterte methodisch-kritische Auseinandersetzung wird zudem eine manuell durchgeführte quantitative Erhebung über AkteurInnen, Forderungen und Diskurse in sozialen Medien im Rahmen der unter dem Label „Audimaxismus“ bekannten Wiener Studierendenproteste 2009 als Basis zur Auslotung von Möglichkeiten und Grenzen automatischer Social Media Analysen genutzt (vgl. Brantner et al. 2010).

Mögliche Ergebnisse bzw. Erkenntnisgewinn Aufgrund der erläuterten Herangehensweise können Möglichkeiten, Vor- und Nachteile sowie Grenzen automatischer Social Media Analysen sowohl aus Tool-orientierter als auch aus kommunikationswissenschaftlich-methodischer Perspektive sondiert und praktisch überprüft werden. Angesichts der hier beschriebenen Erkenntnisse über die Nutzung automatischer Tools ist jedoch zu erwarten, dass automatische Social Media Analytics bzw. Monitoring Tools nur eingeschränkt einsetzbar sind.

1: Die Begriffe Social Media Monitoring und Social Media Analytics werden in der Literatur im Allgmeienen

gleich verwendet Brantner, C., Maireder, A., Schwarzenegger, C., & Wetzstein, I. (2010). Projektbericht: „Audimaxismus“ –

Forderungen und gesellschaftspolitische Positionen der Protestbewegung in Wien 2009. Projekt gefördert von der Stadt Wien (MA 7 Kultur).

boyd, d., & Crawford, K. (2012). Critical questions for big data. Provocations for a cultural, technological and scholary phenomenon. Information, Communication & Society, 15 (5), 662-679.

Kasper, H., & Kett, H. (2011). Social Media Monitoring-Tools. In T. Schwarz (Hrsg.), Leitfaden Online Marketing. Band 2 (S. 662-669). Waghäusel: marketing börse.

Scharkow, M. (2012). Automatische Inhaltsanalyse und maschinelles Lernen. Berlin: epubli (siehe vor allem S. 203 ff.).

Wetzstein, I., & Leitner, P. (2012). Best practices report. Deliverable an die Europäische Kommission im Rahmen des FP7-ICT-Projekts UniteEurope Social Media Analytics and Decision Support Tools Enabling Sustainable Integration Policies and Measures. Juli 2012 (Passwort geschützt).

Page 95: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

95

Entwicklung eines mehrsprachigen Web-Monitoring-Instruments am Beispiel eines Foresight-Projekts zu Gesellschaftstrends Patricia Müller, Wolfgang Schweiger (TU Ilmenau), Simone Kimpeler (Fraunhofer ISI, Karlsruhe)

Hintergrund und Fragestellung Ziel des vorzustellenden Web-Monitorings war es, Aussagen über Trends, Prognosen, Zukunftsszenarien und Gesetzesvorhaben in deutscher, englischer, spanischer und chinesischer Sprache zu erfassen. Das Web-Monitoring war dabei Teil des Foresight-Zyklus II (2012-2014) für das Bundesministerium für Bildung und Forschung. Darin werden mittels der Kombination verschiedener Methoden gesellschaftliche Entwick-lungen identifiziert und mit Forschungs- und Technologieperspektiven verknüpft, die bis 2030 für die Forschungspolitik relevant werden können.

Der geplante Vortrag soll Herausforderungen aufzeigen und methodische Lösungsansätze diskutieren, die sich im Wesentlichen 1. aus der inhaltlich äußerst breiten Zielstellung „Trendidentifikation“ und damit einhergehenden Heterogenität der Themenfelder sowie 2. der international vergleichenden Perspektive und Mehrsprachigkeit ergaben.

Methodisches Vorgehen und Herausforderungen Da die Qualität der Befunde beim Web-Monitoring maßgeblich vom Einsatz offener und inhaltlich nicht-verzerrter (unbiased) Suchbegriffe abhängt, wurde zu Beginn der Analyse eine begrenzte Anzahl von Suchketten für zwölf vorab definierte individuelle und gesellschaftliche Bedürfnisfelder entwickelt. Diese reichten von relativ klar eingrenzbaren Bereichen wie Nahrung oder Gesundheit bis hin zu extrem offenen Feldern wie Sinn oder Glück und Selbstverwirklichung. Auf dieser Grundlage galt es im zweiten Schritt, geeignete Plattformen zu identifizieren, auf denen Beiträge gesucht, heruntergeladen und inhaltsanalytisch codiert wurden.

1. Schritt: Entwicklung von Suchketten Möchte man die öffentliche Meinung über eine bestimmte Institution oder ein Thema ermitteln, werden dazu meist Zwei- und Drei-Wort-Suchketten gebildet, die den Namen des Untersuchungsobjekts enthalten und durch bestimmte Themen oder Aspekte ergänzen (vgl. Schweiger & Markmiller 2010, S. 241). Das hier breitere Spektrum abzudeckender Inhalte sowie die Mehrsprachigkeit stellten erhebliche Herausforderungen: Um sowohl möglichst viele relevante Treffer zu erzielen als auch ergebnisoffen zu bleiben, wurden Keywords zum Aussagetyp (z.B. „Prognose“, „Zukunft“) und aus den Bedürfnisfeldern (z.B. „Ernährung“, „Werte“) kombiniert. Insgesamt wurden 784 Suchketten genutzt, anhand derer geschulte Codierer unter Zuhilfenahme eines Suchleitfadens eine Recherche mit Google durchführten. Damit

Page 96: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

96

zudem kulturspezifische Unterschiede berücksichtigt werden, war es explizit erwünscht, dass sie Links auf gefundenen Seiten folgen sowie bei Bedarf eigene Suchketten erstellen oder bestehende sprachlich anpassen.

2. Schritt: Plattformidentifikation Da auf diese Weise extrem hohe Datenmengen anfallen, wurde nicht jeder gefundene Treffer dokumentiert, sondern die Codierer entschieden selbstständig anhand der inhalt-lichen Relevanz (Anzahl themenrelevanter Aussagen), Reichweite (Besucher laut Google Trends) und Meinungsführerschaft (Anzahl Inlinks), ob eine Website geeignet ist. Insgesamt wurden so ca. 500 Plattformen gelistet - ungefähr zehn pro Bedürfnisfeld pro Sprachraum – und wesentliche Informationen codiert (bspw. Plattformtyp, Anzahl der angesprochenen Bedürfnisfelder), die der abschließenden Plattformauswahl dienten. Neben allgemeinen Schwächen des Web-Monitorings wie mangelnder Transparenz und Kontrolle bei der Google-basierten Stichprobenbildung und der Beschränkung der Suche auf Wörter und Textketten (im Gegensatz zu semantischen Informationen), ergab sich hieraus eine weitere Limitation: Die Auswahl der Plattformen erfolgte zwar möglichst anhand vorab festgelegter Kriterien, die Selektion ist aber nichtsdestotrotz anfällig für forscherabhängige Verzerrungen. Das Bestimmen der Grundgesamtheit und Bilden einer Zufallsstichprobe waren nicht möglich.

Zudem wurden Medienwebsites in die Stichprobe aufgenommen, deren Auswahl anhand ihrer Reichweite und Meinungsführerschaft im jeweiligen Land sowie bei Special-Interest-Medien entlang ihrer Relevanz in den Bedürfnisfeldern erfolgte. Um keinen Länderbias zu befördern, wurden für den englischsprachigen Raum sowohl Medien aus Großbritannien als auch den USA und für den spanischsprachigen Raum aus Spanien und Lateinamerika ausgewählt. Aufgrund der politischen Lage und des Mediensystems in China konnten allerdings für den chinesischen Sprachraum nur je ein Publikumsmedium aus Hongkong und Taiwan aufgenommen werden. Das Crawlen chinesischer Medien erwies sich als nicht durchführbar. Des Weiteren wurden Facebook als weltweit größtes Social Network mit hohen Nutzerzahlen in allen Sprachräumen (Anmerkung: In China selbst ist die Nutzung von Facebook verboten) und Twitter gesondert einbezogen.

3. Schritt: Beitragsstichprobe und Codierung Als Grundlage für die quantitative Codierung wurden Beiträge auf den identifizierten Plattformen durch einen externen Dienstleister gesucht und heruntergeladen. Damit das Crawling durchgeführt werden konnte, wurde die für die Plattformidentifikation genutzte Suchkettenliste zum einen reduziert, zum anderen ergänzt durch Keywords, die eine präzisere Suche ermöglichen sollten. Da teilweise extrem viele Beiträge gefunden wurden, mussten für jede Plattform Quoten festgelegt werden, wie viel codiert werden soll sowie teilweise der Zeitraum, in dem Beiträge gesucht werden, nochmals eingeschränkt werden. Es wurden schließlich zwischen 3.013 (chinesischer Sprachraum) und 4.703 (englischer Sprachraum) Beiträge codiert. Von diesen 14.918 Beiträgen waren 5.661 inhaltlich relevant - ein für Web-Monitorings durchaus übliches Ergebnis.

Page 97: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

97

Auch hier sind Einschränkungen zu diskutieren:

• Beim Crawlen von Plattformen differiert die Anzahl der gefundenen Beiträge sehr stark. Dies hängt zum einen von den definierten Keywords ab, aber auch von der Struktur der Websites. Teilweise sind Websites selbst mit eigens programmierten Crawlern nicht durchsuchbar. Dieses Problem trat insbesondere bei chinesischs-prachigen Websites zu Tage. So konnten lediglich für zwei Qualitäts- und zwei Special-Interest-Medien Beiträge gecrawled werden. Die Stichprobe wurde daher mit anderen Plattformen aufgefüllt. Ein möglicher Grund hierfür könnte auch in Sprachbarrieren liegen.

• Die möglichst offen und allgemein gehaltenen Suchbegriffe eigneten sich nicht für die Beitragssuche auf Facebook und Twitter, da sie zu unzählig vielen Treffern führen, deren Verarbeitung technisch nicht mehr möglich ist. So konnte hier pro Sprachraum lediglich nach zehn Keywords und Kombinationen gesucht werden, die überwiegend sehr präzise waren, zum Beispiel Nachhaltigkeit oder Bürgerbeteiligung.

• Aussagen zu Trends hatten überdurchschnittlich häufig einen Fokus auf die Gegenwart (73,7 Prozent), was durch die geschilderte Stichprobenbildung begünstigt wurde und vermuten lässt, dass bei suchmaschinen- und Keyword-basiertem Web-Monitoring Wahrnehmungsfilter (vgl. Ansoff 1979; Ilmola & Kotsalo-Mustonen 2004) aktiv werden könnten.

Aufgrund der mehrsprachigen Anlage der Studie können Sprach- und Sinnunter-schiede bestehen, die beachtet werden müssen (vgl. Kleinsteuber 2003). Um diese Effekte trotz forschungsökonomischer Einschränkungen zu reduzieren, wurde das Codebuch in englischer Sprache verfasst, intensive Schulungen mit den Codierern durchgeführt und Beispiele diskutiert. Zudem sollte auf Konstrukt- und Item-Äquiva-lenz geachtet werden. Man erreicht dies idealerweise durch Einbezug von Experten bei der Instrumentenentwicklung (vgl. Wirth & Kolb 2003, S. 120). Da dies nicht möglich war und eine bestehende Longlist die Grundlage der Kernkategorie „Trend“ bildete, ist eine westliche Prägung des Codebuchs zu vermuten. Ansoff, H.I. (1979). Strategic Management. London: Macmillan. Ilmola, L. & Kotsalo-Mustonen, A. (2004). Filters in the Strategy Formulation Process. Journal of Universal

Computer Science. doi: 10.3217/jucs-009-06-0481. Kleinsteuber, H.J. (2003). Medien und Kommunikation im internationalen Vergleich: Konzepte, Methoden und

Befunde. In F. Esser, & B. Pfetsch (Hrsg.), Politische Kommunikation im internationalen Vergleich (S. 78-103). Wiesbaden: VS Verlag für Sozialwissenschaften.

Schweiger, W. & Markmiller, I. (2010). WebScreen – ein Verfahren zur Messung der öffentlichen Meinung im Internet. In J. Woelke, M. Maurer & O. Jandura (Hrsg.), Forschungsmethoden für die Markt- und Organisationskommunikation (S. 221-245). Köln: von Halem.

Wirth, W. & Kolb, S. (2003). Designs und Methoden des internationalen Vergleichs in der (politischen) Kommunikationsforschung. In F. Esser & B. Pfetsch (Hrsg.), Internationale vergleichende Kommunikationsforschung (S. 104-131). Wiesbaden: Opladen.

Page 98: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

98

Notizen

Page 99: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

Digital Methods Tagung Wien 2013, Book of Abstracts.

Medieninhaber: Verein der Freunde des Instituts für Publizistik- und Kommunikationswissenschaft Währingerstrasse 29, 1090 Wien

Herausgeber: Axel Maireder

Redaktion: Kathrin Braun

groups/dgpukcvk/

Deutsche Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPUK)Fachgruppe Computervermittelte Kommunikation

DGPuK_CvK

http://www.dgpuk.de/fg_cvk/

Page 100: Book of Abstracts - univie.ac.at · 2013. 11. 6. · 4 Inhalt Book of Abstracts CfP Digital Methods S. 5 Programmüberblick S. 7 PLENUM A Keynote S. 15 PLENUM B Plenarvorträge S.

Veranstalter

Wir danken unseren Sponsoren

Fachgruppe Computervermittelte Kommunikation

Institut für Publizistik- und Kommunikationswissenschaft

www.univie.ac.at/digitalmethods

#cvk13