Interview mit Datenjournalistin Christina Elmer

Christina Elmer @chelm, geboren 1983, arbeitet im Wissenschaftsressort von Spiegel Online und betreut als Recherche-Trainerin Workshops in Redaktionen und Ausbildungsprogrammen. Zuvor gehörte sie zum Team Investigative Recherche des Stern und arbeitete als Redakteurin für Infografiken bei der Deutschen Presse-Agentur (dpa), wo sie zuvor „dpa-RegioData“ mit aufgebaut hatte. Der Weg dorthin: Volontariat beim Westdeutschen Rundfunk (WDR), Studium der Journalistik und Biologie an der TU Dortmund, Freie Autorin für Wissenschaftsthemen.

Bezeichnest du dich selbst als Datenjournalistin? Wenn ja, wie würdest du dein berufliches Selbstverständnis beschreiben? 

Ja, aus meiner Sicht passt diese Bezeichnung. Viele meiner Recherchen basieren auf Statistiken oder anderen strukturierten Datensätzen. Daraus Ansatzpunkte für Geschichten herauszukitzeln, würde ich als Kern der datenjournalistischen Arbeitsweise bezeichnen. Mein Fokus liegt dabei immer auf der Frage, ob am Ende eine relevante Story steht. Die kann sich entweder aus der Analyse ergeben oder auch darin bestehen, wichtige Datensätze überhaupt öffentlich zu machen.

Du sagst, die Recherche in Statistiken oder strukturierten Daten sei für dich der Kern datenjournalistischer Arbeit. Ist Datenjournalismus also ein anderes Wort für „Computer Assisted Reporting“ (CAR), wird er durch die Recherche definiert?

Wer datenjournalistisch arbeitet, benutzt zwangsläufig immer auch Werkzeuge und Methoden aus dem Computer Assisted Reporting. Allerdings geht der Datenjournalismus für mich darüber weit hinaus. Wenn Datenjournalisten bei ihren Recherchen dafür sorgen, dass Informationen überhaupt öffentlich werden. Wenn sie diese Daten zugänglich machen, indem sie sie ansprechend aufbereiten und auf offenen Plattformen veröffentlichen. Und wenn sich aus diesen Anwendungen neue Wege des Storytellings ergeben. Das sind alles relevante Bestandteile datenjournalistischer Arbeit, die aus meiner Sicht aber nicht in jedem Projekt zwingend eine Rolle spielen müssen.

Interview mit Datenjournalistin Christina Elmer weiterlesen

Das App-Konzept von #Tag2020: So zukunftsweisend wie eine Druckerpresse

auflage
In dem Debattenfazit taucht die Grafik links auf, rechts die gleichen Zahlen mit Nulllinie

Das Ergebnis der Tageszeitungsdebatte des Spiegels ist in ein App-Konzept für Smartphones kondensiert (hinter dem Link kann man nach dem Introvideo oben rechts dahin springen). Im Juli 2013 lief die als Debatte bezeichnete Aneinanderreihungen von Selbstgesprächen. Sie sollte die Tageszeitung neu- oder weiterdenken. Die Beschränkungen des Trägermediums Papier, das durch seine Eigenschaften auch die Art, wie auf ihm Journalismus geschehen kann, determiniert, sollte im Digitalen erst gar nicht hinter sich gelassen werden.

So kam zwar die ordentlich gestaltete Skizze einer Anwendung für Mobiltelefone heraus. Doch bemüht die doch sehr deutlich die Tageszeitungmetapher und wirkt auch deswegen antiquiert. Zu sehen ist nicht die „Tageszeitung der Zukunft“, sondern eine App wie sie heute existieren könnte, hätten die Verleger nicht erst 2010 bemerkt, dass das Internet nicht wieder weg geht .

„Wir haben uns entschieden, keine utopische Zeitung zu entwerfen, sondern eine, die man schon heute realisieren kann“, heißt es folglich auch im Text. Im hier und jetzt bleiben zu wollen, ist eine weit verbreitete konservative Haltung und spiegelt das wieder, was hierzulande landläufig als Innovation im Journalismus gilt. Dass nicht über die Zukunft nachgedacht werden will, weil das dann nach Utopia führen könnte, wirkt kläglich. Das App-Konzept von #Tag2020: So zukunftsweisend wie eine Druckerpresse weiterlesen

Verlage und Redaktionen: Investiert in Karten!

Pietro Vescontes Weltkarte von 1321

Es wird ein mächtiges Werkzeug sein: Wenn in Bälde der Dienst Mapbox sein Angebot Satellite Live startet, kann jedermann Satellitenbilder von fast jedem Punkt der Welt abrufen und verwenden. Bilder, die nicht älter sind als 18 Stunden. Wird der Dienst nicht zu teuer, steht dann außer einem wolkenverhangenem Himmel neuen Möglichkeiten der Beschreibung eines Geschehens nichts mehr im Weg.

Zwar ist es heutzutage selbstverständlich, überall mit seinem Mobiltelefon auf Karten aller Orte weltweit inklusive (nicht-aktueller) Satellitenbilder zugreifen zu können. Aber man muss sich ab und zu vergegenwärtigen: Das gibt es noch keine zehn Jahre. Vorher hätte man unzählige gedruckte Karten in vielen verschieden Maßstäben mit sich herumtragen müssen. Satellitenbilder mal eben aufzurufen war vor nicht allzu langer Zeit für die meisten noch Science Fiction (wenn man nicht in der Raumfahrt, beim Militär oder Geheimdienst arbeitete).

So sollte man in Zeiten, wo in jeder zweiten Nachrichtensendung das Wort Big Data fällt, an den wohl ältesten und stetig gewachsenen Big Data-Datensatz erinnern: Die Sammlung der Informationen, die die Topographie unseres Planeten beschreiben: Geoinformationen. Ihnen liegt die Weltkarte zugrunde; aus ihnen formen sich Landkarten und Atlanten, die sie in Ausschnitten und Vergrößerungen wiedergeben. Letztlich sind Karten nicht anderes als Visualisierungen von Geodaten.

Verlage und Redaktionen: Investiert in Karten! weiterlesen

Bundestagswahl: Wie gut waren die Vorhersagen der Umfrageinstitute?


Wie gut sind die Prognosen der Umfrageinstituten? Kurz gesagt: Solala. Betrachtet man die jeweils letzten Umfragen vor den vergangenen vier Bundestagswahlen, zeigt sich, dass es deutliche Unterschiede bei der Vorhersagegenauigkeit der Demoskopen gibt. (Richtigerweise muss man sagen: Es handelt sich nicht um Prognosen oder Vorhersagen im eigentlichen Sinne – die Umfragen sollen Abbild einer politischen Stimmung sein.) Update: Dank eines Hinweises von @zoonpolitikon sei hier noch auf die Fehlertoleranz/ Standardabweichung aufmerksam gemacht. Die Zahlen der Umfrageinstitute lagen meist innerhalb der üblichen +/- 2,5 bis 3 Prozentpunkte. Mehr dazu hier.

Durch die Bank weg haben alle der sechs hier betrachteten Umfrageinstitute bei der Wahl in 2005 deutlich daneben gelegen: CDU/CSU sahen alle bei 41 oder 42 Prozent – tatsächlich kamen die auf 35,2 Prozent. Anderseits lag Forsa im Jahr 2002 deutlich näher als die anderen Institute am Endergebnis: Mit insgesamt nur 2,7 Prozentpunkten Abstand. Bei der Bundestagswahl 1998 war Allensbach noch besser: Insgesamt lag man nur 2,4 Prozentpunkte vom Wahlergebnis weg.

Betrachtet werden bei diesem Vergleich die Zahlen für die Parteien im Bundestag (CDU/CSU, SPD, Grüne, FDP, Linke/PDS). Die Abweichung der Vorhersage für jede Partei – egal ob positiv oder negativ – wurden zusammengezählt. So ergibt die Gesamtabweichung beim folgenden Beispiel 6,4 Prozentpunkte.


Die letzten Umfragergebnisse der Institute vor der jeweiligen Wahl wurden bei wahlrecht.de gefunden. Hier die Datei mit den Umfrageergebnissen pro Partei und Wahl bei Google Docs.

Im Überblick ganz oben ist zu sehen, dass Allensbach und Forsa zumindest bei zwei von vier Wahlen die genausten Prognosen gebracht haben. Mal sehen, wie richtig sie am Wahlabend im September liegen. Wenn die Vorhersagen so fehlerhaft sind wie 2005, könnte der Wahlabend doch spannend werden.

Siehe die Kritik an diesem Beitrag: „Was Wahlumfragen (nicht) sagen“

und auch: „Warum Wahlprognosen mehr können als Umfragen – am Beispiel Hamburg-Mitte“ bei hamburger-wahlbeobachter.de

 

Von der Interaktivität – Teil 1: Snowfall & Webdokus

Diese Serie handelt von Interaktivität im digitalen Bereich. Es geht darum, dass darunter viel verstanden werden kann und es unterschiedliche Varianten gibt. Wo und wie wird das Prinzip eingesetzt, was und wann kann es etwas bringen? Letztlich geht es um die Frage, wohin die Reise in Sachen Interaktivität führen könnte.

Bear 71
Bear 71

Der Begriff Mulitmedia sollte aus dem Wortschatz getilgt werden. Er ist angesichts von Browsern, in denen selbstverständlich Texte, Bilder, Videos und Audio neben- und miteinanderlaufen trivial oder besser noch: überflüssig (so nichts sagend, wie von „neuen Medien“ zu reden, wenn man etwa über Video spricht). Doch der Begriff hat weiterhin Konjunktur; nicht zuletzt durch den Erfolg von „Snowfall“. Dieses Stück der NYT aus dem vergangenen Jahr wurde alsbald als Referenz gehandelt. Der vor Kurzem neu angetretene Chefredakteur von Zeit Online, Jochen Wegner, fasste es so:

„Auch wir sind inspiriert vom mittlerweile sehr bekannten Feature ‚Snowfall‘ der New York Times. Diese Geschichte hat eine ganze Branche wachgerüttelt – eben weil sie eigentlich gebräuchliche digitale Versatzstücke neu kombiniert, um auf packende Weise eine lange, facettenreiche Geschichte zu erzählen.“

Neben Zeit Online, die ein Stück zu Tour de France machten, versuchten sich auch andere an dem Format. Die Ergebnisse sind Nachfahren der interaktiven CD-ROMs. Ein digitales Format, das in den 90er-Jahren Konjunktur hatte, als Browser noch unbekannt oder karg und Internetverbindungen meist langsam waren: Texte, Bilder, Audio und Videos wurden über eine Menüstruktur zugänglich gemacht, die in etwa heutigen komplexeren DVD-Menüs gleichkam; das Erlebnis, die „User Experience“ (UX) war für den Betrachter meist bescheiden. Das hatte nicht zuletzt technische Gründe: Die Lese- und damit Datenübertragungsrate der CD-Laufwerke war noch nicht hoch sowie Prozessorleistung und Größe des Arbeitsspeichers niedrig, die Röhrenmonitor hatten eine geringe Auflösung. Jedes neuere Smartphone bietet heutzutage ein Vielfaches an Leistung der Rechner, die Mitte der 90er in den Haushalten und Büros üblich waren.

Die Hoffnung war damals wie heute, dass aus der Kombination von Präsentation und Interaktivität etwas entsteht, mit dem sich Themen besser berichten und prägnanter erzählen lassen; neue Zugänge und Perspektiven eröffnet werden. Dadurch soll der Konsument einen Mehrwert erfahren, weil er sich Inhalte anders erschließen und sich so besser informieren kann. Anders und besser, weil er selber zumindest die Darreichungsform und Reihenfolge der Wiedergabe der Inhalte beeinflussen kann – es eben eine individuelle Wechselbeziehung (Interaktion) gibt.

Von der Interaktivität – Teil 1: Snowfall & Webdokus weiterlesen

Datenjournalismus im Sommer 2013

Eine Auswahl von Links, Materialien, Tools und Terminen

Bildschirmfoto 2013-08-18 um 10.39.05

Das beeindruckende Projekt eines internationalen offenen Handelsregisters, Open Corporates, bietet nun die Option, die Netzwerke der Firmen zu visualisieren. Für einige Beispiele haben sie die wahnsinnig verschachtelten Firmenkonstrukte extra visualisiert. Oben ist ein Auschnitt des Netzes von Goldmann-Sachs zu sehen. Umgesetz haben die Visualisierung Kiln aus Italien, die ein Making-of veröffentlicht haben.

Auf visualisingdata.com findet sich eine große Sammlung von Websites, die Zugang zu unterschiedlichsten Open Data-Datensätzen von NGO, Regierungen usw. bereitstellen. Ebenfalls ist dort ein Überblick über „10 significant visualisation developments: January to June 2013″ zu finden.

Am Knight Center for Journalism in the Americas läuft noch bis Mitte September ein Massive Open Online Course (MOOC) zu den Grundlagen des Datenjournalismus.

Marcus Anhäuser hat im Juli ein Interview zu Hacks/Hackers in Berlin geführt. Und auch Björn Schwentker zu seinem Projekt „Zensus unzensiert“ befragt.

Datenjournalismus im Sommer 2013 weiterlesen

Wie Zeit Online mit "Wahlistik" Stimmung macht

Es ist nicht Verkehrtes daran, von erfolgreichen Konzepten zu lernen. Zeit Onlines „Wahlistik“ ist offensichtlich von Nate Silvers viel gelobter Statistikauswertung zur vergangenen US-Präsidentenwahl für die NYT inspiriert. Nun ist es in einem de facto Zweiparteien-System einfacher Vorhersagen zu treffen, als in einem Vielparteien-System wie in Deutschland.

Zeit Online hat ein Verfahren mit Statistikern der Uni München entwickelt: Es nimmt die Durchschnittswerte der jeweils aktuellsten Umfragewerte von vier Instituten als Ausgangsgrundlage. 10.000 Mal werden dann Ergebnisse generiert, die von den Ausgangswerten im Rahmen statistischer Ungenauigkeit zufällig abweichen. Bspw. können in 3524 der simulierten Fälle CDU/CSU und FDP mit ihren erreichten Sitzen eine Koalition bilden. Das wird als 35% Wahrscheinlichkeit für die Möglichkeit einer Koalitionsbildung Schwarz-Gelb gewertet. Da derzeit trotz simulierter Abweichung Schwarz-Rot und Schwarz-Grün 10.000 Mal möglich sind, erhalten beide Koalitionsoptionen jeweils 100%.

Vielleicht wäre es ratsam gewesen, die Methode auch in einem wiederverwendbaren Schaubild oder in einem Erklärvideo darzulegen. Bis ich jedenfalls verstanden habe, was genau Zeit Online überhaupt mit der Wahlistik sagen will, musste ich mir erst einmal den Kopf zerbrechen. Das liegt zum einen an solch einer Überschrift nebst Vorspann:

Bildschirmfoto 2013-08-17 um 10.05.29
Das ist mindestens missverständlich formuliert: Richtiger wäre die Überschrift, wie es auch im letzten Satz des Vorspanns steht: „Welche Koalition ist am möglichsten?“ Wahrscheinlichkeit und Möglichkeit sind zwei grundverschiedene Dinge. Die Wahlistik kann eben nur zeigen, wie hoch die Chancen für verschiedene Konstellationen von Koalitionen sind, zustande zu kommen.

Auch diese in der Serie wiederkehrende jeweils aktualisierte Grafik hilft nicht weiter: Sie ist mit „Rechnerische Wahrscheinlichkeiten der Koalitionen“ überschrieben. Hier der Stand vom 16.8.2013:

Bildschirmfoto 2013-08-17 um 10.33.21

Wie Zeit Online mit "Wahlistik" Stimmung macht weiterlesen

Datenpopulismus

Bildschirmfoto 2013-07-23 um 09.32.50

Anfang des Monats machten wir ein Experiment. Wir von OpenDataCity hatten seit Tagen schon an einer Webapp zu Prism/Tempora gearbeitet. Unser Eindruck war, dass das Thema „untervisualisiert“ war; gleichzeitig aber Visualisierungen in dem stark technisch geprägten Komplex von Nutzen sein könnten. Bei den Überwachungssystemen geht es erst einmal um Daten – was liegt näher, als sich ihnen per Datenjournalismus zu nähern?

Die App, die anhand einiger Beispiele mittels des Tools „Traceroute“ zeigt, wie Internetanfragen durchs Netz geleitet werden, war fast fertig. Die Idee, der von wenig Sachverstand geprägten Aussage des Bundespräsidenten, der einen Vergleich von Stasi und NSA kategorisch von sich wies, etwas entgegenzusetzen, kam recht spontan. Innerhalb weniger Stunde war eine App fertig. Sie vergleicht letztlich nur zwei Zahlen: Nämlich die Möglichkeiten der Speichermengen der Geheimdienste. Am frühen Abend des Donnerstages (4.7.2013) veröffentlichten wir „Stasi vs NSA“ und zwei Stunden später „Prism/Traceroute“.

Bald bezeichneten wir die Stasi vs NSA-Webapp intern als „Datenpopulismus“. Sie ist mittlerweile – vor allem weil wir die App zum Einbetten anbieten – fast 500.000 Mal geklickt worden (siehe Graph oben). Etwa Achtmal soviel, wie die Traceroute-Geschichte. Das zeigt eindrücklich, dass Datenboulevard funktionieren kann. Zumindest wenn es um die „Eyeballs“ geht, also Klicks generiert werden sollen.

Datenpopulismus weiterlesen

Land unter beim Onlinejournalismus – Verpasste Chancen beim Hochwasser

Hin und her gingen die Überlegungen. Wäre „Deichbruch am Bildschirm“ nicht passender gewesen oder noch origineller „Im Web im Regen stehen gelassen“? Aber es geht ja nicht um einen Wettbewerb in dämlichen Überschriften, sondern um eine Bestandsaufnahme: Wie wird das Hochwasser, das seit zehn Tagen bestimmendes Thema in Deutschland ist, von den „Qualitätsmedien“ im Netz erzählt und berichtet?

Kurz zusammengefasst: Entäuschend. Bildstrecken, Texte, kärgliche Infografiken. Dabei sind die Nachrichten voll mit Namen von Orten, Flüssen und Deichen. Aber wo sind die? Welchen Gebieten droht in absehbarer Zeit Hochwasser? Wann kommt die Scheitelwelle? Was wurde überflutet, welche Schäden wurden angerichtet?

Eigentlich ein Fest für Datenvisualisierung. Man denke nur an Werke wie den Storm Tracker. Oder interaktive Grafiken der NYT rund um Unwetter und Naturkatastrophen (die NYT hat immerhin eine Karte mit überfluteten Gebieten in Dtl.). Inspiration gibt es genug. Und noch dazu gibt es Daten. Pegel Online veröffentlicht faktisch Open Data, also frei verwendbare Daten über die Pegelstände. Sogar per Schnittstelle, API.

Land unter beim Onlinejournalismus – Verpasste Chancen beim Hochwasser weiterlesen

Datenjournalismus im Mai 2013

Eine Auswahl von Links, Materialien, Tools und Termine

Bildschirmfoto 2013-06-06 um 16.57.17

Eine Zeitleiste, die bis zu den Anfängen der Menschheitsgeschichte reicht, zeigt Meilensteine der Visualisierung (s.o.).

Nicht alle teilen die Begeisterung über Hochglanz-Slideshows wie Snowfall oder Firestorm. Neben inhaltlicher Kritik äußert Choire Sicha vor allem Bedauern, dass sich wieder das mehr Öberflächliche gegenüber dem faktenbasierten „Nate Silver model“ in der Debatte über die Zukunft des Journalismus durchgesetzt zu haben scheint. (In dem Zusammenhang: siehe auch die Parodie „Icefall„)
Datenjournalismus im Mai 2013 weiterlesen