Die Vermessung des TV-Programms

Das “TV Meter” – ein nicht realisiertes Datenjournalismusprojekt aus meiner Schublade

Gefühlt besteht das Angebot des öffentlich-rechtlichen Fernsehens aus Quizshows, Krimis, Sport und Schlagersendungen plus etwas Nachrichten, Politiksendungen sowie Talkshows.

Derlei Gefühle ließe sich recht einfach mit Zahlen unterfüttern: Das Fernsehprogramm kommt seit eh und je in Tabellenform daher. Vor allem die ARD macht es einfach, ihr Programm auszulesen:

http://programm.ard.de/TV/Programm/Sender?datum=09.01.2018&hour=0&sender=28106

Unter dieser URL findet sich das Programm der ARD für einen Tag. Die Struktur der URL macht deutlich, dass es simpel sein dürfte, zurückliegende Tage bzw. zukünftige aufzurufen. Offenbar scheint das komplette Programm über den Parameter “datum” seit 2011 und 40 Tage im Voraus abrufbar zu sein.

Auch deutet der Parameter „sender“ in der URL an, dass sich andere Sender abrufen lassen: Neben allen 3. Programmen finden sich auch die Programme von Phoenix, arte, Kika, One, ARD-alpha und tagesschau24.

Die Vermessung des TV-Programms weiterlesen

Algorithmic Accountability: Der nächste Schritt für den Datenjournalismus

Algorithmic Accountability ist ein im Entstehen begriffenes Subgenre des Datenjournalismus. Der Ausdruck wurde durch den Journalismusforscher Nicholas Diskopoulus etabliert. Sein Bericht „Algorithmic Accountability Reporting: On the Investigation of Black Boxes“ erschien Anfang 2014. Er skizziert eine neue Aufgabe für Journalisten: Sie sollten Softwaresysteme als Gegenstände der Berichterstattung verstehen. Dabei kann reine Transparenz nicht das Ziel sein – meistens hilft es nicht, nur auf den Programmiercode der Software so genannter Künstlicher Intelligenz (AI) oder Machine Learning zu schauen. Ohne die Datensätze, mit denen diese Systeme trainiert werden, kann ihre Funktionsweise nicht verstanden werden. Deshalb setzt Algorithmic Accountability auf Nachvollziehbarkeit.

Im Unterschied zu „traditionellem“ Datenjournalismus, der mit manuell oder automatisiert gesammelten Datensätzen operiert, kümmert sich Algorithmic Accountability darum, wie Daten verarbeitet und/oder generiert werden. Ein gutes Beispiel ist die Arbeit von Pro Publica in der Serie „Machine Bias“ aus dem Jahr 2016. Unter anderen untersuchte die Redaktion eine im Strafprozesserfahren der USA weitverbreitetete Software, die bestimmt, ob ein Verurteilter Bewährung erhalten sollte. Sie fand heraus, dass diese Software Rassismus reproduziert. Die verantwortliche private Softwarefirma war nicht bereit, die Funktionsweise der Software im Detail offenzulegen. Pro Publica gelang es durch eine Informationsfreiheitsanfrage, Daten zu Verurteilen zu erhalten und betrieb auf dieser Grundlage eine Art “Reverse Engineering” (Nachkonstruktion) des Softwaresystems.

Algorithmic Accountability ist der nächste logische Schritt in einer Welt des automatisierten Entscheidens (Automated Decision Making – ADM): Demokratische Gesellschaften, die vermehrt durch und mit Software regiert werden, müssen in der Lage sein, solche „Maschinen“ zu verstehen und kontrollieren.

Deutsche Fassung meines englischsprachigen Beitrags im Data-Driven Advent Calender von Journocode. Ein ausführlicher Text von mir zu Algorithmic Accountability findet sich bei der Bayerischen Landesmedienanstalt: “Rechenschaft für Rechenverfahren

Wie es dem Gesichtserkennungs-Stück des Morgenpost-Interaktivteam misslingt, großartig zu sein

 

Die eigentlich gut gemachte Auseinandersetzung mit Gesichterkennungs-Algorithmen krankt an einer mangelnden Beschäftigung mit dem Datenschutz des eingesetzten Microsoft-Dienstes (UPDATE: Mittlerweile wird deutlich auf die Datenübermittlung hingewiesen). 

Es könnte wegweisend für ein ein neues Genre des Datenjournalismus sein:  Mit einem Stück zur Gesichtserkennung greift das Interaktiv-Team den Hype um „Künstliche Intelligenz“ auf und macht sie praktisch erfahrbar. Dabei kommt eben auch die lokale Komponente des Kameraüberwachung mit Gesichterkennung der Bundespolizei am Bahnhof Berlin Südkreuz zum tragen, die in der Hauptstadt für einige Debatte sorgt.

Die Präsentation, bei der rund 80 Mitglieder der Morgenpost-Redaktion sich mit ihrem Gesicht (und Alter) für einen Selbstversuch hergeben, ist schlicht eine gute Idee: Sie erlaubt anhand der Portraits zu erahnen, warum der verwendete Gesichterkennungs-Algorithmus möglicherweise Probleme hatte, das Alter der Person richtig einzuschätzen.

Der Höhepunkt des Beitrags ist aber die Möglichkeit, über die eigene Webcam/Smartphone-Kamera sein eigenes Gesicht zu übermitteln und eine Alterseinschätzung zu erhalten. Damit wird der Ansatz, dass für die Wirkung eines datenjournalistischen Werks die Ermöglichung des persönlichen Bezugs wichtig ist, gelungen eingelöst.

Leider ist es diese eigentlich tolle Idee, an der das Stück scheitert: Die Morgenpost setzt einen Dienst von Microsoft ein. Das ist an sich nicht verwerflich. Doch klärt die Redaktion an dieser Stelle kaum auf, was eigentlich mit den Daten des “Daten-Selfies” geschieht, die dort über die Kamera erfasst werden. Zwar wird gleich unterhalb des Aufnahmeknopfs auf die Datenschutzerklärung des Microsoft-Dienstes verwiesen. Doch die scheint nicht mal die Redaktion gänzlich verstanden zu haben. Wie es dem Gesichtserkennungs-Stück des Morgenpost-Interaktivteam misslingt, großartig zu sein weiterlesen

Müssen Datenjournalisten programmieren können?

Tweet_Programmieren_DDJ_Natalia_Karbasova

Mit diesem etwas vereinfachten Statement von mir trat Natalia Karbasova auf Twitter eine kleine Diskussion zu Datenjournalismus (DDJ) und Programmierkünsten los, die zeigt, dass diese Frage alles andere als beantwortet ist. Vielleicht, weil wir hierzulande noch keine klare Vorstellung davon haben, wie guter Datenjournalismus entstehen kann. Und was er überhaupt ist.

Die Diskussion ums Programmieren lohnt also. Bisher verläuft sie allerdings ziemlich schwarz-weiß, scheint mir: Wer Programmieren kann, ist dafür, der Rest ist dagegen. Egal, ob er tatsächlich nicht programmieren will, es sich nicht zutraut, oder einfach keine Chance sieht, die Zeit fürs Lernen und Ausprobieren aufzubringen.

Ich starte hier den Versuch, die Diskussion aufs Inhaltliche zu lenken: Wo und wie hilft es Datenjournalisten konkret, coden zu können?
Müssen Datenjournalisten programmieren können? weiterlesen

Der langweilige Datenjournalismus zur Fußball-WM

Project BABB, Telegraph UK

Es gab ein Feuerwerk an Datenstücken und Interactives rund um die Fußball-WM der Männer in Brasilien: Gut zu beobachten war, wie die New York Times ihre Muskeln spielen ließ und ein Stück nach dem anderen veröffentlichte – und nicht zuletzt in den Liveblogs direkt Datenvisualisierungen einbaute.

Hier im Blog habe ich 21 Visualisierungen und interaktive Stücke zum Thema gesammelt. Handwerklich sind einige von ihnen grandios. Aber wirklich vorher Unbekanntes oder Erkenntnisreiches, etwas, das eine neue Sicht der Dinge lieferte, habe ich keines entdeckt.

Vornehmlich ging es rein um das Sportereignis an sich; nicht um ökonomische, politische oder soziale Themen, die im Zusammenhang mit dem Event stehen. Wie wäre es mit Stücken zu Geldmaschine Fifa, zu Korruption, zu Einnahmen und Ausgaben des Staates Brasilien, über Reisewege der Fans inklusive C02-Ausstoß usw. usf. gewesen?

Aber es ging eben nur um das Spiel, vielleicht auch Ausdruck davon, dass in den Redaktionen viele Fans sitzen. Neben einer Liste aller Spieler diente als zweite vorwiegend verwendete Datenquelle die Firma Opta (zur Messung von Daten bei Fußballspielen habe ich im Blog vor einigen Jahren hier geschrieben). Einen Diskurs über die Qualität dieser Daten oder ein Hinterfragen der Datengenese des Quasi-Monopolisten ist mir nicht bekannt; das gilt auch für die Daten der FIFA. (Update: In einem Kommentar unten wird auf diesen Text hingewiesen: “6 Gründe warum Spiegel Onlines ‘Fussballdaten’ problematisch sind”.)

Der langweilige Datenjournalismus zur Fußball-WM weiterlesen

Zum Verzweifeln: Deutsche Medien und die Krise in der Ukraine – inkl. einer kleinen Linksammlung – UPDATE

g_n

UPDATE 5.5.2014 und Linksammlung weiter unten.

Warum scheinen eigentlich zahlreiche Medienmacher und -häuser in den letzen Monaten wie durchgedreht, wenn es um die Ukraine geht? Ist es wirklich so schwer, neutral (also unparteiisch) zu bleiben, Distanz zu halten, mit dem gebotenen Zweifel offiziellen Verlautbarungen aller Seiten und Gerüchten zu begegnen?  Ist es zuviel verlangt, dass erst Analysen und Bewertungen vorgenommen werden, wenn es dafür eine ausreichend recherchierte Basis gibt und auch genug Sachkenntnis vorhanden ist?

Beispiel: Wenn ich einen Artikel lese, wie heute (28.4.) diesen hier auf süddeutsche.de, fällt mir nicht mehr viel ein. Ist das Absicht oder Unfähigkeit? Im Vorspann des Beitrags heißt es:

“Die in der Ukraine entführten Militärbeobachter waren offiziell im Auftrag der OSZE unterwegs, um das ukrainische Militär zu beobachten”.

Im selben Beitrag wird auf ein ORF-Interview mit dem Vize-Chef der Krisenprävention der OSZE vom 25.5.2014 – dem Tag der Festsetzung des Teams – verlinkt; gleich eingangs sprach der Folgendes:

“Ich muss aber auch sagen, dass es sich genau genommen nicht um Mitarbeiter der OSZE handelt, sondern es sind Militärbeobachter, die dort bilateral unter einem OSZE-Dokument tätig sind”.

In besagtem Artikel ist auch richtigerweise nur die Rede von “europäischen Militärbeobachtern” und es wird der Hintergrund der Mission erläutert, die eben nicht im Auftrag der OSZE unterwegs war. Hier hat wahrscheinlich ein Redakteur einen Autorenbeitrag mit einem Vorspann versehen (online zumindest, in Print auch?). Fragt sich, ob es Kalkül oder schlicht Sorglosigkeit ist, dass in so einer aufheizten Stimmung so ungenau gearbeitet wird. Die Süddeutsche ist in diesem Fall wie gesagt nur ein Beispiel; ein Blick auf Google News zeigt, dass viele Redaktionen von “OSZE-Mitarbeitern” bzw. “Beobachtern” sprechen.

Zum Verzweifeln: Deutsche Medien und die Krise in der Ukraine – inkl. einer kleinen Linksammlung – UPDATE weiterlesen

Die Abwesenheit von Datenvisualisierungen und Infografiken im Wahlkampf

plakat2

Jedes Mal, wenn Wahlkampf ist, wundere ich mich, warum keine Datenvisualisierungen oder wenigstens Infografiken auf den Wahlplakaten eingesetzt werden. Formate, die in den vergangenen Jahren sowohl im Netz als auch im Print an Popularität gewonnen haben und ohne Zweifel für “Eyeballs” sorgen. Und darum geht es doch aus Sicht der Wahlkämpfer. Wer Politikern in den ewigen Talkshows lauscht, hört, wie gerne sie verbal mit Zahlen herumfuchteln. Warum also setzen sie weiterhin auf mehr oder minder müde Slogans anstatt – wenn auch knapp  – einen Sachverhalt oder Fakt mit einem Graphen oder Diagramm zu kommunizieren? Dies könnte ja auch durchaus mit einem Spruch oder etwas Augenzwinkern geschehen.

Zwar sind Infografiken mit Vorsicht einzusetzen, weil dort nicht selten das Phänomen des inhaltsleeren “Visualisation Porn” auftritt und gerne für Marketingzwecke manipulativ mit Fakten hantiert wird. Und auch Datenvisualisierung kann mit Tücken behaftet sein. So oder so: Ist eine plakative Message nicht eben die Grundidee eines Plakats? Und Wahlkampf ist nicht ausgewogener Journalismus. Dass dabei im Eigeninteresse selektiver mit Zahlen umgegangen wird, liegt auf der Hand. Trotzdem könnten mit ein paar Zahlen und Graphen etwas Inhalt, wenn nicht sogar Fakten, an die Stelle der weitgehend sinnentleerten Wahlkampfparolen treten.

Die Abwesenheit von Datenvisualisierungen und Infografiken im Wahlkampf weiterlesen

Kurzes making-of zur NZZ-Lobby Visualisierung

Es war ein anhaltendes Ping Pong mit Sylke Gruhnwald von der NZZ: Zusammen mit dem freien Grafiker und Programmierer Christopher Pietsch habe ich von Berlin aus an der heute erschienen Lobbyismus-Visualisierung mit der Datenredakteurin in Zürich gearbeitet. Begonnen haben wir damit vergangenen Herbst; es ist somit meine letzte Arbeit für OpenDataCity – dort schied ich zum Jahreswechsel aus.

Kurzes making-of zur NZZ-Lobby Visualisierung weiterlesen

Pi mal Daumen: Datenjournalismus zur Sexarbeit in Deutschland bei Welt Online

welt_titel

Die “blaue Gruppe” bei Springer, die nach der Schmuckfarbe der Welt benannt ist, will eigentlich wenig mit der “roten Gruppe” der Bild zu tun haben. Doch die Überschrift “Augsburg misst die größte Hurendichte Deutschlands” würde man eher in der Boulevardabteilung erwarten. Doch lautet so der Titel eines Textes bei Welt Online vom 3.11.13, der sich unter Einsatz von Datenvisualisierungen dem Thema Sexarbeit in Deutschland widmet. Er ist wohl eines der Ergebnisse der dreijährigen Recherche des Welt-Investigativteams zu Sexarbeit und Menschenhandel, die in einem Video am Ende des Artikels erwähnt wird.

Im Kern war die Idee wohl, dass man bei Polizeien und Verwaltungen aller Städte über 100.000 Einwohner in Deutschland nach der Anzahl (aber nicht Geschlecht) der Sexarbeitenden in der jeweiligen Stadt fragen wollte. Doch: “Von den 80 größten deutschen Städten sieht sich ein Viertel nicht in der Lage, die Zahl der vor Ort tätigen Prostituierten auch nur ungefähr zu beziffern.” Genannt werden nur drei Städte (Augsburg, München, Stuttgart) mit “präzisen Angaben”, von zwei andere Städten (Frankfurt, Berlin) gab es “Hochrechnungen”; Hamburg und Köln lieferten “grobe Schätzungen”. Welcherlei Qualität die verwendeten Zahlen der anderen gut 50 Städte sind, wird nicht dokumentiert (UPDATE: einer der Autoren merkt an, dass bei der Visualisierung unter dem Punkt “Diagramm” per Mouseover Zusatzinfo pro Stadt zu finden sind).

Mit den Zahlen (hier als Tabelle), die alle als “Schätzungen” deklariert werden, wird auf einer Karte Effekthascherei betrieben: Mittels Kreise wird gezeigt, wo es pro 100.000 Einwohner am meisten Sexarbeitende geben soll. Hierbei wird ein klassischer Fehler gemacht: Der Kreisinhalt für Städte mit 150 bis 180 Sexarbeitende pro 100.000 EW ist knapp zehnmal geringer wie der  ein Zehntel von dem für Städte mit 220 bis 250 – bei also nicht einmal mehr als halb so großen Werten. Pi mal Daumen: Datenjournalismus zur Sexarbeit in Deutschland bei Welt Online weiterlesen

Verpasste Datenjournalismusthemen

Bildschirmfoto 2013-10-29 um 09.18.08“Verschwendungsatlas” des Bundes der Steuerzahler

Einen Monat nach der Bundestagswahl herrscht Ebbe in Sachen Datenjournalismus in Deutschland. Alle Energie (und Gelder) scheinen in die etlichen Visualisierungen und Datengeschichten zur Bundestagswahl geflossen zu sein.

So wird einmal mehr deutlich, dass es hierzulande bei Zeitungen und Nachrichtenportalen Teams bräuchte, die tages- oder zumindest wochenaktuellen Datenjournalismus machen könnten. Das wäre durchaus notwendig, denn an datenlastigen Themen mangelt es nicht; manche Dimension lässt sich eigentlich nur schlüssig mit Unterstützung einer Datenvisualisierung für die Rezipienten darstellen. Und der große Vorteil an entsprechend geplanten datenbankgetriebenen Apps ist: Sie können sich fortschreiben, mit neuen Zahlen füttern, wiederverwenden lassen.

Vier Beispiele: Verpasste Datenjournalismusthemen weiterlesen