"Es gibt kein Patentrezept"

Google vs. Fake News

Die objektive Wahrheit befindet sich seit dem Wahlsieg Donald Trumps in einer existenziellen Krise. Mit höchsten Weihen werden ­seitdem regelmäßig eindeutige Falschnachrichten als Wahrheit ausgegeben – und umgekehrt. Selbst Medienprofis sind verwirrt, und das normale Publikum noch mehr. Eine Herausforderung für Google, dessen Wert für den ­Nutzer auch davon abhängt, ob es falsche und irrelevante Suchergebnisse aussortieren kann.

Herr Bremer, Google will jetzt auch gegen Fake News ­angehen. Ist das bei der ­Masse nicht ein Kampf gegen ­Windmühlen?
Ralf Bremer: Mit Spam, also manipulierten Inhalten, die gezielt verbreitet werden sollen, musste Google schon immer umgehen. Dabei ging es den Spammern immer darum, den Suchalgorithmus auszutricksen. Und Google ging es darum, das zu verhindern. Unsere Ingenieure sind im Allgemeinen sehr erfolgreich dabei, schlechte Inhalte aus prominenten Plätzen der Suchergebnisse zu verdrängen. Im News-Bereich haben wir bereits 2015 die „First Draft Coalition“ mitgegründet, um mehr Faktenchecks durch Medienpartner zu ermöglichen.

Trotzdem gibt es ­immer ­wieder minderwertige ­Suchergebnisse.
Es gibt kein Patentrezept. Täglich kommen Zehntausende neue Webseiten hinzu, und die müssen erst einmal auffindbar gemacht werden. Natürlich kommt es dann auch vor, dass Ergebnisse auf Suchanfragen angezeigt werden, die nicht unseren Standards entsprechen. Wir gestehen Fehler ein und kümmern uns darum, dass das nicht mehr vorkommt –und wieder die relevanten Ergebnisse ­angezeigt werden.

Relevanz ist natürlich auch ein weiter Begriff. Googelt man zum Beispiel den Begriff ­„Masernimpfung“, ­findet man sehr weit vorne viele ­Seiten von Impfgegnern, die gegen jede wissenschaftliche Evidenz ­gefährliche Behauptungen ­verbreiten. Ist Google da ­ohnmächtig?
Zu dem Beispiel kann ich nichts sagen, es ist mir schlicht nicht geläufig. Aber natürlich ist unser Ziel, nicht nur relevante, sondern auch wissenschaftlich haltbare Seiten auf vorderen Plätzen anzuzeigen. Wenn das nicht so ist, ist das nicht richtig so.

Werden Suchanfragen bei ­Ihnen getestet?
Ja. Allein im zurückliegenden Jahr gab es 150.000 Suchexperimente, das resultierte in 1.600 Änderungen für bestimmte Suchanfragen. Der Google-Suchalgorithmus ist ein sehr komplexer. Die Häufigkeit von Klicks ist entgegen landläufiger Meinung nicht der bestimmende oder gar alleinige Faktor. Sehr wichtig ist zum Beispiel die Verlinkung von Seiten.

Kann ein Algorithmus es ­überhaupt leisten, Ergebnisse so zu gewichten, dass die ­guten oben und die schlechten unten ­stehen?
Wir versuchen, relevante Ergebnisse anzuzeigen, es ist weniger eine Frage nach „gut oder schlecht“. Eine demokratische Gesellschaft muss es auch aushalten, dass vielleicht unangenehme Meinungen im Netz kursieren und auffindbar sind. Bei uns muss das selbstverständlich im Rahmen unserer Richtlinien und natürlich der geltenden Gesetze erfolgen. Deshalb arbeiten wir ja ständig am Algorithmus und verbessern die Suchgenauigkeit. Es gibt Billionen von Suchanfragen und jeden Tag rund 15 Prozent an Suchkombinationen, die es vorher noch nie gab. Anders als mit einem Algorithmus kann man das gar nicht angehen.

Im Projekt „Owl“ ­setzen Sie aber auf ­zusätzliche ­Unter­stützung durch ­Menschen. Was ­genau ­passiert da?
Wir arbeiten ja schon lange mit Tes­tern zusammen, die verschiedene Seiten von ­Suchergebnissen vergleichen und dabei helfen, den Algorithmus zu verbessern. Die betreffenden Leitlinien, was minderwertige Ergebnisse sind, wurden nach den Entwicklungen der jüngeren Vergangenheit noch einmal angepasst. Außerdem haben Nutzer nun die Möglichkeit, unpassende Ergebnisse und Suchvorschläge zu melden. Zusätzlich werden Ergebnisse, die beispielsweise auf Grundlage von Religion, Rasse, Alter oder Geschlecht dis­kriminieren, möglichst aussortiert.

Es wird nicht immer leicht sein zu beurteilen, was minder­wertige Ergebnisse sind und was vielleicht noch gerade so im zulässigen ­Bereich liegt. Wie geht ­Google mit dieser Gratwanderung um?
Das kann keine exakte Wissenschaft sein, sondern immer eine Frage der Ab­wägung. Die jetzt eingeführte Feedbackfunktion für Google-Nutzer kann sicher ein ­wichtiger Baustein sein, solche Abwägungen besser treffen zu ­können.

Jedes Suchergebnis, egal wie gut es gefiltert ist, muss auch vom Suchenden ­richtig ­beurteilt werden. Wie ist Ihr Eindruck: ­Gelingt das den ­meisten?
Ich würde auf jeden Fall sagen, dass wir so weit wie möglich dabei unterstützen. Aber natürlich ist das auch eine Aufgabe, der sich die Gesellschaft stellen muss. Ohne Medienkompetenz wird es in Zukunft nicht gehen. Wir unterstützen zum Beispiel das Projekt „Calliope” der Bundesregierung, mit dem Grundschulkinder spielerisch ans Programmieren herangeführt werden.

Werden wir also alle ­kompetenter beim Erkennen von Fake News?
Es ist zumindest inzwischen Common Sense, dass das eine Aufgabe ist. Wir haben viel erreicht. Aber auch alle noch viel zu tun.

 

Was sind Fake News?

Fake News sind gefälschte Nachrichten. Nur von falschen Nachrichten zu sprechen, ließe die Intention des Verfassers außen vor: Es gibt Falschmeldungen, die auf Irrtum, Übereiltheit oder schlicht Dummheit fußen. Fake News sind jedoch mutwillig gefälschte Meldungen, beispielsweise wenn ein echter Artikel verlinkt wird und der Teaser reißerisch umgeschrieben wird. Es gibt mittlerweile zahlreiche Fake-Webseiten, die absichtlich falsche Informationen verbreiten. Algorithmen und Social Bots spielen eine zentrale Rolle bei der Verbreitung, wie auch die Posts, Likes und Retweets der Benutzer.

Was ist ein Algorithmus?

Ein Algorithmus ist eine programmierte Befehls- und Entscheidungsabfolge. Google entscheidet beispielsweise anhand eines Algorithmus, welche der unzähligen Treffer auf eine Suchanfrage auf den ersten Seiten angezeigt werden. Bei Facebook entscheiden Algorithmen über die Beiträge, die die Nutzer in ihrer ­Timeline sehen.

 

Dieser Beitrag erschien zuerst in der gedruckten Ausgabe EHRLICHKEIT. Das Heft können Sie hier bestellen.

Weitere Artikel