„Fake News”: digitale Bildung festigt die Demokratie

Shutter­stock /​ Georgejmclittle

Das Phänomen der Fake News könnte sich in Zukunft noch verstärken. Ändern lasse sich das kaum, meint Alexandra Borchardt. Deshalb seien Kampagnen zur digitalen Mündigkeit mindestens so notwendig wie einst jene zur Alpha­be­ti­sierung. Finnland mache vor, wie das geht.

Für dieje­nigen, die mit der rasanten Verbreitung von „Fake News“ das Ende der Demokratie heran­nahen sehen, dürfte 2020 ein beunru­hi­gendes Jahr werden. Die Wahlen in den USA und ein Amtsent­he­bungs­ver­fahren gegen den amtie­renden Präsi­denten Donald Trump stehen an, beides wird das Land weiter polari­sieren und die Bürger eher empfäng­licher für Lügen und allerlei Verschwö­rungs­theorien machen. Erfah­rungs­gemäß schwappen die Debatten darüber ungebremst über den Atlantik. In Großbri­tannien wurde schon gewählt, und wenngleich selbst hartge­sottene Digital-Pessi­misten sich schwer damit tun sollten, das klare Votum für Premier Boris Johnson und gegen Labour-Heraus­for­derer Jeremy Corbyn der Aktivität von Troll­fa­briken oder ähnlichem zuzuschreiben, gehörten Falsch­in­for­ma­tionen und die Debatte darum im Wahlkampf zum perma­nenten Grund­rau­schen. Wie sehr müssen wir uns also fürchten?

Man könnte sagen: sehr. Und genau darin liegt eine Chance. Die Verbreitung von „Fake News“ und die Debatte darüber müssen ein Anlass dafür sein, Bürger im großen Stil fit für die neue Kommu­ni­ka­tions-Welt zu machen. Kampagnen zur digitalen Mündigkeit sind mindestens so notwendig wie einst jene zur Alpha­be­ti­sierung, die die Menschen fit für die Welt des gedruckten Wortes und die Demokra­ti­sierung möglich gemacht haben. 

Portrait von Alexandra Borchardt

Alexandra Borchardt ist Journa­listin und Autorin von ‚Mehr Wahrheit wagen – Warum die Demokratie einen starken Journa­lismus braucht‘

Gleich vorweg: Das Phänomen der Falsch­in­for­mation als solches wird nicht nur bleiben, es wird sich verstärken. Künst­liche Intel­ligenz ermög­licht es schon jetzt selbst Laien, für wenig Geld sogenannte deep fakes zu kreieren, also zum Beispiel täuschend echt wirkende Videos von Politikern mit entspre­chenden Tonspuren zu basteln. Und die techni­schen Möglich­keiten dafür verbessern sich schneller als die Werkzeuge, um den Verur­sa­chern das Handwerk zu legen. Hacker und Geheim­dienste in aller Welt werden dies aus verschie­densten Motiven heraus zu nutzen wissen. Die Produk­ti­ons­seite lässt sich also kaum in den Griff bekommen.

Algorithmen anpassen

Etwas besser stehen die Chancen dafür, das Übel auf Seiten der Verteiler zu bekämpfen. Die Plattform-Konzerne haben die Infor­ma­tionen bislang weitgehend ungeprüft und nur nach kommer­zi­ellen Kriterien gewichtet in die Welt geblasen. Sie könnten eben diese Gewichtung ändern, sprich, ihre Algorithmen anpassen und Nachrichten von vertrau­ens­wür­digen Quellen höher bewerten als jene von unbekannten oder gar erwie­se­ner­maßen zweifel­haften. Der Müll würde so zwar nicht aus dem Netz verschwinden aber weniger sichtbar und damit auch seltener geteilt werden.

Die Journalism Trust Initiative, initiiert und getragen von der Organi­sation Reporter ohne Grenzen, der European Broad­casting Union und anderen namhaften Medien-Insti­tu­tionen, hat hier wichtige Vorarbeit geleistet. Nun müssen die Konzerne das Übel auch anpacken wollen, notfalls unter mehr oder weniger sanftem Druck von Regulie­rung­be­hörden. Hier liegt zugegeben ein Risiko, denn Regulierer könnten sich auf diese Weise auch dem Einfluss kriti­scher Stimmen entle­digen. Man möchte weder einem Donald Trump noch einem Viktor Orban das Privileg zubil­ligen, über die Qualität von Journa­lismus zu urteilen. Dies sollte Gremien überlassen bleiben, die sich der Neutra­lität und Fakten­treue verschrieben haben.

Am wichtigsten ist es aller­dings, bei den Empfängern anzusetzen. Bislang wissen nur die wenigsten Bürger, nach welchen Kriterien Inhalte im Netz verteilt werden und an ihre Adres­saten gelangen, wer Zugang zu diesen Kanälen hat und wie leicht sich erlogene aber täuschend echt wirkende Infor­ma­tionen erstellen lassen. Auch über die Besitz­ver­hält­nisse der digitalen Infra­struktur sind eher nur die Fachleute infor­miert. Zumindest kann nicht voraus­ge­setzt werden, dass jedem Nutzer klar ist, dass hinter der Kurzvideo-Plattform TikTok ein chine­si­scher Konzern steckt. Davon abgesehen, dass auch dieje­nigen, die es wissen, mit TikTok arbeiten oder es nutzen – aus Spaß, oder weil man damit eben viele Kunden erreicht.

„Finnland ist winning the war“

Noch am ehesten kann voraus­ge­setzt werden, dass das Publikum zumindest Grund­kennt­nisse darüber hat, wie Journa­lismus funktio­niert. Dass sich Reporter und Redak­teure im Normalfall an ethische und handwerk­liche Regeln gebunden fühlen – Beispiele sind das Vier-Augen-Prinzip und das Einholen mehrerer Quellen – haben viele Bürger schon gehört, auch wenn sie es nicht immer glauben. Und ein Großteil der Bevöl­kerung verlässt sich eher auf etablierte Marken wie die „Tages­schau“, Sender wie die BBC oder auf ihre Lokal­zeitung als auf zweifel­hafte „Experten“, die manch ein Facebook-Beitrag nach oben schwemmt. Das lässt sich aus Medien­konsum-Studien wie dem Digital News Report ablesen.

Aber all das ist keine Selbst­ver­ständ­lichkeit. Aufklärung tut also Not. Bislang funktio­niert das am besten in der jungen Generation. Junge Leute betrachten „Fake News“ eher als Beläs­tigung denn als echte Gefahr. Viele von ihnen haben gelernt, sich durch die Abgründe des Internets zu navigieren – um den Preis, dass sie allen Infor­ma­tionen mit größerer Skepsis begegnen als die älteren Genera­tionen, inklusive dem Quali­täts­jour­na­lismus. Sie bringen sich das gegen­seitig bei oder lernen es in der Schule, wo es natürlich die beste Infra­struktur für digitale Bildung gibt.

Anders geht es den Älteren. Sie sind einer­seits anfäl­liger für Falsch­mel­dungen, weil sie weniger über die Online-Welt wissen, anderer­seits aber auch verletz­licher, weil sie gezielt von Algorithmen als mutmaßlich leichte Beute angesteuert werden. Es ist erwiesen, dass Senioren sehr viel häufiger Falsch­mel­dungen bekommen und teilen als ihre Enkel. Bildungs­pro­gramme für dieje­nigen, die Schule und Univer­sität bereits verlassen haben, sind also existen­tiell, wenn einem der aufge­klärte Umgang der Bevöl­kerung mit der Kommu­ni­ka­tions- und Infor­ma­ti­ons­in­fra­struktur am Herzen liegt. Dies sollte und muss in allen Demokratien der Fall sein. Am Beispiel Finnland lässt sich ablesen, dass das recht ordentlich funktio­nieren kann. Eine 2014 begonnene Aufklä­rungs­kam­pagne über „Fake News“ war so erfolg­reich, dass CNN in einem Feature bereits trium­phierte: „Finnland is winning the war on fake news“. Selbst aus Singapur seien Regie­rungs­ver­treter angereist, um das Erfolgs­rezept zu kopieren. Aber auch anderswo gibt es gute Initia­tiven für genera­tio­nen­über­grei­fende digitale Bildung, zum Beispiel in Tsche­chien.

Dort, wo diese Aufklärung nicht existiert, ist die Wahrschein­lichkeit groß, dass Regie­rungen gar kein Interesse an der digitalen Mündigkeit ihrer Bürger haben. Eine verwirrte Öffent­lichkeit ist anfäl­liger für einfache, populis­tische Inter­pre­ta­tionen der Lage, eine kritische Presse und unange­nehme Fakten stören so manch einen Amtsträger nur. Digitale Bildung darf deshalb nicht nur in der öffent­lichen Hand liegen. Wer dazu beiträgt, dient der Demokratie. Unabhängige Medien zum Beispiel können gar nicht genug dafür tun.

Textende

Slider zum Einfügen zwischen zwei Textbereiche

Optionale einzeilige Bildun­ter­schrift. Zum Abschalten Layer #2 und #3 ausblenden

Hat Ihnen unser Beitrag gefallen? Dann spenden Sie doch einfach und bequem über unser Spendentool. Sie unter­stützen damit die publi­zis­tische Arbeit von LibMod.

Wir sind als gemein­nützig anerkannt, entspre­chend sind Spenden steuerlich absetzbar. Für eine Spenden­be­schei­nigung (nötig bei einem Betrag über 200 EUR), senden Sie Ihre Adress­daten bitte an finanzen@libmod.de

 

Verwandte Themen

Newsletter bestellen

Mit dem LibMod-Newsletter erhalten Sie regel­mäßig Neuig­keiten zu unseren Themen in Ihr Postfach.

Mit unseren Daten­schutz­be­stim­mungen
erklären Sie sich einverstanden.