Künstliche Intelligenz: Die Flut gefälschter Fakten
20.11.2023
KI-Experte Stefan Feuerriegel wirft einen Blick auf die Gefahr automatisierter Fake-News-Kampagnen und zeigt Möglichkeiten auf, wie man ihr begegnen kann.
20.11.2023
KI-Experte Stefan Feuerriegel wirft einen Blick auf die Gefahr automatisierter Fake-News-Kampagnen und zeigt Möglichkeiten auf, wie man ihr begegnen kann.
Professor Stefan Feuerriegel ist Leiter des Institute of Artificial Intelligence (AI) in Management der LMU und beschäftigt sich in seiner Forschung mit den Herausforderungen der Digitalisierungswelle. In einem kürzlich im Fachmagazin Nature Human Behaviour erschienenen Kommentar weist er auf die Gefahren hin, die durch KI-generierte Desinformation entstehen, und zeigt Wege auf, wie man diesen begegnen kann.
KI-Tools können inzwischen quasi auf Knopfdruck überzeugende Texte, Bilder, Stimmen und sogar Videos erzeugen. Können wir in Zukunft unseren Augen, unseren Ohren und unserem gesunden Menschenverstand überhaupt noch trauen?
Stefan Feuerriegel: Wie überzeugend solche künstlich erzeugten Inhalte sind, sieht man am Beispiel des Bildes von Papst Franziskus, das im Frühling viral ging. Bei diesem Bild konnte man als Laie kaum noch erkennen, ob das echt war. Solche Fälschungen konnten begabte Grafikerinnen und Grafiker natürlich auch früher schon erstellen, aber in diesem Fall war es eine Person, die auf die Schnelle Dutzende Versionen dieses Fotos produziert hat. Das hat gezeigt, was mittlerweile ganz einfach und ohne besondere Fähigkeiten möglich ist. Aktuell kriegen die KIs einzelne Details noch nicht so ganz hin, der Hintergrund stimmt manchmal nicht ganz, Hände tendieren noch dazu, zu viele oder zu wenige Finger zu haben. Aber die Technologie wird ja auf Hochtouren weiterentwickelt und optimiert. In den nächsten Monaten wird das schon ganz anders aussehen.
Was mach KI-generierte Fake News besonders gefährlich?
Leider sind die Fakes mit fehlerfreien Texten und authentischen Bildern inzwischen nicht nur sehr überzeugend, sondern man kann die Fehlinformationen dank KI auch personalisieren und individuell auf die Religion, das Geschlecht oder die politische Gesinnung der einzelnen Konsumenten abstimmen und in jeder Zielgruppe Hass oder Wut säen. Man kann einen Bot bauen, der nicht mehr einfach nur eine Nachricht postet, sondern ganz persönlich auf Facebook oder Twitter Menschen anschreibt und sogar auf Antworten reagiert und Unterhaltungen führt. Das geht bis hin zu Fake-Anrufen, bei denen man gezielt eine Stimme generiert, die so klingt wie ein Familienmitglied.
Wenn man mit Tippfehlersuchen und Fingerzählen bald nicht mehr weiterkommt: Was sind die Anhaltspunkte, anhand derer wir die Fakes erkennen können?
Allein anhand des Inhalts gibt es keine. Oder zumindest bald nicht mehr. Entweder man verlässt sich darauf, dass man bestimmten Quellen vertrauen kann, oder man muss unabhängig recherchieren. Wobei Faktenfälscher natürlich auch mit KI erstellte Webseiten und Quellen platzieren können. In sozialen Netzwerken sind die Bilder außerdem so klein, dass man solche Fehler gar nicht mehr erkennen kann. Es kursieren Bilder und Videos im Netz, bei denen aufgrund der geringen Auflösung nicht mehr eindeutig geprüft werden kann, ob sie echt sind oder gefälscht. Das macht es schwer, Fehlinformation von echten Inhalten zu unterscheiden. Bei kriegerischen Konflikten spielen die Macht von Bildern und die Bedeutung der sozialen Medien zum Beispiel eine große Rolle und können eine immense politische Sprengkraft entwickeln. Auch in diesem Kontext sehen wir neben herkömmlichen Fakes bereits den Einsatz von KI-generiertem Material.
Treten wir gerade in ein neues Zeitalter der Desinformation ein?
Viele meiner Kolleginnen und Kollegen sagen, wir leben eigentlich schon in Zeiten von Fake News. Das Problem wird sich verschärfen. Die entscheidende Frage ist, wer nutzt diese neuen Möglichkeiten? Ich habe weniger Sorge, dass irgendjemand privat mit ChatGPT oder DALL·E Fehlinformationen streut. Der- oder diejenige hat selten die Reichweite und auch meist kein Interesse daran, einen großen Einfluss damit auszuüben. Wir müssen stattdessen auf die Akteure schauen, die diese Tools für großangelegte Desinformationskampagnen nutzen, sie gezielt kalibrieren oder sogar eigene Tools entwickeln, die keine eingebauten Sicherheitsmechanismen besitzen.
Das Problem ist vielen leider noch nicht bewusst. Wir wissen zwar, dass KI jetzt schöne Texte und Bilder produzieren kann, aber haben noch nicht auf dem Schirm, wie diese Technologie missbraucht werden kann.Stefan Feuerriegel
Wirklich gefährlich wird es, wenn die großen Player ins Spiel kommen, vielleicht sogar ein staatlicher Akteur mit einer gewissen politischen Agenda, in einem nicht demokratischen Staat. Im Rahmen des russischen Überfalls auf die Ukraine sehen wir, dass ein großer Aufwand für prorussische Propaganda betrieben wird. Wieso sollten die dafür Verantwortlichen nicht auch mit den neuen Tools arbeiten, wenn die es ermöglichen, schneller zu reagieren und authentisch wirkende Inhalte in viel größeren Dimensionen zu produzieren? Es wäre naiv zu glauben, dass diese Möglichkeit nicht genutzt wird.
Kommen die Fact Checker da überhaupt noch hinterher?
Wir wissen, dass menschliche Fact Checker bis zu 24 Stunden brauchen, um eine Nachricht zu prüfen. In dieser Zeit kann sie längst viral gegangen sein. Gerade bei aktuellen Krisen ist das rechtzeitige Eindämmen von Fehlinformationen eine immense Herausforderung. Facebook und Twitter nutzen inzwischen generative KI, um Fake News automatisiert zu identifizieren. Momentan wird auch der Einsatz sogenannter Wasserzeichen diskutiert, anhand derer Plattformen KI-generierte Inhalte erkennen und rausfiltern können. Dafür müssen die Plattformen mitspielen. Es bringt nichts, wenn Twitter diese Möglichkeit nutzt, die Fehlinformation dann aber auf WhatsApp viral geht. Es kann außerdem immer noch Akteure geben, die sich nicht daran halten und ihre eigene KI ohne Wasserzeichen programmieren.
Wie kann man der Flut an KI-Fehlinformationen begegnen?
Ich persönlich bin noch viel vorsichtiger geworden bei den Inhalten, die ich konsumiere. Wir müssen viel mehr aufpassen, was wir lesen, gerade in den sozialen Netzwerken. Das Problem ist vielen leider noch nicht bewusst. Wir wissen zwar, dass KI jetzt schöne Texte und Bilder produzieren kann, aber haben noch nicht auf dem Schirm, wie diese Technologie missbraucht werden kann.
Die Plattformen müssen in die Pflicht genommen werden, sie sitzen an der Quelle der Informationen. Wir Nutzerinnen und Nutzer sehen nur die Posts, aber die Plattformen sehen, ob im Hintergrund irgendein Computerprogramm diese Inhalte sendet oder ein echter Mensch dahintersteckt. Die Betreiber der Netzwerke können zudem ihre Mitglieder daran erinnern, Informationen kritisch zu hinterfragen und zu überprüfen. Plattformen könnten auch viel mehr tun, um Fake News herauszufiltern – einige bemühen sich, andere weniger.
Wir brauchen Trainings zu Medienkompetenz und Digital Literacy, die Desinformationen durch KI berücksichtigen und sich stetig mit dem technischen Fortschritt weiterentwickeln.Stefan Feuerriegel
Als zweites Standbein müssen wir jeden Einzelnen und die breite Öffentlichkeit informieren und vorbereiten. Wir brauchen Trainings zu Medienkompetenz und Digital Literacy, die Desinformationen durch KI berücksichtigen und sich stetig mit dem technischen Fortschritt weiterentwickeln.
Und dann stellt sich drittens die Frage, was die Politik tun sollte und wie viel Regulierung sinnvoll ist. Das ist ein heikles Thema, weil Reibungspunkte mit dem Recht auf Meinungsfreiheit entstehen können. KI steht auch im EU-Parlament mittlerweile ganz oben auf der Tagesordnung. Ich glaube, wir können relativ zügig gute Lösungen erarbeiten, was regulatorische Rahmenbedingungen angeht.
Sind wir gewappnet für das, was auf uns zukommt? Wo ist die Forschung gefragt?
Nein, wir sind nicht ausreichend vorbereitet. Wir haben es mit einer neuen Technologie zu tun, die wir besser verstehen müssen, und da braucht es viel mehr Grundlagenforschung. Zum Glück wird, nicht zuletzt an der LMU, stark in dem Bereich geforscht. Die Linguistik, die Soziologie, die Politikwissenschaften und viele weitere Disziplinen beschäftigen sich mit diesem komplexen Themenbereich. Die Verhaltenswissenschaften arbeiten daran, überhaupt erst einmal zu verstehen, wie Menschen auf solche künstlich generierten Informationen reagieren. Die Rechtsfakultät beschäftigt sich mit den rechtlichen Hürden und balanciert das hohe Gut der Meinungsfreiheit mit lösungsorientierten, umsetzbaren Ansätzen aus. Die Informatik muss herausfinden, was technologisch überhaupt machbar ist. Wir haben hier ein interdisziplinäres Umfeld, wo viele Forschungsbereiche gemeinsam eine Forschungsagenda entwickeln.
Stefan Feuerriegel, Renée DiResta, Josh A. Goldstein, Srijan Kumar, Philipp Lorenz-Spreen, Michael Tomz & Nicolas Pröllochs: Research can help to tackle AI-generated disinformation. Nature Human Behaviour 2023