Künstliche Intelligenz: gefährlich gut?
So viel Einigkeit gibt’s selten in der Wissenschaft: Ein neuer Textgenerator mit dem etwas sperrigen Namen GPT-3 gilt den meisten Forschern als Meilenstein auf dem Weg zur künstlichen Intelligenz. Dem System gelingt es verblüffend gut, sich auszudrücken wie ein Mensch. Es beantwortet Fragen, reißt Witze, zeigt bisweilen sogar philosophische Anwandlungen.
Entwickelt wurde die Sprach-KI vom kalifornischen Unternehmen OpenAI, das nun anderen anbietet, damit Produkte zu entwickeln. Mächtig ist GPT-3 nicht zuletzt dank seiner enormen Mengen an Trainingsdaten: Mehr als 175 Milliarden Parameter aus dem Internet haben die Entwickler als Anschauungsmaterial an ihr System verfüttert, darunter die gesamte Wikipedia, Google Books, Artikel von Nachrichten-Websites und vieles mehr. (Die Vorgängerversion, GPT-2, musste mit vergleichsweise spärlichen 1,5 Milliarden Parametern auskommen, also nicht mal einem Hundertstel der Datenmenge.)
Gespeist von dieser Fülle an Texten aus dem Internet, findet GPT-3 nun auf die meisten Fragen eine Antwort und kann obendrein Geschichten erfinden, Programmiercode ergänzen oder auch juristische Texte schreiben.
Das ist ein deutlicher Fortschritt gegenüber Alexa und Siri oder auch der Roboter-Dame Sophia, die (bisher) mit einem eher begrenzten Wortschatz zurechtkommen muss.
Vorurteile mitgelernt
Die beeindruckende Leistung von GPT-3 macht vielen aber auch Sorgen: Zum einen zeigt auch das neue Sprachmodell die altbekannten Schwächen selbst lernender Systeme – darunter eine besorgniserregende Neigung zu rassistischen und sexistischen Untertönen.
Der Grund liegt in der Arbeitsweise solcher Algorithmen: Die meisten KI-Systeme gewinnen ihre vermeintliche Intelligenz aus dem Verstärken oder Abschwächen von Signalen. Taucht in den Trainingsdaten das Wort „heiß“ besonders oft im Zusammenhang mit „Sonne“ auf, schließt die KI daraus, dass die Sonne heiß ist – ohne zu wissen, was Sonne oder Hitze bedeutet. Die Algorithmen erschließen sich die Welt einzig auf Basis von Wahrscheinlichkeitsrechnung.
Das funktioniert hervorragend, solange die Beispiele so harmlos sind wie bei Sonne und Hitze. Leider verbergen sich in den Trainingsdaten häufig auch gesellschaftliche Vorurteile, die dann von den Systemen aufgegriffen und verstärkt werden. Die vielfach ausgezeichnete KI-Forscherin Joy Buolamwini, Gründerin der Algorithmic Justice League, erklärt in ihrem sehenswerten DLD-Talk, welche Folgen das hat – unter anderem in der Berufswelt. Schließlich werden Bewerbungen auf Job-Angebote oft schon mithilfe von Algorithmen vorsortiert.
In ihrem Vortrag zeichnet Joy ein alarmierendes Bild der rassistischen, geschlechtsspezifischen und klassenbezogenen Vorurteile, die selbst die besten KI-Systeme in sich tragen. „Maschinen sind nicht fehlerfrei“, sagt sie. Vielmehr spiegelten sich in den Algorithmen die Werte ihrer Entwickler.
Ein weitere Sorge von Kritikern: Je besser Computer darin werden, automatisch Inhalte zu erzeugen, um so leichter fällt es, Fehlinformationen zu verbreiten.
Der kalifornische Student Liam Porr brauchte nur wenige Tage, um mit GPT-3 einen Blog zu erstellen, bei dem er lediglich die Überschrift und ein paar Stichworte zum Inhalt vorgeben muss. Den Rest erledigt die KI – und kaum einer seiner vielen tausend Besucher sei auf den Gedanken gekommen, automatisch erzeugte Texte zu lesen, berichtet Porr.
Massenhaft Fake News?
Wie sollen wir also künftig noch unseren Augen trauen, wenn vieles, was wir im Internet lesen, sehen oder hören, auch ein „Deep Fake“ sein könnte: ein manipuliertes Video, ein täuschend echt retuschiertes Foto oder ein komplett erfundener Nachrichten-Artikel – der glaubhaft wirkt, weil tausend andere Artikel auf ihn verweisen?
Mit KI-Systemen wie GPT-3 fällt es leicht, massenhaft manipulative Inhalte zu produzieren und sie über soziale Medien zu verbreiten. Ein naheliegender Anwendungsfall ist Wählermanipulation. Drei Monate vor den US-Präsidentschaftswahlen ein Problem von aktuer Bedeutung.
Eine Möglichkeit, Deep Fakes zu entlarven, zeigte Giorgio Patrini, CEO und Gründer der Amsterdamer Firma Deeptrace, in einer Präsentation auf der DLD-Konferenz in München: Deeptrace hat eigene KI-Systeme entwickelt, die darauf spezialisiert sind, Fälschungen zu entlarven.
Angesichts der Fülle an Desinformationen im Netz, glaubt er, hilft nur eins: mit einer gutartigen KI Jagd auf ihre bösartigen Verwandten zu machen.