Navigation überspringen
article cover
David Hanson, Gründer von Hanson Robotics, präsentiert den Roboter „Sophia“

Künstliche Intelligenz: gefährlich gut?

So viel Einigkeit gibt’s selten in der Wissenschaft: Ein neuer Textgenerator mit dem etwas sperrigen Namen GPT-3 gilt den meisten Forschern als Meilenstein auf dem Weg zur künstlichen Intelligenz. Dem System gelingt es verblüffend gut, sich auszudrücken wie ein Mensch. Es beantwortet Fragen, reißt Witze, zeigt bisweilen sogar philosophische Anwandlungen.

Entwickelt wurde die Sprach-KI vom kalifornischen Unternehmen OpenAI, das nun anderen anbietet, damit Produkte zu entwickeln. Mächtig ist GPT-3 nicht zuletzt dank seiner enormen Mengen an Trainingsdaten: Mehr als 175 Milliarden Parameter aus dem Internet haben die Entwickler als Anschauungsmaterial an ihr System verfüttert, darunter die gesamte Wikipedia, Google Books, Artikel von Nachrichten-Websites und vieles mehr. (Die Vorgängerversion, GPT-2, musste mit vergleichsweise spärlichen 1,5 Milliarden Parametern auskommen, also nicht mal einem Hundertstel der Datenmenge.)

Gespeist von dieser Fülle an Texten aus dem Internet, findet GPT-3 nun auf die meisten Fragen eine Antwort und kann obendrein Geschichten erfinden, Programmiercode ergänzen oder auch juristische Texte schreiben.

Das ist ein deutlicher Fortschritt gegenüber Alexa und Siri oder auch der Roboter-Dame Sophia, die (bisher) mit einem eher begrenzten Wortschatz zurechtkommen muss.

Vorurteile mitgelernt

Die beeindruckende Leistung von GPT-3 macht vielen aber auch Sorgen: Zum einen zeigt auch das neue Sprachmodell die altbekannten Schwächen selbst lernender Systeme – darunter eine besorgniserregende Neigung zu rassistischen und sexistischen Untertönen.

Der Grund liegt in der Arbeitsweise solcher Algorithmen: Die meisten KI-Systeme gewinnen ihre vermeintliche Intelligenz aus dem Verstärken oder Abschwächen von Signalen. Taucht in den Trainingsdaten das Wort „heiß“ besonders oft im Zusammenhang mit „Sonne“ auf, schließt die KI daraus, dass die Sonne heiß ist – ohne zu wissen, was Sonne oder Hitze bedeutet. Die Algorithmen erschließen sich die Welt einzig auf Basis von Wahrscheinlichkeitsrechnung.

Das funktioniert hervorragend, solange die Beispiele so harmlos sind wie bei Sonne und Hitze. Leider verbergen sich in den Trainingsdaten häufig auch gesellschaftliche Vorurteile, die dann von den Systemen aufgegriffen und verstärkt werden. Die vielfach ausgezeichnete KI-Forscherin Joy Buolamwini, Gründerin der Algorithmic Justice League, erklärt in ihrem sehenswerten DLD-Talk, welche Folgen das hat – unter anderem in der Berufswelt. Schließlich werden Bewerbungen auf Job-Angebote oft schon mithilfe von Algorithmen vorsortiert.

Das Video zum Vortrag von Joy Buolamwini auf DLD News
Das Video zum Vortrag von Joy Buolamwini auf DLD News

In ihrem Vortrag zeichnet Joy ein alarmierendes Bild der rassistischen, geschlechtsspezifischen und klassenbezogenen Vorurteile, die selbst die besten KI-Systeme in sich tragen. „Maschinen sind nicht fehlerfrei“, sagt sie. Vielmehr spiegelten sich in den Algorithmen die Werte ihrer Entwickler.

Ein weitere Sorge von Kritikern: Je besser Computer darin werden, automatisch Inhalte zu erzeugen, um so leichter fällt es, Fehlinformationen zu verbreiten.

Der kalifornische Student Liam Porr brauchte nur wenige Tage, um mit GPT-3 einen Blog zu erstellen, bei dem er lediglich die Überschrift und ein paar Stichworte zum Inhalt vorgeben muss. Den Rest erledigt die KI – und kaum einer seiner vielen tausend Besucher sei auf den Gedanken gekommen, automatisch erzeugte Texte zu lesen, berichtet Porr.

Massenhaft Fake News?

Wie sollen wir also künftig noch unseren Augen trauen, wenn vieles, was wir im Internet lesen, sehen oder hören, auch ein „Deep Fake“ sein könnte: ein manipuliertes Video, ein täuschend echt retuschiertes Foto oder ein komplett erfundener Nachrichten-Artikel – der glaubhaft wirkt, weil tausend andere Artikel auf ihn verweisen?

Mit KI-Systemen wie GPT-3 fällt es leicht, massenhaft manipulative Inhalte zu produzieren und sie über soziale Medien zu verbreiten. Ein naheliegender Anwendungsfall ist Wählermanipulation. Drei Monate vor den US-Präsidentschaftswahlen ein Problem von aktuer Bedeutung.

Eine Möglichkeit, Deep Fakes zu entlarven, zeigte Giorgio Patrini, CEO und Gründer der Amsterdamer Firma Deeptrace, in einer Präsentation auf der DLD-Konferenz in München: Deeptrace hat eigene KI-Systeme entwickelt, die darauf spezialisiert sind, Fälschungen zu entlarven.

Angesichts der Fülle an Desinformationen im Netz, glaubt er, hilft nur eins: mit einer gutartigen KI Jagd auf ihre bösartigen Verwandten zu machen.

Den Vortrag von „Fake News“-Jäger Giorgio Patrini gibt’s als Video auf DLD News zu sehen
Den Vortrag von „Fake News“-Jäger Giorgio Patrini gibt’s als Video auf DLD News zu sehen

DLD schreibt über EUROPE'S LEADING DIGITAL INNOVATION CONFERENCE

DLD (Digital, Life, Design) is a prominent conference that explores the transformative effects of the digital age on life, society, and business. Founded in 2005, DLD began as a small gathering and has since evolved into a globally recognized platform connecting influential thinkers, innovators, and leaders. The conference is known for bridging diverse ideas and inspiring change through groundbreaking concepts and role models. The 2018 event takes place in Munich, featuring 150 top speakers and 800 select attendees. Past guests include Mark Zuckerberg, Sheryl Sandberg, and Eric Schmidt, as well as cultural icons like Lady Gaga. DLD is a key event in the tech and media landscape and is part of Hubert Burda Media, Germany’s leading publishing house. The conference generates significant media coverage, creating billions of quality contacts annually.

Artikelsammlung ansehen