©Getty Images

KI-Chatbots sind keine Therapeuten mit Schweigepflicht, sondern ein Albtraum für den Datenschutz

Von durchgesickerten Chats bis hin zur unbefugten Datenspeicherung – KI-Chatbots, so hilfreich und sachkundig sie auch erscheinen mögen, sind keine Anwälte oder enge Vertraute.

KI-Chatbots wie ChatGPT, Gemini und Grok werden zunehmend in den Alltag integriert.

Interessanterweise zeigen aktuelle Untersuchungen, dass sie heute am häufigsten für Therapien genutzt werden und dass Menschen sich oft sicher fühlen, Themen zu besprechen, über die sie mit anderen Menschen nicht gerne sprechen würden.

Vom Verfassen von Bewerbungen über die Recherche zu rechtlichen Fragen bis hin zur Besprechung intimer medizinischer Details – ein wahrgenommener Vorteil dieser Tools ist, dass die Menschen davon ausgehen, dass ihre Gespräche privat bleiben.

Aus geschäftlicher Sicht haben sie sich als leistungsstarke Werkzeuge für die Ausarbeitung von Richtlinien, die Festlegung von Strategien und die Analyse von Unternehmensdaten bewährt.

Auch wenn wir uns beim Chatten relativ anonym fühlen mögen, ist es wichtig, sich daran zu erinnern,  dass Chatbots nicht denselben Vertraulichkeitsregeln unterliegen wie Ärzte, Anwälte, Therapeuten oder Mitarbeiter von Organisationen. 

Wenn Sicherheitsvorkehrungen versagen oder Menschen sie nutzen, ohne die Auswirkungen vollständig zu verstehen, können sogar sehr sensible und potenziell schädliche Informationen offengelegt werden.

Leider ist dieses Risiko nicht nur hypothetisch. Aktuelle Nachrichtenberichte zeigen mehrere Vorfälle, bei denen es bereits zu solchen Datenlecks gekommen ist.

Dies wirft eine beunruhigende Frage auf: Könnten wir ohne ein grundlegendes Umdenken hinsichtlich der Nutzung, Regulierung und Sicherung generativer KI-Dienste auf eine Katastrophe im Bereich des Datenschutzes zusteuern?

Was sind also die Risiken, welche Maßnahmen können wir ergreifen, um uns zu schützen, und wie sollte die Gesellschaft auf diese ernsthafte und wachsende Bedrohung reagieren?

Wie bedrohen Chatbots und generative KI die Privatsphäre?

Es gibt mehrere Möglichkeiten, wie Informationen, von denen wir vernünftigerweise erwarten können, dass sie geschützt sind, offengelegt werden können, wenn wir zu viel Vertrauen in KI setzen.

Die jüngsten „Lecks” bei ChatGPT traten beispielsweise Berichten zufolge auf, als Nutzer nicht bemerkten, dass die „Teilen”-Funktion den Inhalt ihrer Unterhaltungen im öffentlichen Internet sichtbar machen konnte.

Die Freigabefunktion soll es Nutzern ermöglichen, an gemeinsamen Chats mit anderen Nutzern teilzunehmen. In einigen Fällen führte dies jedoch dazu, dass diese Chats auch von Suchmaschinen indexiert und durchsuchbar wurden. Zu den Informationen, die auf diese Weise versehentlich veröffentlicht wurden, gehörten Namen und E-Mail-Adressen, sodass die Teilnehmer des Chats identifiziert werden konnten.

Kürzlich wurde außerdem bekannt, dass bis zu 300.000 Chats zwischen Nutzern und dem Grok-Chatbot auf die gleiche Weise indexiert und öffentlich sichtbar gemacht worden waren.

Während diese Probleme offenbar auf Missverständnisse der Nutzer hinsichtlich der Funktionen zurückzuführen sind, sind andere, schwerwiegendere Sicherheitslücken aufgetreten. In einem Fall stellten Sicherheitsforscher fest, dass der Chatbot „Lena” von Lenovo durch böswillige Eingaben dazu „verleitet” werden konnte, Cookie-Sitzungsdaten weiterzugeben, wodurch Zugriff auf Benutzerkonten und Chat-Protokolle möglich wurde.

Neben Chat-Protokollen gibt es noch andere Möglichkeiten, wie die Privatsphäre verletzt werden kann. Es wurden bereits Bedenken hinsichtlich der Gefahren von Nudification-Apps geäußert, mit denen pornografische Bilder von Personen ohne deren Zustimmung erstellt werden können. Ein aktueller Vorfall deutet jedoch darauf hin, dass dies sogar ohne die Absicht des Benutzers geschehen kann. Der neue „Spicy”-Modus von Grok AI soll explizite Bilder von realen Personen generiert haben, ohne dass dies überhaupt angefordert wurde.

Die Sorge ist, dass es sich hierbei nicht um einfache, einmalige Pannen handelt, sondern um systemische Mängel in der Art und Weise, wie generative Tools entworfen und gebaut werden, sowie um einen Mangel an Verantwortlichkeit für das Verhalten von KI-Algorithmen.

Warum ist dies eine ernsthafte Bedrohung für die Privatsphäre?

Es gibt viele Faktoren, die dazu beitragen können, dass unsere privaten Gespräche, Gedanken und sogar medizinischen oder finanziellen Informationen auf eine Weise offengelegt werden, die wir nicht beabsichtigen.

Einige sind psychologischer Natur – beispielsweise wenn das Gefühl der Anonymität, das wir empfinden, wenn wir private Details unseres Lebens besprechen, uns dazu veranlasst, zu viel preiszugeben, ohne über die Konsequenzen nachzudenken.

Das bedeutet, dass große Mengen hochsensibler Informationen auf Servern gespeichert werden könnten, die nicht denselben Schutzmaßnahmen unterliegen, wie sie im Umgang mit Ärzten, Anwälten oder Paartherapeuten gelten sollten.

Wenn diese Informationen durch Hacker oder unzureichende Sicherheitsprotokolle kompromittiert werden, kann dies zu Peinlichkeiten, Erpressungs- oder Cyberbetrugsrisiken oder rechtlichen Konsequenzen führen.

Eine weitere wachsende Sorge, die zu diesem Risiko beitragen könnte, ist die zunehmende Verwendung von Schatten-KI. Dieser Begriff bezieht sich auf Mitarbeiter, die KI inoffiziell außerhalb der Nutzungsrichtlinien und -vorgaben ihres Unternehmens einsetzen.

Finanzberichte, Kundendaten oder vertrauliche Geschäftsinformationen können auf eine Weise hochgeladen werden, die offizielle Sicherheits- und KI-Richtlinien umgeht und oft die Sicherheitsvorkehrungen zur Gewährleistung der Informationssicherheit neutralisiert.

In stark regulierten Branchen wie dem Gesundheitswesen, dem Finanzwesen und dem Rechtswesen glauben viele, dass dies ein Albtraum für den Datenschutz ist, der nur darauf wartet, wahr zu werden.

Was können wir also dagegen tun?

Zunächst einmal ist es wichtig, sich bewusst zu machen, dass KI-Chatbots, so hilfreich und sachkundig sie auch erscheinen mögen, keine Therapeuten, Anwälte oder enge und vertrauenswürdige Vertraute sind.

Unter den gegenwärtigen Umständen lautet die goldene Regel einfach, niemals etwas mit ihnen zu teilen, was wir nicht auch öffentlich posten würden.

Das bedeutet, dass wir keine Einzelheiten über unsere Krankengeschichte, unsere finanziellen Aktivitäten oder personenbezogene Daten preisgeben sollten.

Denken Sie daran: Auch wenn es sich wie ein persönliches Gespräch in einer privaten Umgebung anfühlt, ist es sehr wahrscheinlich, dass jedes Wort gespeichert wird und auf die eine oder andere Weise an die Öffentlichkeit gelangt.

Dies gilt insbesondere für ChatGPT, da OpenAI zum Zeitpunkt der Erstellung dieses Artikels aufgrund einer Anordnung eines US-Bundesgerichts verpflichtet ist, alle Unterhaltungen zu speichern, selbst solche, die von Nutzern gelöscht oder im temporären Chat-Modus geführt wurden. 

Für Unternehmen und Organisationen sind die Risiken sogar noch größer. Alle Unternehmen sollten über Verfahren und Richtlinien verfügen, um sicherzustellen, dass sich jeder der Risiken bewusst ist, und um die Praxis der „Schatten-KI” so weit wie möglich zu unterbinden.

Um die Risiken zu minimieren, müssen regelmäßige Schulungen, Audits und Richtlinienüberprüfungen durchgeführt werden.

Darüber hinaus sind die Risiken für die Privatsphäre von Privatpersonen und Unternehmen, die sich aus der unvorhersehbaren Art und Weise ergeben, wie Chatbots unsere Daten speichern und verarbeiten, Herausforderungen, denen sich die Gesellschaft insgesamt stellen muss.

Die Erfahrung lehrt uns, dass wir von Technologiegiganten wie OpenAI, Microsoft und Google nichts anderes erwarten können, als dass sie in ihrem Wettlauf um die Markteinführung neuer Tools und Funktionen vor allem auf eine schnelle Bereitstellung setzen.

Die Frage ist nicht nur, ob Chatbots heute unsere Geheimnisse sicher aufbewahren können, sondern auch, ob sie dies morgen und in Zukunft weiterhin tun werden. Klar ist, dass unser Vertrauen in Chatbots schneller wächst als unsere Fähigkeit, deren Datenschutz zu gewährleisten.

 

 

 

 

Bernard Marr schreibt über Internet & Technologie, Wirtschaft & Management, Künstliche Intelligenz, Zukunftstrends

Bernard Marr ist ein internationaler Bestsellerautor, gefragter Keynote-Redner, Futurist sowie Strategie- und Technologie Berater zu Topunternehmen. Herr Marr ist der Autor von 18 Büchern, scheibt eine Kolumne für Forbes, und ist ein Sozialen Medien Influencer mit über 2 Millionen Followern.

Artikelsammlung ansehen