Google und Facebook zögern: die Angst vor dem Chatbot
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/7PMQCIBCNRFWBB5QWQOAWV3LG4.jpg)
ChatGPT ist der neuste KI-Chatbot der Stiftung OpenAI, die von Elon Musk und Microsoft finanziert wird.
© Quelle: Getty Images
Frankfurt am Main. Google oder der Facebook-Konzern Meta sind nicht gerade dafür bekannt, besonders zimperlich zu sein. Doch warum verhalten sie sich ausgerechnet beim Thema künstliche Intelligenz (KI) so zurückhaltend? Nicht einer der Hightech-Riesen hat ins Netz gestellt, was nun vielfach als das nächste große Ding gefeiert wird, sondern das Start-up OpenAI. Es geht um den Chatbot, der in wenigen Sekunden einen Aufsatz über das Wesen des Seins oder die Grundzüge des Historischen Materialismus verfertigen kann: ChatGPT.
KI kann tatsächlich segensreich sein, unendlich viel vereinfachen – heute sind es automatisch geschriebene Texte, morgen ist es vielleicht das Ausfüllen der Steuererklärung.
Google und Facebook erkennen die Gefahr
Doch Google und Facebook wissen auch, wie gefährlich das neue digitale Werkzeug sein kann. Es verändert die Suche im Netz grundlegend. Bislang erhielten die Nutzer und Nutzerinnen Listen von Webseiten. Nun können sie eine Frage eingeben und erhalten eine plausibel klingende Antwort. Nur: Ob sie stimmt, ist kaum überprüfbar. Die Inhalte werden aus Millionen Texten im Internet aggregiert.
Man stelle sich vor, über das Netz wird systematisch die Lüge verbreitet, dass der unbescholtene Herr Mustermann ein gewalttätiger Rechtsradikaler ist. Gut möglich, dass der Chatbot über Mustermann einen Text verfasst, der ihn als gewalttätigen Rechtsradikalen bezeichnet. Wer trägt die Verantwortung für solche Verleumdungen? Wer muss Schadensersatz zahlen? Deshalb die Vorsicht von Google und Co. Hier entsteht gerade ein neuer rechtsfreier Raum. Und diesmal darf es die Politik nicht verpennen – wie so häufig zuvor –, rechtzeitig klare, neue Regeln zu definieren. Denn nur so können die Potenziale der künstlichen Intelligenz genutzt werden.