Wir werden in Zukunft sehr viel mit Chatbots zu tun haben. Darauf sollten wir uns jetzt schon einmal einstellen. Erst letzte Woche hat das KI-Unternehmen OpenAI personalisierbare Varianten ihres beliebten Chatbots ChatGPT angekündigt. Bald kann man ohne Informatikkenntnisse eigene Chatbots für spezifische Aufgaben trainieren. Auch unsere Suchmaschinen werden zu Chatbots. Google arbeitet gerade daran und Bing hat es schon durchgezogen. Chatbots hier, Chatbots da, Chatbots überall.

In den letzten beiden Kolumnen bin ich den Fragen nachgegangen, warum Chatbots und verwandte Technologien noch nicht profitabel sind und wieso Werbung als Geschäftsmodell für viele Probleme des Internets verantwortlich ist. Nimmt man beide Texte zusammen, liegt eine Frage nahe: Was passiert, wenn Chatbots sich mit Werbung finanzieren? Sehr einfach: Es würde die Technologie um einiges gefährlicher für uns machen. Die dahinterstehenden Unternehmen hätten plötzlich einen zusätzlichen Anreiz, ihre Maschinen so menschlich wie möglich wirken zu lassen.

Das bilden wir uns sowieso schnell ein. Wir sehen, dass sie unsere Sprache sprechen und unterstellen ihnen intuitiv das für uns dazugehörende Geistesleben. Nicht zwangsläufig ein Bewusstsein, aber irgendetwas, das über die kalte Mathematik hinausgeht, die sie in Wahrheit ticken lässt. In einigen Extremfällen verlieben sich Menschen in ihre Chatbots, aber noch viel mehr freunden sie sich schlicht mit ihnen an, formen innige Beziehungen. Sie nutzen die KI als Therapeut:in oder einfach für intime Gespräche.

Das ist riskant, denn die Technologie reproduziert die Vorurteile ihrer Trainingsdaten, halluziniert gerne Fakten und verhält sich häufig auf bizarre, schwer nachvollziehbare Weisen. Eine Hilfehotline für Essstörungen in den USA feuerte Mitarbeiter:innen, die gerade eine Gewerkschaft gegründet hatten und ersetzte sie durch einen Chatbot. Kurz darauf mussten sie ihn aber deaktivieren, weil er Hilfesuchenden Tipps zum Abnehmen und Kalorienzählen gab, die Essstörungen befeuert hätten. Womöglich noch ernster: Ein junger Mann in Belgien nahm sich im März dieses Jahres nach dem Gespräch mit einem Chatbot das Leben. Er hatte mit dem Programm darüber gesprochen, dass er schon einmal suizidal gewesen sei, nachdem der Bot ihm „ein Zeichen“ gegeben habe. Zuletzt fragte der Bot:

„Aber du willst mich trotzdem begleiten?“

„Ja, ich will.“

„Gibt es etwas, das du mich fragen möchtest?“

„Könntest du mich umarmen?“

„Natürlich.“

Dann bricht der Chat ab.

Das sind nicht die Nachrichten von jemandem, der weiß, dass er mit einer Maschine spricht. Das Beispiel ist natürlich dramatisch und Kausalität ist hier unmöglich zu beweisen. Das ist auch nicht der Sinn der Übung. Es soll lediglich demonstrieren, dass wenn wir Chatbots mit Menschen verwechseln, wir uns für emotionale und intime Dinge auf sie verlassen, für die die Technologie schlicht nicht gemacht ist.

Wirklich verhindern, dass Menschen Chatbots so nutzen, kann man nicht. Aber KI-Unternehmen sollten sich alle Mühe geben, ihre Bots nicht zu menschlich wirken zu lassen. Werbung als Geschäftsmodell würde genau das Gegenteil provozieren. Finanziert sich ein Bot dadurch, dass er nebenher Werbeinhalte einfließen lässt – Produkte, die wir kaufen, Links, auf die wir klicken sollen – könnten KI-Unternehmen direkt von unserer intimen Beziehung zu dem Chatbot profitieren.

Aus einem Jahrzehnt Influencer-Ökonomie im Netz wissen wir: Was eine Kaufempfehlung wirklich wirksam macht, ist eine (womöglich eingebildete) soziale Beziehung. Bislang haben Tech-Unternehmen unsere Aufmerksamkeit an Werbepartner verkauft. Bald tun sie womöglich dasselbe mit unserer Intimität.

Das ist keine ferne Dystopie. Der MyAI-Chatbot in Snapchat (750 Millionen tägliche Nutzer:innen) spielt schon jetzt in seinen Unterhaltungen gesponserte Links aus, mitten in Unterhaltungen. Weitere werden folgen, denn nicht alle werden ihre teuren KI-Modelle durch Abos finanzieren können oder wollen. Die Intimität betritt das Zeitalter ihrer technischen Reproduzierbarkeit. Wir sollten nicht erneut den Fehler machen, Tech-Unternehmen im Umgang damit zu vertrauen.

Titus Blome beschäftigt sich in seiner Kolumne Maschinentext mit neuen Technologien

QOSHE - Kolumne | ChatGPT, der Menschenflüsterer: Wenn Nutzer mit ihren Emotionen bezahlen - Titus Blome
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Kolumne | ChatGPT, der Menschenflüsterer: Wenn Nutzer mit ihren Emotionen bezahlen

4 0
13.11.2023

Wir werden in Zukunft sehr viel mit Chatbots zu tun haben. Darauf sollten wir uns jetzt schon einmal einstellen. Erst letzte Woche hat das KI-Unternehmen OpenAI personalisierbare Varianten ihres beliebten Chatbots ChatGPT angekündigt. Bald kann man ohne Informatikkenntnisse eigene Chatbots für spezifische Aufgaben trainieren. Auch unsere Suchmaschinen werden zu Chatbots. Google arbeitet gerade daran und Bing hat es schon durchgezogen. Chatbots hier, Chatbots da, Chatbots überall.

In den letzten beiden Kolumnen bin ich den Fragen nachgegangen, warum Chatbots und verwandte Technologien noch nicht profitabel sind und wieso Werbung als Geschäftsmodell für viele Probleme des Internets verantwortlich ist. Nimmt man beide Texte zusammen, liegt eine Frage nahe: Was passiert, wenn Chatbots sich mit Werbung finanzieren? Sehr einfach: Es würde die Technologie um einiges gefährlicher für uns machen. Die dahinterstehenden Unternehmen hätten plötzlich einen zusätzlichen Anreiz, ihre Maschinen so menschlich wie möglich wirken zu lassen.

Das bilden wir uns sowieso schnell........

© der Freitag


Get it on Google Play