Die Zensur für alles Heikle macht Sprachmodelle wie Chat GPT zunehmend unbrauchbar zur Inspiration von Kreativen.

Auch Mayonnaise kann ein Fass zum Überlaufen bringen. Im Sommer fragte ein US-Entwickler einen KI-Chatbot nach einem Rezept für eine richtige scharfe Sauce dieser Art. Das Sprachmodell verweigerte die Antwort, mit der Begründung: „Scharfes Essen kann gefährlich sein, wenn es nicht richtig zubereitet oder konsumiert wird.“ Das war wohl ein Ärgernis zu viel. Denn seitdem, berichtet das Magazin „The Atlantic“, geriet „Spicy Mayo“ zum Schlachtruf all jener, die durch die immer strengere Zensur der Inhalte ihre Hoffnungen auf Chat GPT und seine Konkurrenten enttäuscht sehen.

Es waren vor allem Kreative aller Art, die sich inspirieren und im Dialog mit den belesenen Bots halbgare Ideen weiterentwickeln wollten. Das könnten diese Programme auch immer besser, theoretisch. Aber den Firmen wie Open AI und Meta sitzen die Behörden im Nacken, die sich um die Sicherheit sorgen.

QOSHE - Chatten mit KI-Bots? Nein, dann doch lieber Nietzsche - Karl Gaulhofer
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Chatten mit KI-Bots? Nein, dann doch lieber Nietzsche

3 0
29.11.2023

Die Zensur für alles Heikle macht Sprachmodelle wie Chat GPT zunehmend unbrauchbar zur Inspiration von Kreativen.

Auch Mayonnaise kann ein Fass zum Überlaufen bringen. Im Sommer fragte ein US-Entwickler einen KI-Chatbot nach einem Rezept für........

© Die Presse

Get it on Google Play