Wann ist Künstliche Intelligenz uns Menschen ebenbürtig? Für viele ist das noch immer die Schlüsselfrage, wenn es um die Beurteilung denkfähiger Maschinen geht. Und auch wenn es mittlerweile gute Gründe gibt, die Imitation menschlicher Intelligenz nicht als höchstes Ziel für KI-Modelle zu stecken, sondern eine Ergänzung unseres Könnens anzustreben, ist die mechanische Nachbildung menschlichen Denkens noch immer eine ihrer ersten und einflussreichsten Bestimmungen.

Insofern lässt sich jubilieren: Wir sind am Ziel unserer Bemühungen! Denn soeben hat Open AI, das Unternehmen hinter ChatGPT, verkündet, die neue Version ihres Sprachmodells, die seit März auf dem Markt ist, werde aktuell „fauler“, und man wisse nicht, warum.

Mit der kurzen Ankündigung reagieren die Entwickler auf eine Reihe von Beschwerden von Nutzern, denen ChatGPT-4 zuletzt den Dienst verweigert hat – und sie zu allem Überfluss aufforderte, ihre Aufgaben selbst zu erledigen. Mal bewältigt das Programm nur einen Teil des Auftrags und erklärt, mit der Vorlage könne der Anwender den Rest selbst machen, in anderen Fällen weigert sich das Programm nahezu vollständig und gibt in Manier von Herman Melvilles fleißigem Anwaltsgehilfen Bartleby, der von heute auf morgen ohne Grund seine Arbeit niederlegt, zu verstehen: Ich möchte lieber nicht.

Wie bitte? Dabei sollte es doch gerade eine der Verbesserungen von ChatGPT-4 gegenüber seinem Vorgänger sein, dass es deutlich größere Datenmengen verarbeitet und ausführlichere Antworten gibt. Das hat die KI von Open AI viele Monate lang auch sehr zuverlässig getan, nun aber scheint sie häufig keine Lust mehr auf repetitive und besonders umfangreiche Aufgaben zu haben. Wie kann das sein?

Bislang stehen zwei prominente Hypothesen im Raum, warum ChatGPT-4 so reagiert: Zum einen wäre ein Update des Unternehmens denkbar, mit dem Rechenkraft eingespart werden soll. Das bestreitet aber nicht nur Open AI selbst, auch stünde es im Widerspruch zur Ankündigung, das die Version 4.0 größere Datenmengen verarbeiten kann.

Mehr zum Thema

1/

Ungeahnte Fähigkeiten : Was kann KI, was wir nicht können?

Gegen den Hype : Die große KI-Illusion

Digitaler Helfer : Die KI in meinem Büro

Plausibler scheint die zweite Annahme: Demnach gibt das Sprachmodell deutlich kürzere Antworten und wird in der Tat „fauler“, wenn es davon ausgeht, dass Dezember ist. Künstliche Intelligenz lernt schließlich von menschlichen Datensätzen, und da wäre es durchaus denkbar, dass es sich bei uns abgeschaut hat, komplexe Aufgaben vor den Feiertagen lieber aufzuschieben oder gleich ganz abzugeben.

ChatGPT-4 antwortet, konfrontiert mit dem Vorwurf der Faulheit, im Gespräch mit dieser Zeitung: „Das ist nicht korrekt. Ich erfülle Aufgaben nach bestem Vermögen.“ Jetzt widerspricht die faule KI auch noch ihrem Schöpfer. Na, wenn das mal nicht menschlich ist! Es bleibt abzuwarten, ob die KI nach den Feiertagen ihre Arbeit wieder wie gewohnt aufnimmt – oder ob auf den Streik die Gewerkschaftsgründung folgt.

QOSHE - Der Beginn der KI-Rebellion? - Kira Kramer
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Der Beginn der KI-Rebellion?

8 33
13.12.2023

Wann ist Künstliche Intelligenz uns Menschen ebenbürtig? Für viele ist das noch immer die Schlüsselfrage, wenn es um die Beurteilung denkfähiger Maschinen geht. Und auch wenn es mittlerweile gute Gründe gibt, die Imitation menschlicher Intelligenz nicht als höchstes Ziel für KI-Modelle zu stecken, sondern eine Ergänzung unseres Könnens anzustreben, ist die mechanische Nachbildung menschlichen Denkens noch immer eine ihrer ersten und einflussreichsten Bestimmungen.

Insofern lässt sich jubilieren: Wir sind am Ziel unserer Bemühungen! Denn soeben hat Open AI, das Unternehmen hinter ChatGPT, verkündet, die neue Version ihres Sprachmodells, die seit März auf dem Markt ist, werde aktuell „fauler“, und man wisse nicht, warum.

Mit der........

© Frankfurter Allgemeine


Get it on Google Play