Eine Griechin reichte die Scheidung ein, nachdem ChatGPT im Kaffeesatz „gelesen“ hatte. Die KI prophezeite eine Affre ihres Ehemannes. Der Fall zeigt, wie Menschen zunehmend knstlicher Intelligenz blind vertrauen, obwohl sie nicht fehlerfrei ist.
KI erobert die Gesellschaft
Dass knstliche Intelligenz die Welt in den nchsten Jahren auch weiter stark verndern wird, ist sicher. Schon jetzt zeigen sich die Auswirkungen, etwa im Arbeitsumfeld. So setzt die US-Regierung in einigen Behrden voll auf KI und entlsst reihenweise Angestellte. Whrenddessen korrigieren Unternehmen wie Klarna ihren radikalen KI-Kurs und stellen wieder vermehrt Mitarbeiter ein. Eine Studie hatte zudem erst krzlich festgestellt, dass man besser auf ChatGPT und Co. verzichten sollte, wenn man Karriere machen will.
Wenn KI zur digitalen Wahrsagerin wird
Eine griechische Frau htte jetzt vermutlich auch lieber auf die Dienste des Chatbots verzichtet. Denn die Mutter von zwei Kindern hat nach zwlf Jahren Ehe die Scheidung eingereicht, nachdem sie ChatGPT gebeten hatte, Kaffeesatz zu „lesen“ – eine moderne Interpretation der traditionellen Kunst der sogenannten Tasseographie.
Das Ergebnis der KI-Analyse war eindeutig: In der Tasse offenbarte sich eine mysterise Frau mit dem Initial „E“, von der ihr Mann angeblich trumen soll. Noch dramatischer wurde es bei der Deutung ihrer eigenen Tasse. Hier prophezeite ChatGPT, dass ihr Mann bereits eine Affre habe und die „andere Frau“ ihre Familie zerstren wolle.
Wie die Greek City Times berichtet, nahm die Situation schnell eine ernste Wendung. Der vllig berraschte Ehemann erhielt nur drei Tage nach seinem Lachen ber die vermeintlich lustige KI-Prophezeiung die Scheidungspapiere. „Ich tat es als Unsinn ab“, erklrte er. „Aber sie nahm es ernst, forderte mich zum Ausziehen auf und informierte sogar unsere Kinder ber die Scheidung.“
Tradition und Technologie
Die Tasseographie, das Lesen im Kaffeesatz, hat in Griechenland und dem gesamten stlichen Mittelmeerraum eine jahrhundertealte Tradition. Dabei werden die Muster, die der Kaffeesatz nach dem Trinken in der Tasse hinterlsst, interpretiert, um Vorhersagen ber die Zukunft zu treffen. Diese Praxis ist tief in der Kultur verankert und wird oft bei geselligen Zusammenknften praktiziert.
Fr den Ehemann ist die Situation besonders frustrierend, da seine Frau schon frher dem bernatrlichen verfallen war: „Vor einigen Jahren besuchte sie einen Astrologen, und es dauerte ein ganzes Jahr, bis sie akzeptierte, dass nichts davon real war.“
Infografik Knstliche Intelligenz (KI): Die meisten Nutzer mgen ChatGPT
Rechtliche Konsequenzen und technische Grenzen
Der Anwalt des Ehemanns betont, dass die Behauptungen eines KI-Chatbots keinerlei rechtliche Grundlage haben und sein Mandant als „unschuldig bis zum Beweis des Gegenteils“ gilt.
Natrlich besitzt ChatGPT keinerlei wahrsagerische Fhigkeiten. Das System kann lediglich auf Basis seiner Trainingsdaten Inhalte generieren. Bei der „Deutung“ von Kaffeesatz handelt es sich um reine Fiktion, die das System auf Anfrage produziert – natrlich ohne jeglichen Bezug zur Realitt.
Der kuriose und tragische Fall illustriert aber ein wachsendes Problem: Mit zunehmender Verbreitung von KI-Systemen im Alltag neigen manche Menschen dazu, diesen Technologien bermenschliche Fhigkeiten zuzuschreiben oder ihre Aussagen unkritisch zu akzeptieren.
Allerdings leiden Anwendungen wie ChatGPT nachweislich unter immer wieder auftretenden sogenannten „Halluzinationen“. Dann ignorieren sie in ihren Antworten Fakten und schaffen ihre eigenen Wahrheiten. Ob das dem Ehemann und den Kindern der griechischen Kaffeesatzleserin ein Trost ist, darf allerdings bezweifelt werden.
Was haltet ihr von diesem kuriosen Fall? Und wie kritisch hinterfragt ihr die Ergebnisse von KI-Antworten? Teilt eure Gedanken in den Kommentaren!
- Griechische Frau reicht Scheidung ein nach ChatGPTs Kaffeesatz-Deutung
- KI prophezeite eine Affre des Ehemanns mit einer anderen Frau
- Bereits zuvor neigte die Frau zu bernatrlichen berzeugungen
- Traditionelle Tasseographie basiert auf Erfahrung und Intuition
- Der Fall zeigt problematischen blinden Glauben an Fhigkeiten von KI
- ChatGPT leidet teils unter Halluzinationen und erfindet eigene Wahrheiten
Siehe auch: