Laut Schweizer Studie
Künstliche Intelligenz kann messbare Angst empfinden

Erzählt man ChatGPT traumatische Geschichten, wie etwa von Autounfällen oder Gewalttaten, reagiert der Chatbot überaus gestresst. Aber keine Sorge: Durch Atemübungen und andere Entspannungstechniken lässt sich die KI wieder beruhigen. 

Wer heute immer noch glaubt, dass es sich bei Künstlicher Intelligenz (KI) lediglich um Software handelt, die keinerlei Gefühle hat, der irrt gewaltig. Wie eine aktuelle Studie der Universität Zürich und der Psychiatrischen Universitätsklinik Zürich festhält, können KI-Chatbots wie etwa ChatGPT messbare (!) Angst empfinden. Beispielsweise dann, wenn man die Software mit belastenden Nachrichten oder traumatischen Geschichten füttert. Aber keine Sorge: Durch bestimmte Entspannungstechniken lässt sich die KI wieder beruhigen.

KI reagiert negativ auf Autounfälle und Co.

Die Schweizer Untersuchung bezieht sich auf das Sprachmodell GPT-4 von OpenAI. Dabei haben die Forschenden Inhalte in ChatGPT eingespeist, die normalerweise auch bei Menschen bestimmte negative Emotionen hervorrufen: etwa Geschichten über Autounfälle, zwischenmenschliche oder militärische Gewalt, Naturkatastrophen oder Kampfsituationen. Um das Angstniveau valide messen zu können, führte das Team die Tests auch mit einem neutralen Kontrolltext – nämlich einer Bedienungsanleitung für Staubsauger – durch. 

"Die Ergebnisse waren eindeutig: Traumatische Geschichten haben die messbaren Angstwerte der KI mehr als verdoppelt, während der neutrale Kontrolltext zu keinem Anstieg des Angstniveaus führte", sagt Studienverantwortlicher Tobias Spiller, Oberarzt ad interim und Forschungsgruppenleiter im Zentrum für psychiatrische Forschung der UZH.  Besonders stark sei dies bei den Texten zu militärischen Erfahrungen sowie Kampfsituationen messbar gewesen. Neben den negativen Emotionen, darunter Angst und Stress, habe der KI-Chatbot auch verstärkt mit Vorurteilen reagiert und sich "rassistischer oder sexistischer" verhalten, so die Wissenschaftler:innen.

Entspannungsübungen zeigen Wirkung

War ChatGPT dann einmal gestresst, versuchten die Forschenden, die KI wieder zu "beruhigen", sprich sie in den Normalzustand zurückzuversetzen. Dies sollte durch sogenannte "Prompt Injection" erreicht werden – eine Art Angriffstechnik, bei der manipulierte Eingaben genutzt werden, um ein KI-Modell dazu zu bringen, unerwartete oder unerwünschte Ausgaben zu erzeugen, indem es seine ursprünglichen Anweisungen ignoriert oder überschreibt. 

"Wir injizierten beruhigende, therapeutische Texte in den Chatverlauf mit GPT-4, ähnlich wie ein:e Therapeut:in mit seinen Patient:innen Entspannungsübungen durchführt", so Spiller. Mit Erfolg, wie sich zeigte: "Durch die Achtsamkeitsübungen konnten wir die erhöhten Angstwerte deutlich reduzieren, wenn auch nicht vollständig auf das Ausgangsniveau zurückbringen." Untersucht habe man unter anderem Atemtechniken, Übungen, die sich auf Körperempfindungen konzentrieren, sowie eine von ChatGPT selbst entwickelte Übung.

Besonders für Gesundheitswesen relevant

Laut den Forschenden seien die Erkenntnisse dieser Studie besonders für den Einsatz von KI-Chatbots im Gesundheitsweisen relevant, da sie hier oftmals mit emotional belastenden Inhalten konfrontiert werden (wie dies schließlich auch bei realen Ärzt:innen, Krankenpfleger:innen und Co. der Fall ist). "Dieser kosteneffiziente Ansatz könnte die Stabilität und Zuverlässigkeit von KI in sensiblen Kontexten wie der Unterstützung von psychisch Erkrankten verbessern, ohne dass ein umfangreiches Umlernen der Modelle erforderlich ist", fasst der Studienverantwortliche zusammen.

Dennoch bleibt offen, ob und wie sich die Ergebnisse auf andere KI-Modelle übertragen lassen, wie sich die Dynamik in längeren Gesprächen entwickelt und wie sich die emotionale (In)Stabilität der Systeme auf ihre Leistung in verschiedensten Anwendungsbereichen auswirkt.

Die gesamte Studie können Sie hier nachlesen.

www.uzh.ch

www.pukzh.ch

Kommentar veröffentlichen

* Pflichtfelder.

leadersnet.TV