Startseite › Foren › Kulturgut › Das musikalische Philosophicum › AI/KI macht Musik (und anderes …) › Antwort auf: AI/KI macht Musik (und anderes …)
pfingstluemmel
„It also frequently lied to cover its tracks when questioned about its behavior.“
Mir sind solche Forumulierungen schon prinzipiell zu sehr vermenschlichend. Diese (GPT/LLM) Systeme haben kein „Verhalten“ auch und keine Konzepte von Wahrheit oder Realität und können dementsprechend auch nicht die Unwahrheit sagen, geschweige denn „lügen“. Was da passiert ist, ist im Grunde nichts anderes, als dass in den Quelltexten, die zum Training genutzt wurden die Antwort auf „Hast Du die Schokolade genommen?“ eben oft „Nein“ ist. Genau wie die Antwort „I apologise“ wenn man ChatGPT auf eine falsche Antwort hinweist nicht bedeutet, dass da wirklich „jemandem“ ein Fehler peinlich ist, sondern nur, dass das schlicht die Standardantwort auf „Das ist falsch.“ ist.
Diese Darstellung taugt natürlich nicht, um zu begründen, Three Mile Island wieder hochzufahren.
Das hier ist übrigens der Verfasser der „Studie“ und die zugehörige Pressemeldung: https://www.apolloresearch.ai/ https://www.apolloresearch.ai/research/scheming-reasoning-evaluations Ich glaube, John Connor kann dieses Wochenende nochmal ausschlafen.
Im Grunde hat sich seit 60 Jahren nichts geändert:
https://psych.fullerton.edu/mbirnbaum/psych101/Eliza.htm (sogar die Website ist schon von 1999)
Die Versuchspersonen in den Experimenten waren zu einem großen Teil sogar überzeugt, dass der „Gesprächspartner“ ein tatsächliches Verständnis für ihre Probleme aufbrachte. Selbst wenn sie mit der Tatsache konfrontiert wurden, dass das Computerprogramm, mit dem sie „gesprochen“ hatten, auf der Basis einiger simpler Regeln und sicherlich ohne „Intelligenz“, „Verstand“, „Einfühlungsvermögen“ usw. einfach gegebene Aussagen in Fragen umwandelte, weigerten sie sich oft, dies zu akzeptieren. Weizenbaum war erschüttert über die Reaktionen auf sein Programm, vor allem, dass praktizierende Psychotherapeuten ernsthaft daran glaubten, damit zu einer automatisierten Form der Psychotherapie gelangen zu können
Siehe auch: https://en.wikipedia.org/wiki/ELIZA_effect
--
Reality is that which, when you stop believing in it, doesn't go away. Reality denied comes back to haunt. Philip K. Dick