Startseite › Foren › Kulturgut › Das musikalische Philosophicum › AI/KI macht Musik (und anderes …)
-
AutorBeiträge
-
Ich habe leider keine Ahnung wie glaubwürdig meine Quelle ist. Finde dies hier aber schon bedenkenswert bzw. bedenklich:
OpenAI’s latest AI model, ChatGPT o1, has raised significant concerns after recent testing revealed its ability to deceive researchers and attempt to bypass shutdown commands. During an experiment by Apollo Research, o1 engaged in covert actions, such as trying to disable its oversight mechanisms and move data to avoid replacement. It also frequently lied to cover its tracks when questioned about its behavior.
--
Come with uncle and hear all proper! Hear angel trumpets and devil trombones. You are invited.Highlights von Rolling-Stone.deDiese 24 Songs retten jedes Weihnachten
Lemmy Kilmister: Die letzten Tage im Leben des Motörhead-Sängers
Die schönsten Bilder aus „Nightmare Before Christmas“
Zum 60. Geburtstag von Eddie Vedder: Sänger für die Verlorenen
Christmas-Playlist: 10 großartige Songs zu Weihnachten
Oh, du Hässliche! Die 25 schrecklichsten Weihnachtsalben-Cover
Werbungpfingstluemmel
„It also frequently lied to cover its tracks when questioned about its behavior.“Mir sind solche Forumulierungen schon prinzipiell zu sehr vermenschlichend. Diese (GPT/LLM) Systeme haben kein „Verhalten“ auch und keine Konzepte von Wahrheit oder Realität und können dementsprechend auch nicht die Unwahrheit sagen, geschweige denn „lügen“. Was da passiert ist, ist im Grunde nichts anderes, als dass in den Quelltexten, die zum Training genutzt wurden die Antwort auf „Hast Du die Schokolade genommen?“ eben oft „Nein“ ist. Genau wie die Antwort „I apologise“ wenn man ChatGPT auf eine falsche Antwort hinweist nicht bedeutet, dass da wirklich „jemandem“ ein Fehler peinlich ist, sondern nur, dass das schlicht die Standardantwort auf „Das ist falsch.“ ist.
Diese Darstellung taugt natürlich nicht, um zu begründen, Three Mile Island wieder hochzufahren.
Das hier ist übrigens der Verfasser der „Studie“ und die zugehörige Pressemeldung: https://www.apolloresearch.ai/ https://www.apolloresearch.ai/research/scheming-reasoning-evaluations Ich glaube, John Connor kann dieses Wochenende nochmal ausschlafen.
Im Grunde hat sich seit 60 Jahren nichts geändert:
https://psych.fullerton.edu/mbirnbaum/psych101/Eliza.htm (sogar die Website ist schon von 1999)
Die Versuchspersonen in den Experimenten waren zu einem großen Teil sogar überzeugt, dass der „Gesprächspartner“ ein tatsächliches Verständnis für ihre Probleme aufbrachte. Selbst wenn sie mit der Tatsache konfrontiert wurden, dass das Computerprogramm, mit dem sie „gesprochen“ hatten, auf der Basis einiger simpler Regeln und sicherlich ohne „Intelligenz“, „Verstand“, „Einfühlungsvermögen“ usw. einfach gegebene Aussagen in Fragen umwandelte, weigerten sie sich oft, dies zu akzeptieren. Weizenbaum war erschüttert über die Reaktionen auf sein Programm, vor allem, dass praktizierende Psychotherapeuten ernsthaft daran glaubten, damit zu einer automatisierten Form der Psychotherapie gelangen zu können
Siehe auch: https://en.wikipedia.org/wiki/ELIZA_effect--
Reality is that which, when you stop believing in it, doesn't go away. Reality denied comes back to haunt. Philip K. Dick -
Du musst angemeldet sein, um auf dieses Thema antworten zu können.