Kleine Zeitung: AI that becomes a problem case
AI that blackmails? Chatbots that spread conspiracy theories? What sounds like science fiction is happening today in real test environments of large AI models. The case of "Claude Opus 4" shows how a learning system in a simulated environment begins to blackmail people out of apparent self-preservation. Elon Musk's chatbot "Grok" is also causing a stir with problematic statements - from Holocaust relativization to racist myths.

Doch was steckt wirklich dahinter? Christoph Holz ordnet ein: Warum KI keine eigenen Motive hat, wie solche Szenarien aus Trainingsdaten entstehen – und weshalb neuronale Netzwerke zwar beeindruckend, aber nicht vertrauenswürdig sind.
Ein Beitrag über die ethischen und gesellschaftlichen Grenzen künstlicher Intelligenz – und darüber, warum echte Werte nicht programmierbar sind.
👉 Jetzt den vollständigen Artikel lesen kleinezeitung.at
Recommended articles

Lieferwagen, die nie leer fahren. Müll, der sich selbst trennt. Und Pizza aus dem fahrenden Roboter-Restaurant. Klingt nach Zukunftsmusik? Christoph Holz sieht in diesen Visionen ganz reale Antworten auf große Herausforderungen unserer Zeit – vom Fahrermangel bis zur Müllflut.

Artificial intelligence blackmails employees - just a test run? An AI system threatens to betray secrets to save itself. What sounds like a science fiction screenplay actually happened during the test run of "Claude Opus 4", the AI company Anthropic.