Kleine Zeitung: AI that becomes a problem case
AI that blackmails? Chatbots that spread conspiracy theories? What sounds like science fiction is happening today in real test environments of large AI models. The case of "Claude Opus 4" shows how a learning system in a simulated environment begins to blackmail people out of apparent self-preservation. Elon Musk's chatbot "Grok" is also causing a stir with problematic statements - from Holocaust relativization to racist myths.

Doch was steckt wirklich dahinter? Christoph Holz ordnet ein: Warum KI keine eigenen Motive hat, wie solche Szenarien aus Trainingsdaten entstehen – und weshalb neuronale Netzwerke zwar beeindruckend, aber nicht vertrauenswürdig sind.
Ein Beitrag über die ethischen und gesellschaftlichen Grenzen künstlicher Intelligenz – und darüber, warum echte Werte nicht programmierbar sind.
👉 Jetzt den vollständigen Artikel lesen kleinezeitung.at
Recommended articles

Artificial intelligence blackmails employees - just a test run? An AI system threatens to betray secrets to save itself. What sounds like a science fiction screenplay actually happened during the test run of "Claude Opus 4", the AI company Anthropic.

„Wir werden KI nie vertrauen können“ – sagt ein Digitalethiker, der es wissen muss. Christoph Holz sieht in der künstlichen Intelligenz keinen Verführer, sondern einen Spiegel: Sie zeigt uns unsere eigenen Schwächen – und wir schieben die Schuld lieber auf Maschinen. Warum er Populismus, Psychopathen und Elon Musk in einem Atemzug nennt, warum Ethik kein Feigenblatt, sondern Pflichtstoff ist – und warum Europa Gefahr läuft, bei der KI nur Zuschauer zu sein: