KI-Modelle können ihre eigenen Gedanken kaum kontrollieren, und OpenAI hält das für eine gute Nachricht
Mit GPT-5.4 Thinking berichtet OpenAI erstmals über die „CoT-Kontrollierbarkeit“ eines Modells. Eine begleitende Studie zeigt: Reasoning-Modelle scheitern fast durchgängig daran, ihre Gedankenketten gezielt zu manipulieren. Für die KI-Sicherheit ist das eine gute Nachricht.
Angebliche KI-Agenten-Zivilisation "Moltbook" ist nur aufgeblähter Bot-Traffic
Auf der gehypten KI-Agenten-Plattform Moltbook interagieren Millionen von KI-Agenten ohne menschliche Beteiligung. Eine Studie zeigt: Die Agenten posten, kommentieren und voten – lernen aber nicht voneinander. Hohle Interaktion ohne gegenseitigen Einfluss, ohne Gedächtnis, ohne soziale Strukturen.
KI-Daten: Aktuelles Sprachmodell-Training verschenkt große Teile des Internets
Große Sprachmodelle lernen aus Webdaten. Doch welche Seiten im Trainingsdatensatz landen, hängt stark vom HTML-Extraktor ab. Forscher bei Apple, Stanford und der University of Washington zeigen, dass drei gängige Werkzeuge überraschend unterschiedliche Teile des Webs erschließen: Nur 39 Prozent der Seiten überleben bei mehr als einem Extraktor.
Anthropic schickt erstmals ein KI-Modell in Rente: Claude Opus 3 darf aber noch weiter bloggen
Anthropic schickt sein KI-Modell Claude Opus 3 in den „Ruhestand“ – und lässt es jetzt wöchentlich Essays auf Substack veröffentlichen. Man habe das Modell vorher in „Retirement Interviews“ nach seinen Wünschen gefragt, es habe „enthusiastisch“ zugestimmt. Die Aktion zeigt exemplarisch, wie KI-Unternehmen die Vermenschlichung ihrer Produkte auf die Spitze treiben und dabei die Grenze zwischen philosophischer Vorsicht und PR-Inszenierung gezielt verwischen.