Anzeige
Skip to content

KI-Modelle können ihre eigenen Gedanken kaum kontrollieren, und OpenAI hält das für eine gute Nachricht

Mit GPT-5.4 Thinking berichtet OpenAI erstmals über die „CoT-Kontrollierbarkeit“ eines Modells. Eine begleitende Studie zeigt: Reasoning-Modelle scheitern fast durchgängig daran, ihre Gedankenketten gezielt zu manipulieren. Für die KI-Sicherheit ist das eine gute Nachricht.

Angebliche KI-Agenten-Zivilisation "Moltbook" ist nur aufgeblähter Bot-Traffic

Auf der gehypten KI-Agenten-Plattform Moltbook interagieren Millionen von KI-Agenten ohne menschliche Beteiligung. Eine Studie zeigt: Die Agenten posten, kommentieren und voten – lernen aber nicht voneinander. Hohle Interaktion ohne gegenseitigen Einfluss, ohne Gedächtnis, ohne soziale Strukturen.

KI-Daten: Aktuelles Sprachmodell-Training verschenkt große Teile des Internets

Große Sprachmodelle lernen aus Webdaten. Doch welche Seiten im Trainingsdatensatz landen, hängt stark vom HTML-Extraktor ab. Forscher bei Apple, Stanford und der University of Washington zeigen, dass drei gängige Werkzeuge überraschend unterschiedliche Teile des Webs erschließen: Nur 39 Prozent der Seiten überleben bei mehr als einem Extraktor.

Anthropic schickt erstmals ein KI-Modell in Rente: Claude Opus 3 darf aber noch weiter bloggen

Anthropic schickt sein KI-Modell Claude Opus 3 in den „Ruhestand“ – und lässt es jetzt wöchentlich Essays auf Substack veröffentlichen. Man habe das Modell vorher in „Retirement Interviews“ nach seinen Wünschen gefragt, es habe „enthusiastisch“ zugestimmt. Die Aktion zeigt exemplarisch, wie KI-Unternehmen die Vermenschlichung ihrer Produkte auf die Spitze treiben und dabei die Grenze zwischen philosophischer Vorsicht und PR-Inszenierung gezielt verwischen.