Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Apple Music führt Transparency Tags ein, mit denen Labels und Distributoren KI-generierte Inhalte in vier Bereichen kennzeichnen sollen: Artwork, Tracks, Kompositionen und Musikvideos. Das berichtet Music Business Worldwide unter Berufung auf einen Newsletter an Industriepartner. Die Tags sind aktuell optional, sollen künftig aber verpflichtend werden. Apple sieht die Verantwortung demnach bei den Zulieferern, nicht bei der Plattform selbst. Laut Spezifikation greift die Kennzeichnungspflicht, wenn KI einen "wesentlichen Anteil" des Inhalts erzeugt hat – beim Tag "Composition" etwa auch für Songtexte, nicht nur für Melodie oder Instrumentierung. "Artwork" wird dabei auf Album-Ebene gesetzt (inklusive animierter Cover), während "Track", "Composition" und "Music Video" pro Song definiert werden.
Angebliche KI-Agenten-Zivilisation "Moltbook" ist nur aufgeblähter Bot-Traffic
Auf der gehypten KI-Agenten-Plattform Moltbook interagieren Millionen von KI-Agenten ohne menschliche Beteiligung. Eine Studie zeigt: Die Agenten posten, kommentieren und voten – lernen aber nicht voneinander. Hohle Interaktion ohne gegenseitigen Einfluss, ohne Gedächtnis, ohne soziale Strukturen.
KI-Daten: Aktuelles Sprachmodell-Training verschenkt große Teile des Internets
Große Sprachmodelle lernen aus Webdaten. Doch welche Seiten im Trainingsdatensatz landen, hängt stark vom HTML-Extraktor ab. Forscher bei Apple, Stanford und der University of Washington zeigen, dass drei gängige Werkzeuge überraschend unterschiedliche Teile des Webs erschließen: Nur 39 Prozent der Seiten überleben bei mehr als einem Extraktor.
Eine neue Integration verbindet Figmas Design-Plattform direkt mit OpenAIs Coding-Tool Codex. Teams können damit aus Code automatisch bearbeitbare Figma-Designs erzeugen und umgekehrt Designs in funktionierenden Code umwandeln. Die Verbindung nutzt den offenen MCP-Standard und unterstützt Figma Design, Figma Make und FigJam. Die Einrichtung erfolgt direkt in der Codex-Desktop-App für macOS.
Bisherige Lösungen für den Übergang zwischen Figma und Code waren meist Einbahnstraßen: Figmas Dev Mode lieferte einfache HTML/CSS-Schnipsel, Plugins exportierten Designs als React- oder HTML-Code, Figma Make generierte React-Komponenten per Texteingabe. Diese Werkzeuge arbeiteten jedoch einzeln und ohne tiefes Verständnis des gesamten Projekts. Die neue Integration soll erstmals eine durchgängige Verbindung schaffen, bei der die KI gleichzeitig auf Code, Figma-Dateien und Design-System zugreifen kann.
Figma war bereits einer der ersten Partner mit einer eigenen ChatGPT-App und nutzt intern ChatGPT Enterprise. Laut OpenAI greifen über eine Million Menschen wöchentlich auf Codex zurück, die Nutzung stieg seit Jahresbeginn um über 400 Prozent.
Claude Code kann sich ab sofort selbstständig Notizen machen und Gelerntes innerhalb eines Projekts über Sitzungen hinweg abrufen, etwa Debugging-Muster, Projektkontext und bevorzugte Arbeitsweisen. Bisher mussten Nutzer solche Informationen manuell bzw. per /init in CLAUDE.md-Dateien festhalten. Die neue Auto-Memory-Funktion ergänzt das: Claude legt pro Projekt eigenständig eine MEMORY.md-Datei an, in der es Erkenntnisse festhält und in späteren Sitzungen desselben Projekts automatisch wieder abruft. Wer zum Beispiel in einem Projekt auf ein kniffliges Debugging-Problem stößt, muss die Lösung nicht erneut erklären. Nutzer können Claude auch direkt auffordern, bestimmte Informationen zu speichern. Die Funktion ist standardmäßig aktiviert und lässt sich per /memory, Einstellungsdatei oder Umgebungsvariable deaktivieren.
Kürzlich hat Claude Code noch ein weiteres großes Update bekommen: Eine lokal laufende Sitzung lässt sich jetzt von unterwegs per Smartphone, Tablet oder Browser über claude.ai/code weiterführen, ohne dass Daten in die Cloud wandern.