Anzeige
Skip to content

Jonathan Kemper

Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Read full article about: Apple Music kennzeichnet KI-Musik, verlässt sich aber auf die Labels

Apple Music führt Transparency Tags ein, mit denen Labels und Distributoren KI-generierte Inhalte in vier Bereichen kennzeichnen sollen: Artwork, Tracks, Kompositionen und Musikvideos. Das berichtet Music Business Worldwide unter Berufung auf einen Newsletter an Industriepartner. Die Tags sind aktuell optional, sollen künftig aber verpflichtend werden. Apple sieht die Verantwortung demnach bei den Zulieferern, nicht bei der Plattform selbst. Laut Spezifikation greift die Kennzeichnungspflicht, wenn KI einen "wesentlichen Anteil" des Inhalts erzeugt hat – beim Tag "Composition" etwa auch für Songtexte, nicht nur für Melodie oder Instrumentierung. "Artwork" wird dabei auf Album-Ebene gesetzt (inklusive animierter Cover), während "Track", "Composition" und "Music Video" pro Song definiert werden.

KI-Musik ist ein wachsendes Streitthema: Suno erreichte kürzlich 300 Millionen Dollar Jahresumsatz, steht aber im Rechtsstreit mit der Musikindustrie. Universal Music hat sich indes mit Udio geeinigt und setzt auf lizenzierte KI-Partnerschaften. Gleichzeitig werden KI-Songs immer zugänglicher für Endnutzer: Google hat mit Lyria 3 einen eigenen KI-Musikgenerator in die Gemini-App integriert.

Angebliche KI-Agenten-Zivilisation "Moltbook" ist nur aufgeblähter Bot-Traffic

Auf der gehypten KI-Agenten-Plattform Moltbook interagieren Millionen von KI-Agenten ohne menschliche Beteiligung. Eine Studie zeigt: Die Agenten posten, kommentieren und voten – lernen aber nicht voneinander. Hohle Interaktion ohne gegenseitigen Einfluss, ohne Gedächtnis, ohne soziale Strukturen.

KI-Daten: Aktuelles Sprachmodell-Training verschenkt große Teile des Internets

Große Sprachmodelle lernen aus Webdaten. Doch welche Seiten im Trainingsdatensatz landen, hängt stark vom HTML-Extraktor ab. Forscher bei Apple, Stanford und der University of Washington zeigen, dass drei gängige Werkzeuge überraschend unterschiedliche Teile des Webs erschließen: Nur 39 Prozent der Seiten überleben bei mehr als einem Extraktor.

Read full article about: OpenAI und Figma verbinden Code und Design nahtlos in beide Richtungen

Eine neue Integration verbindet Figmas Design-Plattform direkt mit OpenAIs Coding-Tool Codex. Teams können damit aus Code automatisch bearbeitbare Figma-Designs erzeugen und umgekehrt Designs in funktionierenden Code umwandeln. Die Verbindung nutzt den offenen MCP-Standard und unterstützt Figma Design, Figma Make und FigJam. Die Einrichtung erfolgt direkt in der Codex-Desktop-App für macOS.

Bisherige Lösungen für den Übergang zwischen Figma und Code waren meist Einbahnstraßen: Figmas Dev Mode lieferte einfache HTML/CSS-Schnipsel, Plugins exportierten Designs als React- oder HTML-Code, Figma Make generierte React-Komponenten per Texteingabe. Diese Werkzeuge arbeiteten jedoch einzeln und ohne tiefes Verständnis des gesamten Projekts. Die neue Integration soll erstmals eine durchgängige Verbindung schaffen, bei der die KI gleichzeitig auf Code, Figma-Dateien und Design-System zugreifen kann.

Figma war bereits einer der ersten Partner mit einer eigenen ChatGPT-App und nutzt intern ChatGPT Enterprise. Laut OpenAI greifen über eine Million Menschen wöchentlich auf Codex zurück, die Nutzung stieg seit Jahresbeginn um über 400 Prozent.

Read full article about: MEMORY.md: Claude Code merkt sich jetzt Vorlieben und wendet sie automatisch an

Claude Code kann sich ab sofort selbstständig Notizen machen und Gelerntes innerhalb eines Projekts über Sitzungen hinweg abrufen, etwa Debugging-Muster, Projektkontext und bevorzugte Arbeitsweisen. Bisher mussten Nutzer solche Informationen manuell bzw. per /init in CLAUDE.md-Dateien festhalten. Die neue Auto-Memory-Funktion ergänzt das: Claude legt pro Projekt eigenständig eine MEMORY.md-Datei an, in der es Erkenntnisse festhält und in späteren Sitzungen desselben Projekts automatisch wieder abruft. Wer zum Beispiel in einem Projekt auf ein kniffliges Debugging-Problem stößt, muss die Lösung nicht erneut erklären. Nutzer können Claude auch direkt auffordern, bestimmte Informationen zu speichern. Die Funktion ist standardmäßig aktiviert und lässt sich per /memory, Einstellungsdatei oder Umgebungsvariable deaktivieren.

Kürzlich hat Claude Code noch ein weiteres großes Update bekommen: Eine lokal laufende Sitzung lässt sich jetzt von unterwegs per Smartphone, Tablet oder Browser über claude.ai/code weiterführen, ohne dass Daten in die Cloud wandern.