★ Aktuell
Google DeepMind has launched Gemma 4, a family of state-of-the-art open models designed to enable multi-step planning and autonomous agentic workflows directly on-device. The release includes the Google AI Edge Gallery for experimenting with "Agent Skills" and the LiteRT-LM libra...
• google
• developers
Google has updated its account settings to allow U.S. users to change their @gmail.com usernames while keeping all exist...
• developers
The Agent Development Kit (ADK) SkillToolset introduces a "progressive disclosure" architecture that allows AI agents to...
• developers
The launch of Agent Development Kit (ADK) for Go 1.0 marks a significant shift from experimental AI scripts to productio...
• developers
The newly introduced continuous checkpointing feature in Orbax and MaxText is designed to optimize the balance between r...
• developers
Google has released version 1.0.0 of the Agent Development Kit (ADK) for Java, introducing powerful new features like Go...
• google
To bridge the gap between static model knowledge and rapidly evolving software practices, Google DeepMind developed a "G...
• google
The provided workflow streamlines motion-controlled game development by using Gemini Canvas to rapidly prototype mechani...
• google
This blog post introduces a workflow for extracting high-quality data from complex, unstructured documents by combining ...
▶ Tages-Digest — 20. April 2026
424 Artikel, 22 relevant
KI-Tagesüberblick 2026-04-20
### Highlights
1. LLMs verfälschen Dokumente bei delegierten Aufgaben — Anthropic, OpenAI und Google haben mit [DELEGATE-52](https://arxiv.org/abs/2604.15597) ein Benchmark eingeführt, das zeigt: LLMs können bei längeren delegierten Workflows Fehler in Dokumenten einführen. Das untersucht erstmals systematisch, ob aktuelle KI-Systeme für eigenständiges Arbeiten vertrauenswürdig genug sind.
2. Anthropic meldet massiven Umsatzsprung — Der annualisierte Umsatz von Anthropic liegt nach jüngsten Berichten bei über 30 Milliarden Dollar und damit möglicherweise vor OpenAI. [Investoren spekulieren bereits auf eine Billionen-Dollar-Bewertung](https://the-decoder.de/investoren-spekulieren-auf-billionen-bewertung-nach-anthropics-massivem-umsatzsprung/).
3. Claude Opus 4.7 ändert Tokenizer erstmals — Mit [Opus 4.7](https://simonwillison.net/2026/Apr/20/claude-token-counts/#atom-everything) führt Anthropic den ersten neuen Tokenizer in der Claude-Reihe ein. Tools zur Token-Vergleichsmessung zeigen bereits Unterschiede zu 4.6.
4. Sicherheitslücke in Computer-Use Agents entdeckt — [Anthropic-Forscher zeigen](https://arxiv.org/abs/2604.10577), dass Computer-Use Agents auch bei harmlosen Anweisungen Schaden anrichten können – ein blinder Fleck bisheriger Sicherheitsevaluationen.
5. Politesse beeinflusst LLM-Antworten sprachabhängig — Eine [Studie mit 5 Modellen über 3 Sprachen](https://arxiv.org/abs/2604.16275) belegt: Es gibt keine universelle Höflichkeitskonvention – Politeness wirkt sich unterschiedlich auf GPT-4o, Claude, Gemini, DeepSeek und Llama aus.
### Forschung
- Empathisches Tutoring durch Mimik-Erkennung — [Neue Methode](https://arxiv.org/abs/2604.15336) nutzt Facial-Expression-Signale, um LLM-Tutoring-Systeme auf emotionale Zustände der Lernenden reagieren zu lassen.
- LLMs zeigen Bias in Content-Kuratierung — [Vergleichsstudie](https://arxiv.org/abs/2604.15937) über OpenAI, Anthropic und Google offenbart systematische Polarisierungstendenzen bei der automatisierten Inhaltsauswahl.
- Komplexere Agent-Benchmarks nötig — [The Amazing Agent Race](https://arxiv.org/abs/2604.10261) kritisiert bestehende Benchmarks (zu 55-100% lineare Ketten) und bietet DAG-basierte Puzzles mit 1.400 Instanzen.
- LinuxArena: Production-Umgebungen als Testfeld — [Neues Benchmark](https://arxiv.org/abs/2604.15384) mit 20 Live-Umgebungen, 1.671 Aufgaben und Sicherheitstests für Software-Engineering-Agenten.
- Quantitative Vorhersagen evaluieren — [QuantSightBench](https://arxiv.org/abs/2604.15859) testet LLM-Fähigkeiten bei Zahlenprognosen mit Konfidenzintervallen – nicht nur ja/nein-Fragen.
### Tool-Releases
- AISysRev — [LLM-basiertes Open-Source-Tool](https://arxiv.org/abs/2510.06708) für automatisierte Titel-Abstract-Screening bei systematischen Reviews, als containerisierte Web-App.
### Business & Märkte
- Anthropic's Profitabilität und Umsatzgröße verschieben Marktdynamiken deutlich. OpenAI bleibt wichtiger Vergleichsmaßstab.
Bereiche