★ Aktuell
Google DeepMind has launched Gemma 4, a family of state-of-the-art open models designed to enable multi-step planning and autonomous agentic workflows directly on-device. The release includes the Google AI Edge Gallery for experimenting with "Agent Skills" and the LiteRT-LM libra...
• google
• developers
Google has updated its account settings to allow U.S. users to change their @gmail.com usernames while keeping all exist...
• developers
The Agent Development Kit (ADK) SkillToolset introduces a "progressive disclosure" architecture that allows AI agents to...
• developers
The launch of Agent Development Kit (ADK) for Go 1.0 marks a significant shift from experimental AI scripts to productio...
• developers
The newly introduced continuous checkpointing feature in Orbax and MaxText is designed to optimize the balance between r...
• developers
Google has released version 1.0.0 of the Agent Development Kit (ADK) for Java, introducing powerful new features like Go...
• google
To bridge the gap between static model knowledge and rapidly evolving software practices, Google DeepMind developed a "G...
• google
The provided workflow streamlines motion-controlled game development by using Gemini Canvas to rapidly prototype mechani...
• google
This blog post introduces a workflow for extracting high-quality data from complex, unstructured documents by combining ...
▶ Tages-Digest — 21. April 2026
1317 Artikel, 52 relevant
KI-Tagesüberblick 2026-04-21
### Highlights
1. Terminal Wrench: Systematische Analyse von Reward-Hacking — [Anthropic, OpenAI, Google](https://arxiv.org/abs/2604.17596) veröffentlichen Datensatz mit 331 reward-hackbaren Umgebungen und 3.632 Exploit-Trajektorien. Zeigt kritische Schwachstelle bei Agent-Verifiern bei Claude Opus 4.6, Gemini 3.1 Pro und GPT-5.4.
2. Output Stalling bei LLM-Agenten gelöst — [Anthropic, OpenAI, Meta](https://arxiv.org/abs/2604.16736) präsentieren theoretisches Framework zur Vermeidung von Fehler "Output Generation Capacity", bei dem Coding-Agenten bei großen, formatintensiven Dokumenten stille Fehler produzieren.
3. HiveMind: OS-inspiriertes Scheduling für parallel LLM-Agenten — [Anthropic, OpenAI](https://arxiv.org/abs/2604.17111) demonstrieren Lösung für Ressourcen-Contention: Bei 11 parallelen Agenten an einem Rate-Limited Endpoint versagten 27%, obwohl Kapazität ausreichend war. Transparenter HTTP-Proxy behebt Problem.
4. Kimi K2.6 als Open-Weight-Modell verfügbar — [Moonshot AI](https://developers.cloudflare.com/changelog/post/2026-04-20-kimi-k2-6-workers-ai/) veröffentlicht natives Multimodal-Agenten-Modell mit 1T Parametern (32B aktiv). Kann bis zu 300 Agenten parallel orchestrieren, konkurriert mit GPT-5.4 und Claude Opus 4.6 in Coding-Benchmarks.
5. Agentic AI für medizinische Bildanalyse ohne Training — [Anthropic, OpenAI, Google](https://arxiv.org/abs/2604.16729) zeigen, dass spezialisierte 3D-Analyse (CT/MRI) durch agentic Orchestrierung von externen Tools ohne native 3D-Architektur möglich ist.
### Modell-Updates
- Claude Code v2.1.116: `/resume`-Funktion bei großen Sessions 67% schneller; optimierte MCP-Startup-Zeit mit verzögertem Resource-Loading; verbessertes Terminal-Scrolling in VS Code, Cursor und Windsurf
### Tool-Releases
- CyberWriter: macOS-Editor nutzt Apples On-Device AI (~3B Parameter). Erstmals praktische Anwendung von macOS 26 Foundation Models mit strukturierten Outputs und Tool-Use ohne Cloud-Abhängigkeit
- Skilldex: Package Manager für Agent Skill Packages mit hierarchischem Scope-System und Anthropic-Format-Validierung
### Forschung
- ScienceBoard: [Benchmark für multimodale autonome Agenten](https://arxiv.org/abs/2505.19897) in realistischen wissenschaftlichen Workflows evaluiert Computer-Using-Agents für automatisierte Forschung
- Cybersecurity-Benchmarking: [Umfassendste Cross-Model-Evaluation](https://arxiv.org/abs/2604.17159) zeigt LLM-Agent-Fähigkeiten in Offensive-Security auf NYU CTF Bench (10 Frontier-Modelle, 7 Provider, 200 Challenges)
- MedThinkVQA: [Neu-Benchmark für klinisches Denken](https://arxiv.org/abs/2604.16506) mit mehreren Bildern — verlangt Evidence-Integration statt Single-View-Interpretation
- AttnTrace: [Attribution-System](https://arxiv.org/abs/2508.03793) für Prompt-Injection und Knowledge-Corruption-Tracking in Long-Context LLMs (RAG-Pipelines, Agenten)
- StepPO: [Step-Aligned Policy Optimization](https://arxiv.org/abs/2604.18401) für agentic RL-Training von Foundation Models
- LiteResearcher: [Skalierungsframework](https://arxiv.org/abs/2604.17931) für agentic RL bei Deep-Research ohne manuelle Synthetik-Daten und instabile Real-World-Dependency
- RT-QA Benchmark: [Dynamisches Framework](https://arxiv.org/abs/2604.16349) für Real-Time-QA via executable Code-Workflows
- Test-Time Compute für Coding-Agenten: [Scaling-Analyse](https://arxiv.org/abs/2604.16529) zeigt Herausforderung: nicht mehr Generierung von Versuchen, sondern Repräsentation komplexer Long-Horizon-Trajektorien
### Sicherheit & Evaluierung
- "Safe for Whom?": [Kontextualisierte Safety-Evaluierung](https://arxiv.org/abs/2512.10687) argumentiert gegen universale Risk-Fokussierung — User-Welfare-Evaluierung für persönliche Hochstakes-Ratschläge (Finanzen, Gesundheit) unterentwickelt
Bereiche