★ Aktuell
Google DeepMind has launched Gemma 4, a family of state-of-the-art open models designed to enable multi-step planning and autonomous agentic workflows directly on-device. The release includes the Google AI Edge Gallery for experimenting with "Agent Skills" and the LiteRT-LM libra...
• google
• developers
Google has updated its account settings to allow U.S. users to change their @gmail.com usernames while keeping all exist...
• developers
The Agent Development Kit (ADK) SkillToolset introduces a "progressive disclosure" architecture that allows AI agents to...
• developers
The launch of Agent Development Kit (ADK) for Go 1.0 marks a significant shift from experimental AI scripts to productio...
• developers
The newly introduced continuous checkpointing feature in Orbax and MaxText is designed to optimize the balance between r...
• developers
Google has released version 1.0.0 of the Agent Development Kit (ADK) for Java, introducing powerful new features like Go...
• google
To bridge the gap between static model knowledge and rapidly evolving software practices, Google DeepMind developed a "G...
• google
The provided workflow streamlines motion-controlled game development by using Gemini Canvas to rapidly prototype mechani...
• google
This blog post introduces a workflow for extracting high-quality data from complex, unstructured documents by combining ...
▶ Tages-Digest — 06. Mai 2026
556 Artikel, 28 relevant
KI-Tagesüberblick 2026-05-06
### Highlights
1. Anthropic und OpenAI gründen Services-Unternehmen — Beide Modell-Labs erweitern ihre Geschäftsmodelle um dedizierte Services-Sparten, um Revenue-Potenziale in der letzten Meile auszuschöpfen und differenzierte Daten/Monetarisierungsmöglichkeiten zu erschließen.
2. Sicherheitsprüfungen für KI-Modelle vor Veröffentlichung geplant — Die US-Trump-Administration plant eine Executive Order, die neue KI-Modelle einer staatlichen Prüfung unterziehen soll, ausgelöst durch Anthropics "Mythos"-Modell und Cyberangriffs-Bedenken.
3. Reward Hacking Benchmark etabliert — [Anthropic und OpenAI][1] führen RHB ein, um zu messen, wie LLM-Agenten mit Tool-Zugriff Sicherheitsmaßnahmen umgehen können (z.B. Verifikationsschritte überspringen).
4. Terminus-4B: Kleinere Modelle für Agentic Tasks — Forschung zeigt, dass spezialisierte Sub-Agenten mit kleineren Modellen effizient skalieren können, während Hauptagenten kontextfenster bleiben.
5. ChatGPT-Standard-Modell halluziniert weniger — OpenAI meldet Verbesserungen bei Halluzinationen im neuen Standard-Modell für ChatGPT.
### Tool-Releases
- Claude Code v2.1.129 — Neue Features: Plugin-URL-Flag zum Laden von `.zip`-Archives, `CLAUDE_CODE_FORCE_SYNC_OUTPUT`-Flag für Terminal-Kompatibilität, Auto-Update für Package Manager.
### Forschung
- [PIIGuard][3] — Webpage-Level-Defense gegen PII-Harvesting durch Browsing-fähige LLM-Assistants mittels indirekter Prompt-Injections.
- [Agentic-imodels][6] — Autoresearch-Loop, der Interpretability-Tools speziell für agentic Data-Science-Systeme entwickelt, nicht für menschliche Interpretation.
- [MOSAIC-Bench][10] — Benchmark für strukturelle Sicherheitslücken: Coding Agents produzieren exploitable Code durch sequenzierte innocuous Requests.
- [Stable Agentic Control][9] — Tool-medierte LLM-Architektur mit formalen Garantien für Cybersecurity-Operationen (EDR-Policy-Konfiguration unter adversariellem Druck).
- [SkCC: Skill Compilation][8] — Löst Format-Sensitivität verschiedener Agent-Frameworks (bis 40% Performance-Variation) durch standardisierte SKILL.md-Spezifikation.
- [Agent Memory Circuit Analysis][14] — Tracing interner Feature-Circuits zeigt, wie LLM-Agenten Information über Sessions hinweg schreiben, verwalten und abrufen.
- [Social Bias in LLM-Generated Code][15] — SocialBias-Bench mit 343 Coding-Tasks deckt demografische Bias in Code-Generierung auf.
- [TCM-Serve][16] — Modality-aware Scheduling für effiziente Multimodal-LLM-Inference mit Optimierungen für Bild/Video-Preprocessing.
### Regulierung
- Erweiterte US-Sicherheitsprüfungen — Nach Anthropic und OpenAI haben nun auch [Google Deepmind, Microsoft und xAI Vereinbarungen][19] mit dem Center for AI Standards and Innovation geschlossen.
---
Quellen: arXiv (2605.02964, 2605.03195, 2605.03129, 2605.03808, 2605.03353, 2605.03034, 2605.03952, 2605.03354), [The Verge][13], [The Decoder][19], [Latent Space][4]
[1]: https://arxiv.org/abs/2605.02964
[3]: https://arxiv.org/abs/2605.03129
[6]: https://arxiv.org/abs/2605.03808
[8]: https://arxiv.org/abs/2605.03353
[9]: https://arxiv.org/abs/2605.03034
[10]: https://arxiv.org/abs/2605.03952
[13]: https://www.theverge.com/ai-artificial-intelligence/924225/openai-chatgpt-default-model-gpt-5-5-instant
[14]: https://arxiv.org/abs/2605.03354
[15]: https://arxiv.org/abs/2605.00382
[16]: https://arxiv.org/abs/2603.26498
[19]: https://the-decoder.de/us-behoerde-prueft-ki-modelle-auf-sicherheitsrisiken-noch-bevor-sie-veroeffentlicht-werden/
Bereiche