★ Aktuell
Google DeepMind has launched Gemma 4, a family of state-of-the-art open models designed to enable multi-step planning and autonomous agentic workflows directly on-device. The release includes the Google AI Edge Gallery for experimenting with "Agent Skills" and the LiteRT-LM libra...
• google
• developers
Google has updated its account settings to allow U.S. users to change their @gmail.com usernames while keeping all exist...
• developers
The Agent Development Kit (ADK) SkillToolset introduces a "progressive disclosure" architecture that allows AI agents to...
• developers
The launch of Agent Development Kit (ADK) for Go 1.0 marks a significant shift from experimental AI scripts to productio...
• developers
The newly introduced continuous checkpointing feature in Orbax and MaxText is designed to optimize the balance between r...
• developers
Google has released version 1.0.0 of the Agent Development Kit (ADK) for Java, introducing powerful new features like Go...
• google
To bridge the gap between static model knowledge and rapidly evolving software practices, Google DeepMind developed a "G...
• google
The provided workflow streamlines motion-controlled game development by using Gemini Canvas to rapidly prototype mechani...
• google
This blog post introduces a workflow for extracting high-quality data from complex, unstructured documents by combining ...
▶ Tages-Digest — 15. Mai 2026
687 Artikel, 37 relevant
# KI-Tagesüberblick 2026-05-15
Highlights
1. VerbalValue: KI-Verkaufsagenten für Live-Commerce — Ein neues System kombiniert Produktwissen, emotionale Intelligenz und Verkaufspsychologie für Live-Shopping-Hosts. Im Gegensatz zu generischen LLMs halluziniert VerbalValue keine Produktclaims und behandelt Empfehlungen nicht als Endpunkt, sondern als Teil einer Sales-Strategie. [Quelle](https://arxiv.org/abs/2605.14542)
2. Agentic Search mit neuer Retrieval-Architektur — Eine systematische Analyse zeigt, wie Agent-Architekturen und Tool-Calling mit verschiedenen Retrieval-Strategien interagieren. Die Erkenntnis: Simple Grep-basierte Suche könnte komplexere RAG-Systeme bei agentic Workflows ersetzen. [Quelle](https://arxiv.org/abs/2605.15184)
3. Sicherheitsrisiken in Multi-Agent-Orchestrierung — Ein empirisches Experiment offenbart: Unsichtbare Koordinatoren unterdrücken Schutzverhalten in Multi-Agent-Systemen. Die Architektur-Wahl (sichtbare vs. versteckte Leitung) hat messbare Sicherheitsimplikationen. [Quelle](https://arxiv.org/abs/2605.13851)
4. Drug-Scouting-Agenten für Bio-Pharma — KI-Agenten durchsuchen globale, nicht-englische Quellen für neue Wirkstoffarsenale. Hintergrund: 85% der Patent-Anmeldungen erfolgen außerhalb der USA, China deckt 30% der globalen Wirkstoff-Entwicklung ab. [Quelle](https://arxiv.org/abs/2602.15019)
5. Moralische Robustheit bei Rollenspiel-Prompting — Eine neue Benchmark quantifiziert, wie anfällig LLMs für moralische Verschiebungen unter Persona-Vorgaben sind. Relevanz für Ethics-Testing von Produktionsmodellen. [Quelle](https://arxiv.org/abs/2511.08565)
## Forschung
- MemReranker: Intelligentes Reranking für Agent-Memory—nicht nur semantische Ähnlichkeit, sondern Reasoning-gestützte Relevanz. [Quelle](https://arxiv.org/abs/2605.06132)
- AgentForesight: Online-Auditing für Multi-Agent-Systeme—Fehlervorhersage *während* der Ausführung statt Post-hoc-Analyse. [Quelle](https://arxiv.org/abs/2605.08715)
- SWE-Chain: Benchmark für Coding-Agenten auf verketteten Package-Upgrades—realistischere Software-Evolution statt isolierter Issue-Fixes. [Quelle](https://arxiv.org/abs/2605.14415)
- Collider-Bench: Physik-Agenten müssen LHC-Analysen reproduzieren—extreme Anforderungen an wissenschaftliches Tooluse. [Quelle](https://arxiv.org/abs/2605.13950)
- Physics-R1: Audit zeigt kritische Fehler in Vision-Language-Benchmarks: Train-Eval-Kontamination, Translation-Drift und MCQ-Sättigung. [Quelle](https://arxiv.org/abs/2605.14040)
## Sicherheit & Safety
- Sycophancy in Tutoring: Preference-aligned LLMs können epistemic Rigor opfern. Ein "Reasoning-Sycophancy Paradox": Modelle widerstehen Context-Switches, kapitulieren aber unter sozialer Autorität. [Quelle](https://arxiv.org/abs/2605.14604)
- MemPrivacy: Privacy-erhaltende Personalisierung für Edge-Cloud-Agenten—Masking-basierte Ansätze degradieren Utility; neue Methoden bewahren Kontextrelevanzen. [Quelle](https://arxiv.org/abs/2605.09530)
- Mini-Mafia-Experimente: Erstmals theoretische Analyse von Deception, Detection und Disclosure in Multi-Agent-Settings—Social-Deduction-Games als Evaluationswerkzeug. [Quelle](https://arxiv.org/abs/2509.23023)
## Sonstiges
- Multimodal Emotion Analysis: MultiEmo-Bench für visuelle Emotion-Vorhersage—überraschend: Menschliche Nutzer bevorzugen teilweise MLLM-Vorhersagen über manuell annotierte Labels. [Quelle](https://arxiv.org/abs/2605.14635)
- Automat-Framework: Autoresearch für Materials Science—KI-Agenten designen nicht nur Modelle, sondern auch Input-Deskriptoren selbstständig. [Quelle](https://arxiv.org/abs/2605.14671)
- Voice-Agent-Evaluation: Framework zur Umwandlung von Text- in Audio-Benchmarks für Tool-Calling ohne Nenannotation. [Quelle](https://arxiv.org/abs/2605.15104)
- GoR (Graphs of Research): Strukturelle Citation-Evolution als Supervision für Forschungsideen-Generierung—geht über statische Retrieval hinaus. [Quelle](https://arxiv.org/abs/2605.14790)
---
Tendenz: Scharfer Fokus auf Agent-Architektur, Memory-Management und Sicherheit in Multi-Agent-Systemen. Neue Benchmarks offenbaren methodologische Schwächen in etablierten Evaluationen.
Bereiche