★ Aktuell
Google DeepMind has launched Gemma 4, a family of state-of-the-art open models designed to enable multi-step planning and autonomous agentic workflows directly on-device. The release includes the Google AI Edge Gallery for experimenting with "Agent Skills" and the LiteRT-LM libra...
• google
• developers
Google has updated its account settings to allow U.S. users to change their @gmail.com usernames while keeping all exist...
• developers
The Agent Development Kit (ADK) SkillToolset introduces a "progressive disclosure" architecture that allows AI agents to...
• developers
The launch of Agent Development Kit (ADK) for Go 1.0 marks a significant shift from experimental AI scripts to productio...
• developers
The newly introduced continuous checkpointing feature in Orbax and MaxText is designed to optimize the balance between r...
• developers
Google has released version 1.0.0 of the Agent Development Kit (ADK) for Java, introducing powerful new features like Go...
• google
To bridge the gap between static model knowledge and rapidly evolving software practices, Google DeepMind developed a "G...
• google
The provided workflow streamlines motion-controlled game development by using Gemini Canvas to rapidly prototype mechani...
• google
This blog post introduces a workflow for extracting high-quality data from complex, unstructured documents by combining ...
▶ Tages-Digest — 11. Mai 2026
668 Artikel, 28 relevant
# KI-Tagesüberblick 2026-05-11
Highlights
1. GPT-5.5 deutlich teurer als Vorgänger — OpenAI hat die [Listenpreise für GPT-5.5 verdoppelt](https://the-decoder.de/gpt-5-5-kostet-je-nach-eingabelaenge-49-bis-92-prozent-mehr-als-der-vorgaenger/). Analysen zeigen: Trotz kürzerer Antworten steigen die tatsächlichen Nutzungskosten je nach Eingabelänge um 49–92 Prozent. Auch Anthropic erhöht Preise.
2. LLM-Agenten scheitern bei Architektur-Refactoring — [SmellBench](https://arxiv.org/abs/2605.07001) zeigt erstmals: Während LLM-Agenten bei lokalen Bug-Fixes gut abschneiden, können sie architektonische Code-Probleme, die Cross-Module-Reasoning erfordern, nur bedingt reparieren.
3. Position-Curse-Phänomen identifiziert — [Neue Forschung](https://arxiv.org/abs/2605.07127) deckt auf, dass selbst moderne LLMs (z.B. Claude) regelmäßig die letzten Items in kurzen Listen übersehen – ein systematischer Fehler trotz exzellenter „Needle-in-Haystack"-Performance.
4. Globale Arzneistoff-Scouting mit KI-Agenten — [Hunt Globally](https://arxiv.org/abs/2602.15019) zeigt, dass über 85% neuer Pharma-Patent-Filings außerhalb der USA in regionalen, nicht-englischen Kanälen entstehen – KI-Agenten könnten hier Wettbewerbsintelligenz automatisieren.
5. Intent-Verständnis-Benchmark veröffentlicht — [IntentGrasp](https://arxiv.org/abs/2605.06832) ist ein neuer Benchmark aus 49 Korpora über 12 Domänen zur Bewertung, wie gut LLMs Absichten in Sprache und Text verstehen.
## Forschung
- Multi-Agent Learning Discovery: [Forscher nutzen LLMs, um neue MARL-Algorithmen automatisch zu entdecken](https://arxiv.org/abs/2602.16928) – ein Ansatz zur Automatisierung von Algorithmus-Design.
- Halluzinations-Erkennung: [Proxy-Analyzer-Framework](https://arxiv.org/abs/2605.07209) erkennt Halluzinationen durch kleine lokale Modelle, funktioniert auch bei geschlossenen APIs wie GPT-4.
- Soziale Normen in Gruppen-Chats: [SCENE-Benchmark](https://arxiv.org/abs/2605.07823) prüft, ob LLM-Agenten implizite Verhaltensregeln in Multi-Party-Chats erkennen und einhalten.
- Domain-spezifische Metacognition: [33-Modell-Atlas](https://arxiv.org/abs/2605.06673) zeigt erhebliche Variation in Selbstbewusstsein (Confidence-Calibration) je nach Fachbereich – nicht nur aggregierte Scores sind relevant.
- CLI-Agent-Training: [Neue Methode mit strukturiertem Action-Credit Learning](https://arxiv.org/abs/2605.08013) für Agenten, die mit Dateisystemen und Command-Line-Befehlen interagieren.
## Tools & Benchmarks
- ScrapeGraphAI-100k Dataset: [93.695 Schema-Constrained Extraction-Events](https://arxiv.org/abs/2602.15189) für Training von LLMs auf strukturierte Datenextraktion aus echten Web-Inhalten.
- Agentick Benchmark: [Einheitlicher Benchmark](https://arxiv.org/abs/2605.06869) zum Vergleich von RL-, LLM-, VLM- und Hybrid-Agenten im Sequential Decision-Making.
- NSMQ Riddles: [Neuer Benchmark mit wissenschaftlichen Rätseln](https://arxiv.org/abs/2605.07051) aus dem Global South für LLM-Bewertung – mit Open-Ended-Answers statt Multiple-Choice.
## Anwendungen & Evals
- HTML-Generation im Vergleich: [8-Wochen-Studie](https://arxiv.org/abs/2605.06707) von 68 Single-File-HTML-Generationen zeigt Performance-Unterschiede zwischen GPT, Gemini, Grok und Claude unter standardisierten Bedingungen.
- Qualitative Coding-Unterstützung: [Studie zu Prompt-Engineering](https://arxiv.org/abs/2605.07422) für LLM-basierte qualitative Analyse (z.B. psychologische Sicherheit in Engineering-Teams) zeigt: Methodische Choices beeinflussen Ergebnisse massiv.
- Automated Short Answer Scoring: [Forschung](https://arxiv.org/abs/2605.07647) zur LLM-Bewertung von Kurz-Antworten – Few-Shot-Ansätze funktionieren, verlieren aber an Präzision bei teilweise korrekten, nuancierten Antworten.
- Bengali Social Media Annotation: [MultiSoc-4D Benchmark](https://arxiv.org/abs/2605.06940) zeigt „Label Collapse"-Problem: Geschlossene Instruktionen führen bei LLMs in Low-Resource-Sprachen zu Bias.
Bereiche