Top KI-Papiere der Woche (28. Juli - 3. August): - GEPA - Graph-R1 - AlphaEarth - Selbst-evolvierende Agenten - Hierarchisches Denkmodell - Effiziente Aufmerksamkeitsmechanismen - Geometrisch-Mittel-Politik-Optimierung Weiterlesen für mehr:
1. AlphaEarth Foundations AlphaEarth Foundations (AEF) stellt ein aufgabenunabhängiges geospatiales Grundmodell vor, das ein kompaktes, zeitkontinuierliches Einbettungsfeld der Erdoberfläche lernt.
Google DeepMind
Google DeepMind30. Juli 2025
Unser neues KI-Modell AlphaEarth Foundations kartiert den Planeten in erstaunlicher Detailgenauigkeit. 🌏🔍 Wissenschaftler werden nun in der Lage sein, die Auswirkungen der Abholzung zu verfolgen, die Gesundheit der Pflanzen zu überwachen und mehr – dank unserer neuen Datensätze erheblich schneller. 🧵
2. Geometrisch-Mittel-Politik-Optimierung Führt eine stabilisierte Alternative zur Gruppenrelativen Politikoptimierung (GRPO) ein, die weit verbreitet ist, um die Denkfähigkeiten in großen Sprachmodellen durch verstärkendes Lernen zu verbessern.
3. GEPA Führt einen neuen Optimierer, GEPA, ein, der Eingabeaufforderungen für zusammengesetzte KI-Systeme mithilfe von natürlicher Sprachreflexion und Pareto-basierter Suche adaptiv verbessert.
Lakshya A Agrawal
Lakshya A Agrawal29. Juli 2025
Wie schneidet die prompte Optimierung im Vergleich zu RL-Algos wie GRPO ab? GRPO benötigt 1000e von Rollouts, aber Menschen können aus ein paar Versuchen lernen – indem sie darüber nachdenken, was funktioniert hat und was nicht. Lernen Sie GEPA kennen: einen reflektierenden Prompt-Optimierer, der GRPO um bis zu 20 % übertreffen kann, und das bei 35-mal weniger Rollouts! 🧵
5. Graph-R1 Stellt ein neuartiges RAG-Framework vor, das über traditionelle One-Shot- oder Chunk-basierte Abrufmethoden hinausgeht, indem es graphstrukturierte Kenntnisse, agentische Mehrfachinteraktionen und RL integriert.
elvis
elvis30. Juli 2025
Graph-R1 Neues RAG-Framework gerade veröffentlicht! Kombiniert Agenten, GraphRAG und RL. Hier sind meine Notizen:
7. Wo sollten Demos in Ihrem Prompt angezeigt werden? Einführung in den DPP-Bias, eine neue Art von Positionssensitivität in großen Sprachmodellen (LLMs), bei der der Standort von Demonstrationen in einem Prompt die Ausgabe-Genauigkeit und -Stabilität erheblich beeinflusst.
elvis
elvis31. Juli 2025
Wo man Demonstrationen in seinem Prompt platzieren sollte? Diese Arbeit stellt fest, dass viele Aufgaben von Demos zu Beginn des Prompts profitieren. Wenn Demos am Ende der Benutzeranfrage platziert werden, können sie über 30 % der Vorhersagen umkehren, ohne die Richtigkeit zu verbessern. Eine großartige Lektüre für KI-Entwickler.
140,52K