Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Arron🐱
Der Aufbau 🤑 von @degenzhanshi_ 🏝 @Buji_DAO Slow ist schnell
VLAs sind noch früh, $codec Code

CodecFlow22. Aug., 18:03
VLAs sind noch sehr neu und viele Menschen finden es schwierig, den Unterschied zwischen VLAs und LLMs zu verstehen.
Hier ist ein tiefer Einblick, wie sich diese KI-Systeme in Bezug auf Denken, Wahrnehmung und Handeln unterscheiden. Teil 1.
Lass uns die wichtigsten Unterschiede aufschlüsseln und wie KI-Agenten, die um ein LLM gewickelt sind, sich von Operator-Agenten unterscheiden, die VLA-Modelle verwenden:
1. Wahrnehmung: Wie sie die Welt wahrnehmen
Agent (LLM): Verarbeitet Text oder strukturierte Daten, z.B. JSON, APIs und manchmal Bilder. Es ist wie ein Gehirn, das mit sauberen, abstrahierten Eingaben arbeitet. Denk an das Lesen eines Handbuchs oder das Parsen einer Tabelle. Großartig für strukturierte Umgebungen, aber begrenzt durch das, was ihm zugeführt wird.
Operator (VLA): Sieht rohe, Echtzeit-Pixel von Kameras, plus Sensordaten (z.B. Berührung, Position) und Propriozeption (Selbstwahrnehmung der Bewegung). Es ist wie das Navigieren in der Welt mit Augen und Sinnen, das in dynamischen, chaotischen Umgebungen wie UIs oder physischen Räumen gedeiht.
2. Handeln: Wie sie interagieren
Agent: Handelt, indem er Funktionen, Werkzeuge oder APIs aufruft. Stell dir vor, es ist ein Manager, der präzise Anweisungen gibt wie „Buche einen Flug über die Expedia-API.“ Es ist absichtlich, aber abhängig von vorgefertigten Werkzeugen und klaren Schnittstellen.
Operator: Führt kontinuierliche, niedrigstufige Aktionen aus, wie das Bewegen eines Mauszeigers, Tippen oder das Steuern von Robotergelenken. Es ist wie ein geschickter Arbeiter, der direkt mit der Umgebung interagiert, ideal für Aufgaben, die Echtzeit-Präzision erfordern.
3. Kontrolle: Wie sie Entscheidungen treffen
Agent: Folgt einem langsamen, reflektierenden Zyklus: planen, ein Werkzeug aufrufen, das Ergebnis bewerten, wiederholen. Es ist tokengebunden (begrenzt durch die Textverarbeitung) und netzwerkgebunden (wartet auf API-Antworten). Das macht es methodisch, aber träge für Echtzeitanwendungen.
Operator: Arbeitet, trifft schrittweise Entscheidungen in einem engen Feedback-Zyklus. Denk an einen Gamer, der sofort auf das reagiert, was auf dem Bildschirm zu sehen ist. Diese Geschwindigkeit ermöglicht flüssige Interaktionen, erfordert jedoch eine robuste Echtzeitverarbeitung.
4. Daten zum Lernen: Was ihr Training antreibt
Agent: Wird auf riesigen Textkorpora, Anleitungen, Dokumentationen oder RAG (Retrieval-Augmented Generation) Datensätzen trainiert. Er lernt aus Büchern, Code oder FAQs und glänzt im Denken über strukturiertes Wissen.
Operator: Lernt aus Demonstrationen (z.B. Videos von Menschen, die Aufgaben ausführen), Teleoperationsprotokollen oder Belohnungssignalen. Es ist wie Lernen durch Zuschauen und Üben, perfekt für Aufgaben, bei denen explizite Anweisungen rar sind.
5. Fehlermodi: Wo sie versagen
Agent: Neigt zu Halluzinationen (Antworten erfinden) oder brüchigen Langzeitplänen, die zusammenbrechen, wenn ein Schritt fehlschlägt. Es ist wie ein Stratege, der überdenkt oder die Situation falsch einschätzt.
Operator: Sieht sich einer Kovariatenverschiebung gegenüber (wenn die Trainingsdaten nicht mit den realen Bedingungen übereinstimmen) oder kumulierten Fehlern in der Steuerung (kleine Fehler summieren sich). Es ist wie ein Fahrer, der auf einer unbekannten Straße die Kontrolle verliert.
6. Infrastruktur: Die Technik dahinter
Agent: Vertraut auf einen Prompt/Router, um zu entscheiden, welche Werkzeuge aufgerufen werden, ein Werkzeugverzeichnis für verfügbare Funktionen und Speicher/RAG für den Kontext. Es ist ein modulares Setup, wie ein Kommandozentrum, das Aufgaben orchestriert.
Operator: Benötigt Videoeingabepipelines, einen Aktionsserver für die Echtzeitsteuerung, einen Sicherheitsmechanismus, um schädliche Aktionen zu verhindern, und einen Replay-Puffer, um Erfahrungen zu speichern. Es ist ein Hochleistungssystem, das für dynamische Umgebungen gebaut ist.
7. Wo jeder glänzt: Ihre Stärken
Agent: Dominierend in Workflows mit sauberen APIs (z.B. Automatisierung von Geschäftsprozessen), Denken über Dokumente (z.B. Zusammenfassen von Berichten) oder Code-Generierung. Es ist dein Ansprechpartner für strukturierte, hochrangige Aufgaben.
Operator: Exzellent in chaotischen, API-losen Umgebungen wie dem Navigieren durch unhandliche UIs, dem Steuern von Robotern oder dem Bewältigen von spielähnlichen Aufgaben. Wenn es um Echtzeitinteraktion mit unvorhersehbaren Systemen geht, ist VLA der König.
8. Mentales Modell: Planer + Macher
Denk an den LLM-Agenten als den Planer: Er zerlegt komplexe Aufgaben in klare, logische Ziele.
Der VLA-Operator ist der Macher, der diese Ziele umsetzt, indem er direkt mit Pixeln oder physischen Systemen interagiert. Ein Prüfer (ein anderes System oder ein Agent) überwacht die Ergebnisse, um den Erfolg sicherzustellen.
$CODEC

1,92K
In letzter Zeit haben kleine virtuelle Ökosystemprojekte stark an Bedeutung gewonnen. Es scheint, dass die Projektteams, die noch aktiv sind, kaum noch fallen können. Ich habe recherchiert, was man im Voraus beobachten kann, und habe festgestellt, dass dies das nützlichste ist. Es gibt einen Token namens $wint, dessen Marktkapitalisierung auch nicht hoch ist. Ich werde ein wenig kaufen, um die Tiefe zu testen. Wenn jemand Empfehlungen für kleine virtuelle Projekte hat, freue ich mich über Kommentare.
3,35K
Die Erzählung von $robot robotic hat begonnen, sich zu entwickeln.


Arron🐱8. Aug., 00:27
Ich habe Angst vor meinen Krypto-Freunden, deshalb habe ich am Boden nicht gewagt, $robot zu posten. Tatsächlich ist die technische Stärke von robot dev auch ziemlich gut, aber sie sind in das virtuelle Ökosystem abgestürzt.

21,27K
Der erste Coin $grow auf der Penguin-Chain ist nach dem Eröffnungs-Handel auf 1 Million gefallen. Auf Twitter wird weiterhin Werbung gemacht und Rückkäufe durchgeführt, es scheint also, dass das Projekt nicht aufgegeben wurde. Man könnte ein wenig investieren und sehen, ob es eine zweite Welle gibt.
2,63K
Wann hat das Team Zeit, um Uniswap V4 richtig zu bearbeiten? Das ist die harte Wahrheit. Es ist schon eine Weile veröffentlicht, aber es gibt nur wenige unterstützte Bots, und die Frontend-Handelsmöglichkeiten sind oft nicht verfügbar. Jetzt gibt es zwar schon viele Uniswap V4-Token, aber viele Leute kaufen sie nicht, und die Untergrenze ist noch nicht garantiert. Wann die Obergrenze von Hook geöffnet wird, weiß niemand.

CM12. Aug., 14:11
Erkläre den neuesten "DUNI"-Vorschlag von Uniswap,
der im Grunde als Vorbote für die zukünftige $UNI-Befähigung angesehen werden kann. Obwohl der Fee-Switch 2024 in der Vergangenheit umstritten war und „hochgekocht“ wurde, wurde er letztendlich von a16z aufgrund von Compliance-Problemen gestoppt. Der Zweck dieses Vorschlags ist es, in den DUNA-Rechtsrahmen von Wyoming einzutreten.
DUNA ist im Grunde etwas, das a16z vorantreibt; im März 2024 hat a16z bereits einen entsprechenden Artikel veröffentlicht.
Dieser Rahmen ist im Wesentlichen darauf ausgelegt, DAO legal zu gestalten, und a16z hat wahrscheinlich auch eine gewisse Rolle im Hintergrund gespielt, sodass der Fortschritt unvermeidlich ist.
Der Vorschlag befindet sich derzeit in der RFC-Phase, und spezifische Vorschläge in Bezug auf den Fee-Switch sind noch nicht vorhanden. Es ist auch sehr wahrscheinlich, dass zunächst die Unichain-Staking-Implementierung durchgeführt wird, da dies aus verschiedenen Perspektiven einfacher umzusetzen ist.
Uniswap räumt Hindernisse für Compliance-Probleme aus dem Weg; der Prozess könnte lange dauern, kurzfristige Spekulationen werden möglicherweise nicht in den Preisen reflektiert, aber es wird in die richtige Richtung vorangetrieben und ist dem Ziel näher gekommen.

23,17K
Ich komme zu Base, um nur drei Dinge zu tun: Fairness, Fairness und verdammte Fairness $fair


Arron🐱9. Aug., 12:12
In letzter Zeit ist das Base wirklich im einfachen Modus, dieses Fair ist von dem Sociafi-Fonds @Re7Labs herausgegeben worden. Dieser Fonds hat 10 Millionen in verschiedene Projekte von Faircaster investiert, und Re7 und WLFI stehen auch in engem Kontakt. Ich denke, das Projekt selbst hat nicht viel Bedeutung, es ist im Grunde vollständig kontrolliert, der Eröffnungspreis wurde sehr hoch angesetzt, und nachdem das Netz geschlossen wurde, wurden einige übernommen, nach einem Monat des Wash-Tradings hat es schließlich Früchte getragen.


4,36K
In letzter Zeit ist das Base wirklich im einfachen Modus, dieses Fair ist von dem Sociafi-Fonds @Re7Labs herausgegeben worden. Dieser Fonds hat 10 Millionen in verschiedene Projekte von Faircaster investiert, und Re7 und WLFI stehen auch in engem Kontakt. Ich denke, das Projekt selbst hat nicht viel Bedeutung, es ist im Grunde vollständig kontrolliert, der Eröffnungspreis wurde sehr hoch angesetzt, und nachdem das Netz geschlossen wurde, wurden einige übernommen, nach einem Monat des Wash-Tradings hat es schließlich Früchte getragen.


8,87K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten