Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
PUMP Der öffentliche Verkauf ist beendet. Ursprünglich hatte ich auch einen großen Betrag bei Bybit, nur die Hälfte auf der Blockchain, am Ende hat nur die Blockchain-Transaktion funktioniert, zum Glück habe ich nicht vorzeitig abgesichert...
Übrigens diskutieren in letzter Zeit viele im AI-Community über VLA (Vision‑Language‑Action).
Ich habe speziell untersucht, ob es auf der Blockchain-Projekte gibt, die sich mit VLA beschäftigen, und habe das Projekt CodecFlow @Codecopenflow gesehen und ein wenig gekauft.
== Was macht das CodecFlow-Projekt? ==
Eine kurze Einführung in VLA: VLA ist eine Modellarchitektur, die es AI ermöglicht, nicht nur "reden" zu können, sondern auch "handeln" zu können.
Traditionelle LLMs (wie GPT) können nur Sprache verstehen und Vorschläge machen, aber sie können nicht selbst handeln, nicht auf dem Bildschirm klicken und keine Objekte greifen.
Das VLA-Modell bedeutet, dass drei Hauptfähigkeiten integriert sind:
1. Vision (Sicht): Verstehen von Bildern, Screenshots, Kameraeingaben oder Sensordaten.
2. Language (Sprache): Verstehen von natürlichen Sprachbefehlen der Menschen.
3. Action (Aktion): Erzeugen von ausführbaren Befehlen, wie Mausklicks, Tastatureingaben und Steuerung von Roboterarmen.
CodecFlow arbeitet an der Blockchain-VLA, alle Abläufe können auch auf der Blockchain gespeichert werden, sind prüfbar, verifizierbar und abgerechnet.
Kurz gesagt, es ist die grundlegende Infrastruktur für "AI-Roboter".
== Warum achte ich besonders auf dieses Projekt? ==
Ich habe festgestellt, dass ihre Entwickler die Hauptbeiträger des heißesten Open-Source-Projekts im VLA-Bereich, LeRobot, sind!
LeRobot ist die Top-Basis in der Open-Source-Welt für den Aufbau von VLA-Modellen, einschließlich SmolVLA, das auf Laptops läuft.
Das bedeutet, dass dieses Team wirklich die VLA-Architektur und Roboter versteht.
Ich sehe, dass sie weiterhin aufbauen, der Preis der Münze stabil steigt, ich persönlich bin sehr optimistisch über den VLA-Sektor, und insgesamt gesehen ist VLA zusammen mit Robotern in der Marktlandschaft definitiv die Zukunft.
• Web2-Giganten (Google, Meta, Tesla) haben derzeit alle Ressourcen in VLA & Roboterschulung investiert;
• Web3-Projekte, die in der Lage sind, Aufgaben auszuführen, sind im VLA-Anwendungsbereich noch sehr rar.
• VLA hat die Möglichkeit, in Szenarien wie DePIN, Web-Automatisierung und Blockchain-AI-Agenten enorme Werte zu schaffen.
CA: 69LjZUUzxj3Cb3Fxeo1X4QpYEQTboApkhXTysPpbpump
Immer DYOR.

26. Juni 2025
Was ist ein $CODEC Operator?
Hier machen Vision-Language-Action-Modelle KI endlich für die reale Arbeit nutzbar.
Ein Operator ist ein autonomer Software-Agent, der auf VLA-Modellen basiert und Aufgaben in einem kontinuierlichen Wahrnehmungs-Grund-Akt-Zyklus ausführt.
LLMs können brillant denken und sprechen, aber sie können nicht zeigen, klicken oder irgendetwas greifen. Sie sind reine Reasoning-Engines ohne Erdung in der physischen Welt.
VLAs kombinieren visuelle Wahrnehmung, Sprachverständnis und strukturierte Aktionsausgabe in einem einzigen Vorwärtsdurchgang. Während ein LLM beschreibt, was passieren sollte, setzt ein VLA-Modell dies tatsächlich um, indem es Koordinaten, Steuersignale und ausführbare Befehle ausgibt.
Der Operator-Workflow sieht wie folgt aus:
- Wahrnehmung: Erfasst Screenshots, Kamera-Feeds oder Sensordaten.
- Reasoning: Verarbeitet Beobachtungen zusammen mit Anweisungen in natürlicher Sprache unter Verwendung des VLA-Modells.
- Aktion: Führt Entscheidungen über Benutzeroberflächeninteraktionen oder Hardwaresteuerung aus – alles in einer kontinuierlichen Schleife.
Beispiele: LLM vs. Operator mit VLA-Modell
Planen eines Meetings
LLM: Bietet eine detaillierte Erläuterung der Kalenderverwaltung und beschreibt die Schritte zum Planen einer Besprechung.
Operator mit VLA-Modell:
- Erfasst den Desktop des Benutzers.
- Identifiziert die Kalenderanwendung (z. B. Outlook, Google Kalender).
- Navigiert zu Donnerstag, erstellt eine Besprechung um 14 Uhr und fügt Teilnehmer hinzu.
- Passt sich automatisch an Änderungen der Benutzeroberfläche an.
Robotik: Objekte sortieren
LLM: Generiert präzise schriftliche Anweisungen zum Sortieren von Objekten, z. B. zum Identifizieren und Organisieren von roten Komponenten.
Operator mit VLA-Modell:
- Beobachtet den Arbeitsbereich in Echtzeit.
- Identifiziert rote Komponenten unter gemischten Objekten.
- Plant kollisionsfreie Flugbahnen für einen Roboterarm.
- Führt Pick-and-Place-Vorgänge aus und passt sich dynamisch an neue Positionen und Ausrichtungen an.
VLA-Modelle schließen endlich die Lücke zwischen KI, die über die Welt nachdenken kann, und KI, die sie tatsächlich verändern kann. Sie sind es, die die Automatisierung von der fragilen Befolgung von Regeln in eine anpassungsfähige Problemlösung verwandeln – intelligente Mitarbeiter.
"Herkömmliche Skripte funktionieren nicht mehr, wenn sich die Umgebung ändert, aber die Operatoren nutzen visuelles Verständnis, um sich in Echtzeit anzupassen und Ausnahmen zu behandeln, anstatt bei ihnen abzustürzen."

11,24K
Top
Ranking
Favoriten