Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Ich habe mich ein wenig in all den Abkürzungen und dem Fachjargon hier verloren, also ließ ich Claude es mir ohne Abkürzungen erklären und jetzt macht alles perfekten Sinn (kurz gesagt; Bandbreite ⟹ Einfachheit):
Dies ist eine faszinierende technische Diskussion über das Training großer Sprachmodelle im großen Maßstab.
Das Kern-Gespräch
Jingyuan Liu äußert Überraschung darüber, dass man bestimmte komplexe Optimierungstechniken nicht benötigt, wenn man TPUs (Tensor Processing Units - Googles spezialisierte KI-Chips) im Vergleich zu GPUs (Graphics Processing Units - typischerweise NVIDIA-Chips) verwendet.
Wichtige technische Konzepte erklärt:
Hardwaretypen:
•GPU (Graphics Processing Unit): Ursprünglich für Grafiken entwickelt, jetzt stark für KI genutzt. NVIDIA dominiert diesen Markt.
•TPU (Tensor Processing Unit): Googles maßgeschneiderte Chips speziell für maschinelles Lernen.
Parallelitätsstrategien:
Beim Training massiver KI-Modelle muss man die Arbeit auf viele Chips aufteilen. Es gibt mehrere Möglichkeiten, dies zu tun:
1) Datenparallelismus (DP): Jeder Chip verarbeitet unterschiedliche Datenbatches mit derselben Modellkopie.
2) Tensorparallelismus (TP): Die mathematischen Operationen des Modells werden auf Chips aufgeteilt.
3) Pipeline-Parallelismus (PP): Verschiedene Schichten des Modells werden auf verschiedenen Chips platziert, wodurch eine Pipeline entsteht.
Die technische Herausforderung, die diskutiert wird:
Das Problem des Hilfsverlusts: Beim Training sehr großer Modelle fügt man oft "Hilfsverluste" (zusätzliche Trainingsziele) in Zwischenebenen hinzu, um den Fluss der Gradienten durch das Netzwerk zu verbessern. Unter den PPVP (Pipeline-Parallelismus mit variabler Partitionierung) Einschränkungen wird dies komplex, weil:
•Man muss "alle f alle b" (alle Vorwärtsdurchläufe, dann alle Rückwärtsdurchläufe) durchführen.
•Das ist herausfordernd für die Spitzen-Speicherauslastung, weil man Zwischenresultate speichern muss.
Die Innovation von DeepSeek: Sie entwickelten ein "auxfree bias"-Design, das anscheinend diese Hilfsverluste vermeidet und dennoch effektiv trainiert.
Die überraschende Offenbarung:
Der erfahrene Experte sagte Jingyuan, dass man mit TPUs im K2- oder DSV3-Maßstab (das sind Clusterkonfigurationen mit Hunderten oder Tausenden von Chips) eine hervorragende MFU (Model FLOPs Utilization - im Grunde, wie effizient man die Hardware nutzt) OHNE Pipeline-Parallelismus erreichen kann.
Warum ist das überraschend?
•Pipeline-Parallelismus wird typischerweise als wesentlich für das Training im großen Maßstab angesehen.
•Es ist eine komplexe Technik, die sorgfältige Optimierung erfordert.
•Es zu vermeiden, vereinfacht alles erheblich.
Horace He's Erklärung:
Er erklärt, WARUM dies mit TPUs möglich ist:
Der Bandbreitenvorteil: TPUs und hochmoderne NVIDIA-Cluster (wie NVL72 - die neueste 72-GPU-Konfiguration von NVIDIA mit NVLink-Interconnects) haben eine so hohe Bandbreite zwischen den Chips, dass sie die Kommunikationsanforderungen ohne Pipeline-Parallelismus bewältigen können.
Die zentrale Erkenntnis:
•Pipeline-Parallelismus wird hauptsächlich benötigt, wenn man "bei DP-Kommunikationen im Engpass ist" (beschränkt durch die Geschwindigkeit, mit der man während des Datenparalleltrainings kommunizieren kann).
•Wenn man genügend Bandbreite über ein großes genug Gebiet (vernetztes Cluster) hat, kann man einfach einfachere Parallelitätsstrategien verwenden.
•Das funktioniert "sehr lange" - was bedeutet, dass man selbst sehr große Modelle trainieren kann, ohne die Grenzen zu erreichen.
Die Intuition:
Denken Sie an ein Autobahnsystem:
•Traditionelle GPU-Cluster sind wie enge Straßen zwischen Städten, sodass man komplexe Routenführung (Pipeline-Parallelismus) benötigt, um Staus zu vermeiden.
•TPU-Cluster oder NVLink-verbundene GPUs sind wie riesige Autobahnen - man kann einfach alles direkt senden, ohne ausgeklügelte Routenführung.
Das ist ein großes Thema, denn Pipeline-Parallelismus ist komplex zu implementieren, zu debuggen und zu optimieren. Es zu vermeiden, während man dennoch hohe Effizienz erreicht, macht den gesamten Trainingsprozess viel einfacher und zuverlässiger.
Die Diskussion hebt hervor, wie Fortschritte in der Hardware-Interconnect-Technologie (die "Straßen" zwischen den Chips) die Softwarestrategien, die für effizientes KI-Training benötigt werden, grundlegend verändern können.

25,29K
Ich habe mich ein wenig in all den Abkürzungen und dem Fachjargon hier verloren, also ließ ich Claude es mir ohne Abkürzungen erklären und jetzt macht alles perfekten Sinn (tl;dr; Bandbreite ⟹ Einfachheit):
Dies ist eine faszinierende technische Diskussion über das Training großer Sprachmodelle im großen Maßstab.
Das Kern-Gespräch
Jingyuan Liu äußert Überraschung darüber, dass man bestimmte komplexe Optimierungstechniken nicht benötigt, wenn man TPUs (Tensor Processing Units - Googles spezialisierte KI-Chips) im Vergleich zu GPUs (Graphics Processing Units - typischerweise NVIDIA-Chips) verwendet.
Wichtige technische Konzepte erklärt:
Hardwaretypen:
•GPU (Graphics Processing Unit): Ursprünglich für Grafiken entwickelt, jetzt stark für KI genutzt. NVIDIA dominiert diesen Markt.
•TPU (Tensor Processing Unit): Googles maßgeschneiderte Chips speziell für maschinelles Lernen.
Parallelitätsstrategien:
Beim Training massiver KI-Modelle muss man die Arbeit auf viele Chips aufteilen. Es gibt mehrere Möglichkeiten, dies zu tun:
1. Datenparallelismus (DP): Jeder Chip verarbeitet unterschiedliche Datenbatches mit derselben Modellkopie.
2. Tensorparallelismus (TP): Die mathematischen Operationen des Modells werden auf Chips aufgeteilt.
3. Pipeline-Parallelismus (PP): Verschiedene Schichten des Modells werden auf unterschiedlichen Chips platziert, wodurch eine Pipeline entsteht.
Die technische Herausforderung, die diskutiert wird:
Das Problem des Hilfsverlusts: Beim Training sehr großer Modelle fügt man oft "Hilfsverluste" (zusätzliche Trainingsziele) in Zwischenebenen hinzu, um den Fluss der Gradienten durch das Netzwerk zu verbessern. Unter den PPVP (Pipeline-Parallelismus mit variabler Partitionierung) Einschränkungen wird dies komplex, weil:
•Man muss "alle f alle b" (alle Vorwärtsdurchläufe, dann alle Rückwärtsdurchläufe) durchführen.
•Das ist herausfordernd für die Spitzen-Speichernutzung, da man Zwischenresultate speichern muss.
Die Innovation von DeepSeek: Sie entwickelten ein "auxfree bias"-Design, das anscheinend diese Hilfsverluste vermeidet und dennoch effektiv trainiert.
Die überraschende Offenbarung:
Der erfahrene Experte sagte Jingyuan, dass man mit TPUs im K2- oder DSV3-Maßstab (das sind Clusterkonfigurationen mit Hunderten oder Tausenden von Chips) eine hervorragende MFU (Model FLOPs Utilization - im Grunde, wie effizient man die Hardware nutzt) erreichen kann, OHNE Pipeline-Parallelismus zu verwenden.
Warum ist das überraschend?
•Pipeline-Parallelismus wird typischerweise als wesentlich für das Training im großen Maßstab angesehen.
•Es ist eine komplexe Technik, die sorgfältige Optimierung erfordert.
•Es zu vermeiden, vereinfacht alles erheblich.
Horace He's Erklärung:
Er erklärt, WARUM dies mit TPUs möglich ist:
Der Bandbreitenvorteil: TPUs und hochmoderne NVIDIA-Cluster (wie NVL72 - die neueste 72-GPU-Konfiguration von NVIDIA mit NVLink-Interconnects) haben eine so hohe Bandbreite zwischen den Chips, dass sie die Kommunikationsanforderungen ohne Pipeline-Parallelismus bewältigen können.
Der entscheidende Einblick:
•Pipeline-Parallelismus wird hauptsächlich benötigt, wenn man "bei DP-Kommunikationen im Engpass ist" (beschränkt durch die Geschwindigkeit, mit der man während des datenparallelen Trainings kommunizieren kann).
•Wenn man genügend Bandbreite über ein großes genug Gebiet (vernetztes Cluster) hat, kann man einfach einfachere Parallelitätsstrategien verwenden.
•Das funktioniert "sehr lange" - das bedeutet, man kann sogar sehr große Modelle trainieren, ohne die Grenzen zu erreichen.
Die Intuition:
Denken Sie an ein Autobahnsystem:
•Traditionelle GPU-Cluster sind wie enge Straßen zwischen Städten, sodass man komplexe Routenführung (Pipeline-Parallelismus) benötigt, um Staus zu vermeiden.
•TPU-Cluster oder NVLink-verbundene GPUs sind wie riesige Autobahnen - man kann einfach alles direkt senden, ohne ausgeklügelte Routenführung.
Das ist ein großes Ding, denn Pipeline-Parallelismus ist komplex zu implementieren, zu debuggen und zu optimieren. Es zu vermeiden, während man dennoch hohe Effizienz erreicht, macht den gesamten Trainingsprozess viel einfacher und zuverlässiger.
Die Diskussion hebt hervor, wie Fortschritte in der Hardware-Interconnect-Technologie (die "Straßen" zwischen den Chips) die Softwarestrategien, die für effizientes KI-Training benötigt werden, grundlegend verändern können.

3,74K
Ich bin ein bisschen überrascht, dass noch niemand einen Dwarf Fortress MCP-Server erstellt hat, der es einem Agenten wie Codex oder Claude Code ermöglichen könnte, das Spiel effizient zu steuern und den Zustand sowie den Fortschritt zu überwachen.
Ich habe es selbst nie wirklich gespielt, sondern es vor etwa 10 Jahren nur heruntergeladen und kurz angeschaut, aber ich habe es genossen, darüber zu lesen.
Es fühlt sich an, als wäre es ein sehr guter Test für ein LLM, um zu sehen, wie lange es die Zwerge am Leben und gedeihend halten kann.
Da jedes Spiel letztendlich in einer kaskadierenden Katastrophe endet, die dazu führt, dass alle Zwerge sterben, sollte es einen natürlichen Endpunkt geben, was es zu einem guten Benchmark-Kandidaten macht. Zumindest ist das mein Verständnis davon (das Motto der Spieler ist "Verlieren macht Spaß").
Eine gute Leistung in diesem Spiel würde von der Genauigkeit der Werkzeugaufrufe und der nachhaltigen Kohärenz bei langen Aufgaben abhängen, sowie von der Fähigkeit, die Dynamik eines komplexen Systems zu überwachen und zu verstehen und rechtzeitig Eingriffe vorzunehmen, die Probleme antizipieren und entgegenwirken.
Und da es terminal-nativ ist, könnte es effizient übertragen und verarbeitet werden, indem reguläre Tokens verwendet werden, ohne dass eine multimodale Bildverarbeitung erforderlich ist, was es viel effizienter machen würde als andere Spiele.
Außerdem weißt du, dass keine KI-Labore dafür (noch!) trainiert haben, also ist es unberührt von "Benchmaxxing."

4,25K
Eine unterhaltsame Sache, die man tun kann, wenn man ein paar Minuten warten muss, ist, sein Handy zu benutzen, um Claude Opus die folgende Frage zu einem zufälligen Fachgebiet zu stellen:
„Was würden Sie als DIE zentrale Einsicht oder analytische Trick der Kristallographie bezeichnen?“
Ersetzen Sie Kristallographie durch alles, was Ihnen einfällt. Bisher habe ich es mit versucht:
QED; das Standardmodell; Biochemie; Wahrscheinlichkeit; Evolutionstheorie; und viele mehr.
Es gibt etwas daran, das Modell zu zwingen, das Unmögliche zu tun, ein weites, komplexes Feld in „einen seltsamen Trick“ zu kondensieren, das es wirklich dazu bringt, nach dem besten tiefen, einheitlichen Prinzip in dem Bereich zu suchen und es dann prägnant zu artikulieren.
Das ist in der Regel etwas, das für Praktiker offensichtlich ist, aber sehr wahrscheinlich den meisten Menschen mit nur einem flüchtigen Interesse an dem Thema unbekannt bleibt.
Interessanterweise können Sie auch wiederholt die „Wiederholen“-Taste mit demselben Prompt drücken und manchmal sehr unterschiedliche, aber normalerweise sehr faszinierende Erklärungen erhalten.
Ich habe bereits VIEL daraus gelernt, und es könnte einfach die höchste „Verständnis pro Minute“ sein, die ich beim selbstgesteuerten Lernen erlebt habe.
Denn es sind nicht nur unterhaltsame Fakten oder coole Informationen. Sie sind, durch ihre Konstruktion, durchdringende und einheitliche Ideen, die eine große Menge an Theorie und beobachteten Phänomenen in der Welt miteinander verbinden.
Es ist sicherlich viel bandbreitenintensiver, als sich ein weiteres YouTube-Erklärvideo mit Animationen und Werbung für Brilliant/KiwiCo anzusehen! Nicht, dass daran etwas falsch wäre.




8,13K
Die Vorstellung, dass es in letzter Zeit einen solchen "Talent-Exodus" von OpenAI gegeben hat, dass sie nicht mehr in der Lage sind, eine Führungsposition im Bereich einzunehmen, ist ebenso fehlgeleitet und falsch wie die Idee, dass GPT-5 "ein großer Flop war und das Modell nicht so toll ist und sehr inkrementell."
Nicht nur ist GPT-5 Pro jetzt das intelligenteste Modell der Welt, und das in einem sehr großen Umfang bei den meisten herausfordernden realen Aufgaben (insbesondere bei Programmieraufgaben, die jetzt die größte wirtschaftliche Bedeutung haben), sondern das neue Codex-CLI-Tool von OpenAI ist unglaublich gut umgesetzt.
Sie sind von einem fernen 3. Platz bei Programmier-CLI-Tools zu dem gekommen, was man wohl als das beste Tool der Gegenwart bezeichnen kann (beachte, dass ich Claude Code immer noch mag und benutze, es ist nicht entweder/oder!), mit bei weitem der besten Leistung, der niedrigsten Latenz usw., weil es in Rust programmiert ist.
Und jetzt ist dieses CLI-Tool mit dem besten Programmiermodell kombiniert, das die beste Zuverlässigkeit beim Toolaufruf und die beste Kohärenz bei langen Aufgaben hat, mit der geringsten Menge an Halluzinationen.
Und needless to say, ihre iOS-App ist auch dramatisch besser als alle anderen KI-Apps in Bezug auf Politur und Funktionen. Die Claude-App ist einfach die Webanwendung in einer Safari-Sandbox! Und ihre Webanwendung ist auch immer noch die beste. Dinge wie die Suche funktionieren einfach besser als in anderen Apps. Grundlegendes Blocking und Tackling.
Also, ja. Einige sehr kluge Leute wie Ilya und John Schulman sind zu anderen Unternehmen gegangen. Aber sie haben immer noch ein absolut großartiges technisches Team mit unglaublich guten Produktleuten und großartigen Ingenieursfähigkeiten.
Lass nicht zu, dass deine Abneigung gegen Altman dich blind für das Offensichtliche macht. Jedes Mal, wenn ich wieder eine Person sehe, die darüber redet, wie schlecht GPT-5 ist, schaudere ich, denn die Person zeigt, dass sie nicht in der Lage ist, selbstständig zu denken, basierend auf Beweisen und Vernunft, und sich in die Irre führen ließ, indem sie eine Meinung (und diese online äußert), weil sie denkt, dass es sie clever erscheinen lässt.
34,1K
Als Update zu meinen beiden letzten Threads über die Verwendung von GPT-5 Pro, um einen Prozess zur Entdeckung bahnbrechender Theorien zu initiieren, die neuartige Anwendungen fortgeschrittener Mathematik mit den KI-Anwendungsfällen kombinieren, ließ ich das Modell Demo-Implementierungen in Python unter Verwendung von Jax und Numpy für jede der 11 Ideen erstellen.
Dann habe ich sie in einem Projekt zusammengefügt und eine schöne CLI hinzugefügt, um sie auszuführen, sowie eine Reihe von End-to-End-Tests, die gemessen haben, ob der Code mathematisch korrekt ist, überprüfen, ob der Code die mathematischen Eigenschaften hat, die wir wollen, und schließlich, ob er im Vergleich zu den aktuellen Standardansätzen etwas Nützliches tut.
Ich habe die Codex-CLI mit GPT-5 verwendet, um alles zu integrieren und Fehler zu beheben. Ich werde auf das Repository verlinken, das eine detaillierte Dokumentation für das gesamte Projekt enthält, sowie auf die Berichte für jede der 11 Demos, die alle Ausgaben enthalten, die das Modell während des Prozesses generiert hat.
3,89K
Wow, ich habe endlich die neue Version von OpenAIs Codex CLI (ihre Antwort auf Claude Code) ausprobiert.
Das letzte Mal, als ich versucht habe, Codex zu verwenden (beachte, dass dies anders ist als ihr gehosteter Coding-Agent, der ebenfalls Codex genannt wird, was extrem verwirrend ist; ich spreche jetzt von dem Tool, das du lokal auf deinem Rechner im Terminal ausführst), war es als Nodejs/Typescript-App geschrieben und hat wirklich nicht gut funktioniert:
- konnte nur auf schwächere Modelle wie o4-mini oder deren Variante für Codex zugreifen, die verwirrenderweise auch Codex genannt wird (ernsthaft?)
- viel schlechtere UI/UX als Claude Code
- viel schlechter beim Programmieren aufgrund des schlechteren Modells, schlechteren Werkzeugs und schlechteren Agentenflusses.
- es hat dich nervig gezwungen, für alles die Erlaubnis zu geben, sodass du es die ganze Zeit im Auge behalten musstest, was es viel weniger nützlich machte, weil du nicht aktiv eine Menge davon parallel ausführen konntest.
- vielleicht war das aber auch eine gute Sache, denn das größte Problem war, dass es super rücksichtslos und destruktiv war; es war viel unvorsichtiger als CC.
Das ist letztendlich der Grund, warum ich sofort aufgehört habe, es zu benutzen, da es beschloss, einen "git reset --hard HEAD" ohne vorheriges Stashen durchzuführen, und ich einige Arbeit verloren habe. Nie wieder, dachte ich.
Nun, ich habe endlich die brandneue Rust-Version ausprobiert, die GPT-5 verwendet und die dein bestehendes GPT Pro-Abonnement anstelle eines API-Schlüssels nutzen kann, und das ist so viel besser, dass es schockierend ist.
Zunächst einmal gibt es einfach keinen Ersatz für schnell kompilierten Code, wenn es um interaktive Tools wie dieses geht.
Die Tatsache, dass es in Rust geschrieben ist, bedeutet, dass es überhaupt keine Verzögerung bei der Tastatureingabe gibt und auch keine seltsamen Artefakte wie bei CC, wo die Rücktaste nicht richtig funktioniert und die Eingabe ruckelig und verzögert ist, weil es in einer interpretierten Sprache geschrieben ist, die hundertmal langsamer für solche Dinge ist.
Mit ständiger Verzögerung und Ruckeln umzugehen, ist nicht nur langsamer, es ist mental und vielleicht sogar emotional belastend und ermüdend, zumindest für mich, wenn ich diese Dinge stundenlang benutze. Es ist ein schreckliches Gefühl, deine Werkzeuge zu hassen und ihnen gegenüber Groll zu empfinden, während du auf sie angewiesen bist, um deine Arbeit zu erledigen.
Ich hoffe wirklich, dass dies die Messlatte für all diese Tools höher legt und Anthropic und Google und andere überzeugt, ebenfalls Rust (oder C++, Zig, was auch immer) zu verwenden.
Aber die wirklich große Verbesserung ist offensichtlich das Modell; mit einem schlechteren Modell, das unzuverlässig beim Tool-Calling ist und das über längere Aufgaben hinweg die Kohärenz verliert, wäre keine der Rust-Schnelligkeit einen Deut wert.
Aber wenn du mir hier folgst, dann weißt du, dass ich seit etwa 15 Minuten nach der Veröffentlichung von GPT-5 Thinking von den Programmierfähigkeiten und der Tool-Calling-Kraft beeindruckt bin, obwohl ich es hauptsächlich über den Agenten-Tab von Cursor benutze.
Das Fazit ist, dass dieser neue Rust-Codex plötzlich zu einem wirklich formidablem Konkurrenten für CC geworden ist, und du solltest es unbedingt ausprobieren.
Ich muss sehen, wie viel Nutzung sie mir bei meinem $200/Monat GPT Pro-Abonnement erlauben, aber wenn ich ein paar mehr bekommen muss, wird es sich auf jeden Fall lohnen.
Beachte, dass ich nicht aufgehört habe, CC zu verwenden. Ich mag es, beide zusammen zu nutzen. Und glaub es oder nicht, ich benutze auch immer noch Cursor.
Die Leute sollten aufhören, nach dem einen einzigen Tool zu suchen, das alle anderen ersetzt, und akzeptieren, dass verschiedene Tools unterschiedliche Stärken und Schwächen haben, und dass man die besten Ergebnisse erzielt, indem man all das intuitiv durch ständige Nutzung lernt.
Wie auch immer, tu dir selbst einen Gefallen und hol es dir jetzt. Der einfachste Weg ist, diesen Befehl auszuführen (beachte, dass du damit die Rust-Version bekommst, trotz der Verwirrung, bun/npm dafür zu verwenden):
bun i -g @openai/codex
8,66K
Wow, ich habe endlich die neue Version von OpenAIs Codex CLI (ihre Antwort auf Claude Code) ausprobiert.
Das letzte Mal, als ich versucht habe, Codex zu verwenden (beachte, dass dies anders ist als ihr gehosteter Coding-Agent, der ebenfalls Codex genannt wird, was extrem verwirrend ist; ich spreche jetzt von dem Tool, das du lokal auf deinem Rechner im Terminal ausführst), war es als Nodejs/Typescript-App geschrieben und hat wirklich nicht gut funktioniert:
- konnte nur auf schwächere Modelle wie o4-mini oder deren Variante für Codex zugreifen, die verwirrenderweise auch Codex genannt wird (ernsthaft?)
- viel schlechtere UI/UX als Claude Code
- viel schlechter beim Programmieren aufgrund des schlechteren Modells, schlechteren Werkzeugs und schlechteren Agentenflusses.
- es hat dich nervig gezwungen, für alles die Erlaubnis zu geben, sodass du es die ganze Zeit im Auge behalten musstest, was es viel weniger nützlich machte, weil du nicht aktiv eine Menge davon parallel ausführen konntest.
- vielleicht war das aber auch eine gute Sache, denn das größte Problem war, dass es super rücksichtslos und destruktiv war; es war viel unvorsichtiger als CC. Das ist letztendlich der Grund, warum ich sofort aufgehört habe, es zu benutzen, da es beschloss, einen "reset --hard HEAD" ohne vorheriges Stashen durchzuführen, und ich einige Arbeit verloren habe. Nie wieder, dachte ich.
Nun, ich habe endlich die brandneue Rust-Version ausprobiert, die GPT-5 verwendet und die dein bestehendes GPT Pro-Abonnement anstelle eines API-Schlüssels nutzen kann, und das ist so viel besser, dass es schockierend ist.
Zunächst einmal gibt es einfach keinen Ersatz für schnell kompilierten Code, wenn es um interaktive Tools wie dieses geht.
Die Tatsache, dass es in Rust geschrieben ist, bedeutet, dass es überhaupt keine Verzögerung bei der Tastatureingabe gibt und auch keine seltsamen Artefakte wie bei CC, wo die Rücktaste nicht richtig funktioniert und die Eingabe ruckelig und verzögert ist, weil es in einer interpretierten Sprache geschrieben ist, die hundertmal langsamer für solche Dinge ist.
Mit ständiger Verzögerung und Ruckeln umzugehen, ist nicht nur langsamer, es ist mental und vielleicht sogar emotional belastend und ermüdend, zumindest für mich, wenn ich diese Dinge stundenlang benutze. Es ist ein schreckliches Gefühl, deine Werkzeuge zu hassen und zu verachten, während du auf sie angewiesen bist, um deine Arbeit zu erledigen.
Ich hoffe wirklich, dass dies die Messlatte für all diese Tools höher legt und Anthropic, Google und andere überzeugt, ebenfalls Rust (oder C++, Zig, was auch immer) zu verwenden.
Aber die wirklich große Verbesserung ist offensichtlich das Modell; mit einem schlechteren Modell, das unzuverlässig beim Tool-Calling ist und das über längere Aufgaben hinweg die Kohärenz verliert, wäre die ganze Rust-Schnelligkeit nichts wert.
Aber wenn du mir hier folgst, dann weißt du, dass ich seit etwa 15 Minuten nach der Veröffentlichung von GPT-5 Thinking von den Programmierfähigkeiten und der Tool-Calling-Kraft beeindruckt bin, obwohl ich es hauptsächlich über den Agenten-Tab von Cursor benutze.
Die Quintessenz ist, dass dieser neue Rust-Codex plötzlich ein wirklich ernstzunehmender Konkurrent zu CC geworden ist, und du solltest es unbedingt ausprobieren.
Ich muss sehen, wie viel Nutzung sie mir bei meinem $200/Monat GPT Pro-Abonnement erlauben, aber wenn ich ein paar mehr bekommen muss, wird es sich auf jeden Fall lohnen.
Beachte, dass ich nicht aufgehört habe, CC zu verwenden. Ich benutze sie gerne zusammen. Und glaub es oder nicht, ich benutze auch immer noch Cursor.
Die Leute sollten aufhören, nach dem einen einzigen Tool zu suchen, das alle anderen ersetzt, und akzeptieren, dass verschiedene Tools unterschiedliche Stärken und Schwächen haben, und dass du die besten Ergebnisse erzielst, indem du all das intuitiv durch ständige Nutzung lernst.
Wie auch immer, tu dir selbst einen Gefallen und hol es dir jetzt. Der einfachste Weg ist, diesen Befehl auszuführen (beachte, dass du damit die Rust-Version bekommst, trotz der Verwirrung, bun/npm dafür zu verwenden):
bun i -g @openai/codex
771
Ich bin absolut überzeugt, dass die intelligentesten KI-Modelle, die es derzeit gibt, GPT-5 Pro und Grok4 Heavy, bereits klug genug und sicherlich ausreichend über Mathematik und KI informiert sind, um wichtige theoretische und praktische Entdeckungen zu konzipieren und zu entwickeln, wenn sie die richtige Art von cleverem Prompting erhalten.
48,06K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten