Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Saya sedikit tersesat dalam semua akronim dan jargon di sini, jadi saya meminta Claude menjelaskannya tanpa menggunakan akronim apa pun dan sekarang semuanya sangat masuk akal (tldr; bandwidth ⟹ kesederhanaan):
Ini adalah diskusi teknis yang menarik tentang pelatihan model bahasa besar dalam skala besar.
Percakapan Inti
Jingyuan Liu mengungkapkan keterkejutannya karena menemukan bahwa Anda tidak memerlukan teknik pengoptimalan kompleks tertentu saat menggunakan TPU (Tensor Processing Units - chip AI khusus Google) versus GPU (Graphics Processing Units - biasanya chip NVIDIA).
Konsep Teknis Utama Dijelaskan:
Jenis Perangkat Keras:
•GPU (Graphics Processing Unit): Awalnya dirancang untuk grafik, sekarang banyak digunakan untuk AI. NVIDIA mendominasi pasar ini.
• TPU (Tensor Processing Unit): Chip Google yang dirancang khusus khusus untuk pembelajaran mesin.
Strategi Paralelisme:
Saat melatih model AI besar-besaran, Anda perlu membagi pekerjaan ke banyak chip. Ada beberapa cara untuk melakukan ini:
1) Paralelisme Data (DP): Setiap chip memproses batch data yang berbeda dengan salinan model yang sama
2) Tensor Parallelism (TP): Operasi matematika model dibagi di seluruh chip
3) Paralelisme Pipa (PP): Lapisan model yang berbeda ditempatkan pada chip yang berbeda, menciptakan pipa
Tantangan teknis yang sedang dibahas:
Masalah kehilangan tambahan: Saat melatih model yang sangat besar, Anda sering menambahkan "kerugian tambahan" (tujuan pelatihan tambahan) pada lapisan perantara untuk membantu gradien mengalir lebih baik melalui jaringan. Di bawah batasan PPVP (Pipeline Parallelism with Variable Partitioning), ini menjadi kompleks karena:
•Anda perlu melakukan "semua f semua b" (semua umpan maju, lalu semua umpan mundur)
•Ini menantang untuk penggunaan memori puncak karena Anda harus menyimpan hasil menengah
Inovasi DeepSeek: Mereka mengembangkan desain "bias auxfree" yang tampaknya menghindari kebutuhan kerugian tambahan ini sambil tetap berlatih secara efektif.
Wahyu yang Mengejutkan:
Pakar senior mengatakan kepada Jingyuan bahwa dengan TPU pada skala K2 atau DSV3 (ini adalah konfigurasi kluster dengan ratusan atau ribuan chip), Anda dapat mencapai MFU (Model FLOPs Utilization yang sangat baik - pada dasarnya seberapa efisien Anda menggunakan perangkat keras) TANPA menggunakan Pipeline Parallelism.
Mengapa ini mengejutkan?
• Paralelisme Pipa biasanya dianggap penting untuk pelatihan skala besar
• Ini adalah teknik kompleks yang membutuhkan pengoptimalan yang cermat
• Mampu menghindarinya menyederhanakan semuanya secara signifikan
Penjelasan Horace He:
Dia menjelaskan MENGAPA ini mungkin dilakukan dengan TPU:
Keunggulan bandwidth: TPU dan kluster NVIDIA kelas atas (seperti NVL72 - konfigurasi 72-GPU terbaru NVIDIA dengan interkoneksi NVLink) memiliki bandwidth yang tinggi antar chip sehingga dapat menangani persyaratan komunikasi tanpa Paralelisme Pipa.
Wawasan kuncinya:
•Paralelisme Pipeline terutama diperlukan ketika Anda "terhambat pada komunikasi DP" (dibatasi oleh seberapa cepat Anda dapat berkomunikasi selama pelatihan paralel data)
•Jika Anda memiliki bandwidth yang cukup di domain yang cukup besar (kluster yang saling berhubungan), Anda dapat menggunakan strategi paralelisme yang lebih sederhana
• Ini bekerja "untuk waktu yang sangat lama" - artinya Anda dapat melatih bahkan model yang sangat besar tanpa mencapai batas
Intuisi:
Anggap saja seperti sistem jalan raya:
• Kluster GPU tradisional seperti memiliki jalan sempit antar kota, jadi Anda memerlukan perutean yang rumit (Paralelisme Pipa) untuk menghindari kemacetan lalu lintas
• Kluster TPU atau GPU yang terhubung dengan NVLink seperti memiliki jalan raya besar - Anda dapat mengirim semuanya secara langsung tanpa perutean mewah
Ini adalah masalah besar karena Paralelisme Alur rumit untuk diterapkan, di-debug, dan dioptimalkan. Mampu menghindarinya sambil tetap mencapai efisiensi tinggi membuat seluruh proses pelatihan jauh lebih sederhana dan lebih andal.
Diskusi ini menyoroti bagaimana kemajuan dalam teknologi interkoneksi perangkat keras ("jalan" antar chip) secara fundamental dapat mengubah strategi perangkat lunak yang diperlukan untuk pelatihan AI yang efisien.

3,43K
Saya sedikit tersesat dalam semua akronim dan jargon di sini, jadi saya meminta Claude menjelaskannya tanpa menggunakan akronim apa pun dan sekarang semuanya sangat masuk akal (tldr; bandwidth ⟹ kesederhanaan):
Ini adalah diskusi teknis yang menarik tentang pelatihan model bahasa besar dalam skala besar.
Percakapan Inti
Jingyuan Liu mengungkapkan keterkejutannya karena menemukan bahwa Anda tidak memerlukan teknik pengoptimalan kompleks tertentu saat menggunakan TPU (Tensor Processing Units - chip AI khusus Google) versus GPU (Graphics Processing Units - biasanya chip NVIDIA).
Konsep Teknis Utama Dijelaskan:
Jenis Perangkat Keras:
•GPU (Graphics Processing Unit): Awalnya dirancang untuk grafik, sekarang banyak digunakan untuk AI. NVIDIA mendominasi pasar ini.
• TPU (Tensor Processing Unit): Chip Google yang dirancang khusus khusus untuk pembelajaran mesin.
Strategi Paralelisme:
Saat melatih model AI besar-besaran, Anda perlu membagi pekerjaan ke banyak chip. Ada beberapa cara untuk melakukan ini:
1Paralelisme Data (DP): Setiap chip memproses batch data yang berbeda dengan salinan model yang sama
2Tensor Parallelism (TP): Operasi matematika model dibagi ke seluruh chip
3Paralelisme Pipa (PP): Lapisan model yang berbeda ditempatkan pada chip yang berbeda, menciptakan pipa
Tantangan teknis yang sedang dibahas:
Masalah kehilangan tambahan: Saat melatih model yang sangat besar, Anda sering menambahkan "kerugian tambahan" (tujuan pelatihan tambahan) pada lapisan perantara untuk membantu gradien mengalir lebih baik melalui jaringan. Di bawah batasan PPVP (Pipeline Parallelism with Variable Partitioning), ini menjadi kompleks karena:
•Anda perlu melakukan "semua f semua b" (semua umpan maju, lalu semua umpan mundur)
•Ini menantang untuk penggunaan memori puncak karena Anda harus menyimpan hasil menengah
Inovasi DeepSeek: Mereka mengembangkan desain "bias auxfree" yang tampaknya menghindari kebutuhan kerugian tambahan ini sambil tetap berlatih secara efektif.
Wahyu yang Mengejutkan:
Pakar senior mengatakan kepada Jingyuan bahwa dengan TPU pada skala K2 atau DSV3 (ini adalah konfigurasi kluster dengan ratusan atau ribuan chip), Anda dapat mencapai MFU (Model FLOPs Utilization yang sangat baik - pada dasarnya seberapa efisien Anda menggunakan perangkat keras) TANPA menggunakan Pipeline Parallelism.
Mengapa ini mengejutkan?
• Paralelisme Pipa biasanya dianggap penting untuk pelatihan skala besar
• Ini adalah teknik kompleks yang membutuhkan pengoptimalan yang cermat
• Mampu menghindarinya menyederhanakan semuanya secara signifikan
Penjelasan Horace He:
Dia menjelaskan MENGAPA ini mungkin dilakukan dengan TPU:
Keunggulan bandwidth: TPU dan kluster NVIDIA kelas atas (seperti NVL72 - konfigurasi 72-GPU terbaru NVIDIA dengan interkoneksi NVLink) memiliki bandwidth yang tinggi antar chip sehingga dapat menangani persyaratan komunikasi tanpa Paralelisme Pipa.
Wawasan kuncinya:
•Paralelisme Pipeline terutama diperlukan ketika Anda "terhambat pada komunikasi DP" (dibatasi oleh seberapa cepat Anda dapat berkomunikasi selama pelatihan paralel data)
•Jika Anda memiliki bandwidth yang cukup di domain yang cukup besar (kluster yang saling berhubungan), Anda dapat menggunakan strategi paralelisme yang lebih sederhana
• Ini bekerja "untuk waktu yang sangat lama" - artinya Anda dapat melatih bahkan model yang sangat besar tanpa mencapai batas
Intuisi:
Anggap saja seperti sistem jalan raya:
• Kluster GPU tradisional seperti memiliki jalan sempit antar kota, jadi Anda memerlukan perutean yang rumit (Paralelisme Pipa) untuk menghindari kemacetan lalu lintas
• Kluster TPU atau GPU yang terhubung dengan NVLink seperti memiliki jalan raya besar - Anda dapat mengirim semuanya secara langsung tanpa perutean mewah
Ini adalah masalah besar karena Paralelisme Alur rumit untuk diterapkan, di-debug, dan dioptimalkan. Mampu menghindarinya sambil tetap mencapai efisiensi tinggi membuat seluruh proses pelatihan jauh lebih sederhana dan lebih andal.
Diskusi ini menyoroti bagaimana kemajuan dalam teknologi interkoneksi perangkat keras ("jalan" antar chip) secara fundamental dapat mengubah strategi perangkat lunak yang diperlukan untuk pelatihan AI yang efisien.

1,9K
Saya agak terkejut bahwa belum ada yang membuat server MCP Dwarf Fortress yang memungkinkan agen seperti Codex atau Claude Code untuk mengontrol permainan secara efisien dan memantau keadaan dan kemajuan.
Saya tidak pernah benar-benar memainkannya sendiri, hanya mengunduhnya dan memeriksanya sebentar sekitar 10 tahun yang lalu, tetapi saya senang membacanya.
Rasanya seperti itu akan menjadi ujian yang sangat bagus dari LLM untuk melihat berapa lama itu bisa membuat para kurcaci tetap hidup dan berkembang.
Karena setiap permainan akhirnya menghasilkan beberapa bencana yang menyebabkan semua kurcaci mati, harus ada titik penghentian alami untuk itu, yang menjadikannya kandidat tolok ukur yang baik. Setidaknya itulah pemahaman saya tentang itu (moto pemain adalah "Kalah itu menyenangkan").
Melakukan pekerjaan dengan baik dengan game ini akan bergantung pada akurasi pemanggilan alat dan koherensi tugas panjang yang berkelanjutan, ditambah kemampuan untuk memantau dan memahami dinamika sistem yang kompleks dan melakukan intervensi tepat waktu yang mengantisipasi dan menangkal masalah.
Dan karena ini asli terminal, itu dapat ditransmisikan dan diproses secara efisien menggunakan token biasa tanpa memerlukan pemrosesan gambar multi-modal, yang akan membuatnya jauh lebih efisien daripada game lain.
Ditambah lagi, Anda tahu bahwa tidak ada laboratorium AI yang dilatih untuk ini (belum!), jadi tidak ternoda oleh "benchmaxxing".

3,79K
Hal yang menyenangkan untuk dilakukan ketika Anda perlu menunggu beberapa menit adalah menggunakan ponsel Anda untuk mengajukan pertanyaan berikut kepada Claude Opus tentang beberapa disiplin atau bidang acak:
"Apa yang menurut Anda adalah wawasan inti atau trik analitis kristalografi?"
Ganti kristalografi dengan apa pun yang dapat Anda pikirkan. Sejauh ini, saya telah mencoba:
QED; Model Standar; Biokimia; Probabilitas; Teori evolusi; dan banyak lagi.
Ada sesuatu tentang memaksa model untuk melakukan hal yang mustahil, untuk memadatkan bidang yang luas dan kompleks menjadi "satu trik aneh," yang membuatnya benar-benar mencari prinsip pemersatu yang terbaik di lapangan dan kemudian mengartikulasikannya secara ringkas.
Ini cenderung menjadi sesuatu yang jelas bagi praktisi tetapi sangat mungkin tidak diketahui oleh kebanyakan orang dengan minat sesaat dalam subjek tersebut.
Menariknya, Anda juga dapat berulang kali menekan tombol "coba lagi" dengan prompt yang sama dan terkadang mendapatkan penjelasan yang sangat berbeda, tetapi biasanya sangat menarik.
Saya telah belajar BANYAK dari melakukan ini, dan itu mungkin hanya "pemahaman per menit" tertinggi yang pernah saya temui dalam pembelajaran mandiri.
Karena itu bukan hanya fakta menyenangkan atau berita keren. Mereka, dengan konstruksi, menembus dan menyatukan ide-ide yang menyatukan sejumlah besar teori dan fenomena yang diamati di dunia.
Ini tentu saja jauh lebih bandwidth tinggi daripada menonton video penjelasan YouTube lainnya dengan animasi dan iklan untuk Brilliant / KiwiCo! Bukan berarti ada yang salah dengan itu.




7,9K
Gagasan bahwa ada "eksodus bakat" dari OpenAI baru-baru ini sehingga mereka tidak lagi diposisikan untuk menjadi pemimpin di ruang ini sama salahnya dengan gagasan bahwa GPT-5 "adalah kegagalan besar dan modelnya tidak terlalu bagus dan sangat bertahap."
GPT-5 Pro tidak hanya model paling cerdas di dunia sekarang dengan sangat banyak pada tugas dunia nyata yang paling menantang (terutama tugas pengkodean, yang memiliki kepentingan ekonomi paling besar sekarang), tetapi alat cli codex baru dari OpenAI dijalankan dengan sangat baik.
Mereka berubah dari tempat ke-3 yang jauh dalam alat pengkodean cli menjadi memiliki apa yang bisa dibilang yang terbaik sekarang (perhatikan bahwa saya masih suka dan menggunakan Claude Code, itu bukan salah satu / atau!), dengan sejauh ini kinerja terbaik, latensi terendah, dll. karena diprogram dalam karat.
Dan sekarang alat cli ini dikombinasikan dengan model pengkodean terbaik yang memiliki keandalan pemanggilan alat terbaik dan koherensi tugas panjang terbaik, dengan jumlah halusinasi paling sedikit.
Dan tak perlu dikatakan, aplikasi iOS mereka juga secara dramatis lebih baik daripada semua aplikasi AI lainnya dalam hal polesan dan fitur. Aplikasi Claude hanyalah aplikasi web di kotak pasir Safari! Dan webapp mereka juga masih yang terbaik. Hal-hal seperti pencarian bekerja lebih baik daripada di aplikasi lain. Pemblokiran dan tekel dasar.
Jadi, ya. Beberapa orang yang sangat pintar seperti Ilya dan John Schulman pergi ke perusahaan lain. Tetapi mereka masih memiliki tim teknis yang benar-benar luar biasa dengan orang-orang produk yang sangat bagus dan teknik yang luar biasa.
Jangan biarkan ketidaksukaan Anda terhadap Altman membutakan Anda terhadap yang jelas. Setiap kali saya melihat orang lain berbicara tentang betapa buruknya GPT-5, saya ngeri, karena orang tersebut menunjukkan bahwa mereka tidak dapat berpikir sendiri berdasarkan bukti dan alasan, dan meme untuk memikirkan opini (dan menyemburkannya secara online) karena mereka pikir itu membuat mereka terdengar pintar.
34,02K
Seberapa keren bahwa masing-masing chip kecil itu memiliki penyimpanan super cepat 8 terabyte? Dan Anda dapat mencolokkan keduanya ke penutup biru itu dan mendapatkan 20 Gbps melalui USB 3.3 (saya tidak memiliki port USB 4 dan semua slot pci-e saya ditempati oleh GPU)
Kita hidup di zaman yang begitu melimpah.

3,18K
Sebagai pembaruan untuk dua utas terbaru saya tentang penggunaan GPT-5 Pro untuk memulai proses penemuan teori terobosan yang menggabungkan aplikasi baru matematika tingkat lanjut kasus penggunaan AI, saya meminta model membuat implementasi demo dalam Python menggunakan Jax dan Numpy untuk masing-masing dari 11 ide.
Kemudian saya menyatukannya dalam sebuah proyek dan menambahkan CLI yang bagus untuk menjalankannya, dan serangkaian tes ujung ke ujung yang mengukur apakah kode tersebut benar secara matematis, memeriksa apakah kode tersebut memiliki sifat matematis yang kita inginkan, dan akhirnya, apakah kode tersebut melakukan sesuatu yang berguna dibandingkan dengan pendekatan standar saat ini.
Saya menggunakan codex CLI dengan GPT-5 untuk mengintegrasikan semuanya dan memperbaiki dan bug. Saya akan menautkan ke repo, yang berisi dokumentasi terperinci untuk seluruh proyek dan kemudian menulis untuk masing-masing dari 11 demo yang berisi semua output yang dihasilkan oleh model selama proses.
3,79K
Wow, saya akhirnya mencoba versi baru codex CLI OpenAI (jawaban mereka untuk Claude Code).
Terakhir kali saya mencoba menggunakan codex (perhatikan bahwa ini berbeda dari agen pengkodean yang dihosting mereka juga disebut codex, yang sangat membingungkan; Saya berbicara sekarang tentang alat yang Anda jalankan secara lokal di mesin Anda di terminal), itu ditulis sebagai aplikasi Nodejs/Typescript, dan benar-benar menyebalkan:
- hanya dapat mengakses model yang lebih lemah seperti O4-mini atau variannya untuk Codex, yang membingungkan juga disebut Codex (serius?)
- UI/UX yang jauh lebih buruk daripada Claude Code
- jauh lebih buruk dalam pengkodean sebagai akibat dari model yang lebih buruk, perkakas yang lebih buruk, aliran agen yang lebih buruk.
- Itu menjengkelkan memaksa Anda untuk memberikan izin untuk semuanya sehingga Anda harus mengasuhnya sepanjang waktu, membuatnya kurang berguna karena Anda tidak dapat secara aktif menjalankan banyak dari mereka secara paralel dengan mudah.
- Mungkin itu hal yang baik, karena sejauh ini masalah terbesar adalah bahwa itu melakukan hal-hal yang sangat sembrono dan merusak; itu jauh lebih angkuh daripada CC.
Itu sebabnya saya segera berhenti menggunakannya, karena memutuskan untuk melakukan "reset git --hard HEAD" tanpa menyimpan terlebih dahulu, dan saya kehilangan beberapa pekerjaan. Tidak pernah lagi, pikirku.
Nah, saya akhirnya mencoba versi rust baru yang menggunakan GPT-5 dan yang dapat menggunakan langganan GPT Pro Anda yang ada alih-alih kunci API, dan ini jauh lebih baik sehingga mengejutkan.
Pertama-tama, tidak ada pengganti kode yang dikompilasi dengan cepat dalam hal alat interaktif seperti ini.
Fakta bahwa itu ditulis dengan karat berarti tidak ada lag sama sekali dengan input keyboard, dan juga tidak ada artefak aneh seperti yang Anda miliki di CC di mana backspace tidak berfungsi dengan benar dan input janky dan lamban karena ditulis dalam bahasa yang ditafsirkan yang seratus kali lebih lambat untuk hal-hal seperti ini.
Berurusan dengan lag dan jank yang konstan tidak hanya lebih lambat, tetapi juga secara mental dan bahkan mungkin secara emosional melelahkan dan melelahkan, setidaknya bagi saya ketika saya menggunakan hal-hal ini selama berjam-jam. Adalah perasaan yang mengerikan untuk membenci dan membenci alat Anda bahkan ketika Anda bergantung padanya untuk melakukan pekerjaan Anda.
Saya sangat berharap ini meningkatkan standar untuk semua alat ini dan meyakinkan Anthropic dan Google dan lainnya untuk juga menggunakan karat (atau C++, Zig, apa pun).
Tapi peningkatan yang benar-benar besar jelas adalah modelnya; dengan model yang lebih buruk yang tidak dapat diandalkan dalam pemanggilan alat dan yang kehilangan koherensi atas tugas yang lebih lama, tidak ada ketagihan Rust yang akan berharga.
Tetapi jika Anda mengikuti saya di sini, maka Anda akan tahu bahwa saya telah kagum dengan kemampuan pengkodean dan kehebatan pemanggilan alat GPT-5 Thinking sejak sekitar 15 menit setelah keluar, meskipun saya telah menggunakannya terutama dari dalam tab agen Cursor.
Intinya adalah bahwa codex karat baru ini tiba-tiba menjadi pesaing CC yang benar-benar tangguh, dan Anda harus benar-benar mencobanya.
Saya perlu melihat berapa banyak penggunaan yang mereka biarkan saya lolos dengan langganan GPT Pro saya $200/bulan, tetapi jika saya harus mendapatkan beberapa lagi, itu akan sangat berharga.
Perhatikan bahwa saya belum berhenti menggunakan CC. Saya suka menggunakan keduanya bersama-sama. Dan percaya atau tidak, saya masih menggunakan Cursor.
Orang harus berhenti mencari satu alat tunggal yang menggantikan semua yang lain dan merangkul bahwa alat yang berbeda memiliki kekuatan dan kelemahan yang berbeda, dan Anda mendapatkan hasil terbaik dengan mempelajari semua itu secara intuitif dari penggunaan terus-menerus.
Bagaimanapun, bantulah diri Anda sendiri dan dapatkan sekarang. Cara termudah adalah dengan melakukan perintah ini (perhatikan bahwa ini akan memberi Anda versi karat, terlepas dari betapa membingungkannya menggunakan bun/npm untuk ini):
bun i -g @openai/codex
8,55K
Wow, saya akhirnya mencoba versi baru codex CLI OpenAI (jawaban mereka untuk Claude Code).
Terakhir kali saya mencoba menggunakan codex (perhatikan bahwa ini berbeda dari agen pengkodean yang dihosting mereka juga disebut codex, yang sangat membingungkan; Saya berbicara sekarang tentang alat yang Anda jalankan secara lokal di mesin Anda di terminal), itu ditulis sebagai aplikasi Nodejs/Typescript, dan benar-benar menyebalkan:
- hanya dapat mengakses model yang lebih lemah seperti O4-mini atau variannya untuk Codex, yang membingungkan juga disebut Codex (serius?)
- UI/UX yang jauh lebih buruk daripada Claude Code
- jauh lebih buruk dalam pengkodean sebagai akibat dari model yang lebih buruk, perkakas yang lebih buruk, aliran agen yang lebih buruk.
- Itu menjengkelkan memaksa Anda untuk memberikan izin untuk semuanya sehingga Anda harus mengasuhnya sepanjang waktu, membuatnya kurang berguna karena Anda tidak dapat secara aktif menjalankan banyak dari mereka secara paralel dengan mudah.
- Mungkin itu hal yang baik, karena sejauh ini masalah terbesar adalah bahwa itu melakukan hal-hal yang sangat sembrono dan merusak; itu jauh lebih angkuh daripada CC. Itu sebabnya saya segera berhenti menggunakannya, karena memutuskan untuk melakukan "reset --hard HEAD" tanpa menyimpan terlebih dahulu, dan saya kehilangan beberapa pekerjaan. Tidak pernah lagi, pikirku.
Nah, saya akhirnya mencoba versi rust baru yang menggunakan GPT-5 dan yang dapat menggunakan langganan GPT Pro Anda yang ada alih-alih kunci API, dan ini jauh lebih baik sehingga mengejutkan.
Pertama-tama, tidak ada pengganti kode yang dikompilasi dengan cepat dalam hal alat interaktif seperti ini.
Fakta bahwa itu ditulis dengan karat berarti tidak ada lag sama sekali dengan input keyboard, dan juga tidak ada artefak aneh seperti yang Anda miliki di CC di mana backspace tidak berfungsi dengan benar dan input janky dan lamban karena ditulis dalam bahasa yang ditafsirkan yang seratus kali lebih lambat untuk hal-hal seperti ini.
Berurusan dengan lag dan jank yang konstan tidak hanya lebih lambat, tetapi juga secara mental dan bahkan mungkin secara emosional melelahkan dan melelahkan, setidaknya bagi saya ketika saya menggunakan hal-hal ini selama berjam-jam. Adalah perasaan yang mengerikan untuk membenci dan membenci alat Anda bahkan ketika Anda bergantung padanya untuk melakukan pekerjaan Anda.
Saya sangat berharap ini meningkatkan standar untuk semua alat ini dan meyakinkan Anthropic dan Google dan lainnya untuk juga menggunakan karat (atau C++, Zig, apa pun).
Tapi peningkatan yang benar-benar besar jelas adalah modelnya; dengan model yang lebih buruk yang tidak dapat diandalkan dalam pemanggilan alat dan yang kehilangan koherensi atas tugas yang lebih lama, tidak ada ketagihan Rust yang akan berharga.
Tetapi jika Anda mengikuti saya di sini, maka Anda akan tahu bahwa saya telah kagum dengan kemampuan pengkodean dan kehebatan pemanggilan alat GPT-5 Thinking sejak sekitar 15 menit setelah keluar, meskipun saya telah menggunakannya terutama dari dalam tab agen Cursor.
Intinya adalah bahwa codex karat baru ini tiba-tiba menjadi pesaing CC yang benar-benar tangguh, dan Anda harus benar-benar mencobanya.
Saya perlu melihat berapa banyak penggunaan yang mereka biarkan saya lolos dengan langganan GPT Pro saya $200/bulan, tetapi jika saya harus mendapatkan beberapa lagi, itu akan sangat berharga.
Perhatikan bahwa saya belum berhenti menggunakan CC. Saya suka menggunakan keduanya bersama-sama. Dan percaya atau tidak, saya masih menggunakan Cursor.
Orang harus berhenti mencari satu alat tunggal yang menggantikan semua yang lain dan merangkul bahwa alat yang berbeda memiliki kekuatan dan kelemahan yang berbeda, dan Anda mendapatkan hasil terbaik dengan mempelajari semua itu secara intuitif dari penggunaan terus-menerus.
Bagaimanapun, bantulah diri Anda sendiri dan dapatkan sekarang. Cara termudah adalah dengan melakukan perintah ini (perhatikan bahwa ini akan memberi Anda versi karat, terlepas dari betapa membingungkannya menggunakan bun/npm untuk ini):
bun i -g @openai/codex
671
Saya benar-benar yakin bahwa model AI terpintar yang keluar sekarang, GPT-5 Pro dan Grok4 Heavy, sudah cukup pintar, dan tentunya cukup berpengetahuan tentang matematika dan AI, untuk menyusun dan mengembangkan penemuan teoretis dan praktis yang penting, dengan jenis dorongan cerdas yang tepat.
47,97K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal