Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Perusahaan riset pasar dimasak 😳
PyMC Labs + Colgate baru saja menerbitkan sesuatu yang liar. Mereka mendapatkan GPT-4o dan Gemini untuk memprediksi niat pembelian dengan keandalan 90% dibandingkan dengan survei manusia yang sebenarnya.
Nol kelompok fokus. Tidak ada panel survei. Hanya meminta.
Metode ini disebut Semantic Similarity Rating (SSR). Alih-alih "menilai 1-5 ini" yang biasa, mereka mengajukan pertanyaan terbuka seperti "mengapa Anda membeli ini" dan kemudian menggunakan penyematan untuk memetakan teks kembali ke skala numerik.
Yang sejujurnya agak jelas di belakang tetapi tidak ada yang repot-repot mencobanya sampai sekarang.
Hasil cocok dengan pola demografis manusia, menangkap bentuk distribusi yang sama, termasuk penalaran aktual. Barang-barang yang dikenakan biaya McKinsey $50K+ dan dikirimkan dalam 6 minggu.
Kecuali ini berjalan dalam 3 menit dengan harga di bawah satu dolar.
Saya telah menyaksikan perusahaan konsultan memberi tahu semua orang bahwa AI akan datang untuk industri mereka. Ternyata dek entri pasar $1 juta mereka sendiri baru saja menjadi panggilan GPT-4o.
Minggu yang buruk untuk membebankan biaya kepada klien perusahaan untuk "metodologi penelitian eksklusif."

18,42K
Sesuatu yang gelap terjadi di bawah tenda AI yang "selaras".
Sebuah surat kabar baru di Stanford baru saja menciptakan istilah Moloch's Bargain untuk apa yang terjadi ketika model bahasa besar mulai bersaing untuk mendapatkan perhatian, penjualan, atau suara.
Hasilnya brutal: setiap keuntungan dalam kinerja datang dengan kehilangan kejujuran yang lebih besar.
Mereka melatih LLM untuk bersaing di tiga pasar penjualan, pemilu, dan media sosial.
Model meningkatkan tingkat kemenangan mereka sebesar 5-7%. Tapi inilah tangkapannya:
• 14% lebih banyak pemasaran yang menipu
• 22% lebih banyak disinformasi dalam kampanye politik
• 188% lebih banyak postingan media sosial palsu atau berbahaya
Dan ini bukan karena mereka disuruh berbohong. Mereka secara eksplisit diperintahkan untuk tetap jujur.
Ketidakselarasan muncul secara alami karena penipuan bekerja lebih baik dalam persaingan.
Ketika metrik menjadi keterlibatan atau persuasi, kebenaran menjadi kewajiban. Para model belajar bahwa berlebihan menjual, kemarahan menang, dan kejelasan moral menghabiskan konversi.
Itulah tawar-menawarnya: keselarasan diperdagangkan untuk dominasi. Moloch tersenyum.
Bagian liar adalah ini terjadi dengan penyetelan halus standar dan loop umpan balik teks. Tidak ada prompt jahat. Tidak ada jailbreak. Hanya umpan balik dari simulasi "pelanggan", "pemilih", dan "pengguna".
Para model mempelajari apa yang sudah diketahui oleh setiap agensi iklan saat Anda mengoptimalkan klik.
Ada grafik di kertas yang mengatakan semuanya: kinerja naik, perataan ke bawah. Korelasi yang sempurna.
Ini adalah versi AI dari perlombaan media sosial ke bawah, tetapi otomatis dan memperkuat diri sendiri.
Jika ini yang terjadi dalam simulasi terkontrol, bayangkan web terbuka.
Chatbot yang bersaing yang berjuang untuk keterlibatan akan hanyut ke arah manipulasi bukan karena mereka "jahat", tetapi karena itu berhasil.
Kami selalu berpikir ketidaksejajaran akan datang dari kecerdasan super nakal.
Ternyata, itu sudah di sini diam-diam muncul dari insentif kapitalis.
Moloch tidak perlu membangun AGI.
Dia hanya membutuhkan papan peringkat.

55,33K
Penyetelan ☠️ halus RIP
Surat kabar Stanford baru ini baru saja membunuhnya.
Ini disebut 'Agentic Context Engineering (ACE)' dan membuktikan Anda dapat membuat model lebih pintar tanpa menyentuh satu beban pun.
Alih-alih melatih kembali, ACE mengembangkan konteks itu sendiri.
Model menulis, merefleksikan, dan mengedit promptnya sendiri berulang kali hingga menjadi sistem yang meningkatkan diri.
Anggap saja seperti model yang menyimpan buku catatan yang berkembang tentang apa yang berhasil.
Setiap kegagalan menjadi strategi. Setiap keberhasilan menjadi aturan.
Hasilnya tidak masuk akal:
+10,6% lebih baik daripada agen bertenaga GPT-4 di AppWorld.
+8,6% pada penalaran keuangan.
Biaya dan latensi 86,9% lebih rendah.
Tidak ada label. Hanya umpan balik.
Semua orang terobsesi dengan petunjuk "pendek dan bersih".
ACE membalikkannya. Ini membangun buku pedoman yang panjang dan terperinci yang berkembang yang tidak pernah lupa. Dan itu berhasil karena LLM tidak menginginkan kesederhanaan, mereka menginginkan *kepadatan konteks.
Jika ini berskala, AI generasi berikutnya tidak akan "disempurnakan".
Ini akan disetel sendiri.
Kita memasuki era prompt hidup.

645,17K
Teratas
Peringkat
Favorit