Cairan Vercel vs Pekerja Cloudflare. 💬 "Dari temuan saya, Vercel 1,2x hingga 5x lebih cepat daripada CloudFlare untuk rendering server." Kami memberikan percobaan yang sangat, sangat sungguh-sungguh kepada Pekerja ketika kami menjelajahi runtime / dunia edge. Tidak ada "daging sapi", kami harus bermigrasi karena alasan teknis. Agar adil kepada mereka, mereka membawa ide-ide baru ke pasar. Harga berbasis CPU misalnya bagus dan Vercel Fluid juga memilikinya. Masalah utama yang kami hadapi: 1️⃣ Kinerja CPU yang buruk, kapasitas rendah, latensi yang sangat tidak teratur dan runcing. Tolok ukur menunjukkan hal ini. 2️⃣ Runtime vendor tunggal. Anda tidak dapat menjalankan "Node.js 24". Anda menjalankan "apa pun yang mereka berikan kepada Anda, yang mencoba terlihat seperti Node.js tetapi tidak" 3️⃣ Konektivitas yang sangat buruk ke cloud. Kami mengukur waktu pulang pergi antara AWS dan CF Worker dalam 10 detik hingga 100 milidetik rendah Hasil dari kami bermigrasi adalah pengiriman Fluid. Anda membayar CPU, menangani konkurensi seperti server (hemat biaya), Anda mengontrol ukuran / memori fungsi, Anda mendapatkan runtime terbuka penuh seperti @nodejs dan Python, Anda mendapatkan latensi 1ms ke layanan cloud... Kebanyakan orang saat ini menggunakan Fluid dan mereka bahkan tidak menyadarinya, karena itu hanya bekerja® dengan seluruh ekosistem. Berikut adalah tolok ukur yang @theo jalankan:
Beberapa orang bertanya tentang 3️⃣. Jika fungsi Anda terhubung ke database (Supabase, PlanetScale, Neon) atau layanan (Stripe), maka tolok ukur akan terlihat lebih dramatis. Keuntungan latensi dalam cloud sangat tangguh. "Edge" adalah kesalahan tidak hanya dalam runtime, tetapi juga di lokasi komputasi untuk logika aplikasi inti. Masalahnya ada dua, air terjun (I/O) dan CPU
145,64K