Vercel Fluid vs Cloudflare Workers. 💬 "Din constatările mele, Vercel este de 1,2 până la 5 ori mai rapid decât CloudFlare pentru randarea serverului." Am încercat foarte, foarte serios Workers când am explorat runtime-ul/lumea edge. Nu există "carne de vită", a trebuit să migrăm din motive tehnice. Pentru a fi corect cu ei, au adus idei noi pe piață. Prețul bazat pe procesor, de exemplu, a fost bun și Vercel Fluid îl are și el. Principalele probleme pe care le-am întâlnit: 1️⃣ Performanță proastă a procesorului, capacitate redusă, latență foarte neregulată și ascuțită. Benchmark-urile vă arată acest lucru. 2️⃣ Timp de execuție cu un singur furnizor. Nu puteți rula "Node.js 24". Alergi "orice îți dau, care încearcă să arate ca Node.js dar nu este" 3️⃣ Conectivitate foarte proastă la nori. Am măsurat timpul dus-întors între AWS și CF Workers ca fiind de 10 până la 100 de milisecunde Rezultatul migrării noastre a fost livrarea Fluid. Plătești pentru CPU, gestionează concurența ca un server (eficient din punct de vedere al costurilor), controlezi dimensiunea / memoria funcțiilor, obții runtime complet, deschis precum @nodejs și Python, primești o latență de 1ms la serviciile cloud... Majoritatea oamenilor de astăzi folosesc Fluid și nici măcar nu observă, pentru că funcționează® doar cu întregul ecosistem. Iată reperele @theo rulate:
Unii oameni au întrebat despre 3️⃣. Dacă funcția ta este conectată la o bază de date (Supabase, PlanetScale, Neon) sau la un serviciu (Stripe), atunci benchmark-urile ar arăta și mai dramatice. Avantajul latenței în cloud este formidabil. "Edge" a fost o greșeală nu doar în timpul rulării, ci și în locația de calcul pentru logica aplicației de bază. Problema este dublă, cascade (I/O) și CPU
145,64K