Vercel Fluid jämfört med Cloudflare-arbetare. 💬 "Från mina resultat är Vercel 1,2 gånger till 5 gånger snabbare än CloudFlare för serverrendering." Vi gjorde ett mycket, mycket uppriktigt försök att arbeta när vi utforskade edge runtime/världen. Det finns inget "nötkött", vi var tvungna att migrera av tekniska skäl. För att vara rättvis mot dem förde de ut nya idéer på marknaden. Den CPU-baserade prissättningen var till exempel bra och Vercel Fluid har det också. De viktigaste problemen vi stötte på: 1️⃣ Dålig CPU-prestanda, låg kapacitet, mycket oregelbunden och spikig latens. Riktmärkena visar dig detta. 2️⃣ Körtid för en leverantör. Du kan inte köra "Node.js 24". Du kör "vad de än ger dig, vilket försöker se ut som Node.js men det är det inte" 3️⃣ Riktigt dålig anslutning till molnen. Vi mätte tur- och returtiden mellan AWS och CF Workers som i låga 10-tals till 100-tals millisekunder Resultatet av att vi migrerade iväg var att vi skickade Fluid. Du betalar för CPU, den hanterar samtidighet som en server (kostnadseffektivt), du kontrollerar storleken/minnet på funktionerna, du får fulla, öppna körtider som @nodejs och Python, du får 1 ms latens till molntjänster... De flesta människor idag använder Fluid och de märker inte ens det, eftersom det bara fungerar® med hela ekosystemet. Här är de riktmärken @theo körde:
Några frågade om 3️⃣. Om din funktion är ansluten till en databas (Supabase, PlanetScale, Neon) eller tjänst (Stripe) skulle benchmarks se ännu mer dramatiska ut. Fördelen med svarstid i molnet är formidabel. "Edge" var ett misstag inte bara vid körning, utan även på beräkningsplatsen för den grundläggande applogiken. Problemet är tvåfaldigt, vattenfall (I/O) och CPU
145,73K