Vercel Fluid vs Cloudflare Workers. 💬"Dai miei risultati, Vercel è da 1,2x a 5x più veloce di CloudFlare per il rendering del server." Abbiamo fatto un tentativo molto, molto serio con Workers quando abbiamo esplorato il runtime / mondo edge. Non c'è "rancore", abbiamo dovuto migrare per motivi tecnici. Per essere giusti con loro, hanno portato nuove idee sul mercato. La tariffazione basata sulla CPU, ad esempio, era buona e Vercel Fluid ce l'ha anche. I principali problemi che abbiamo riscontrato: 1️⃣ Scarsa performance della CPU, bassa capacità, latenza molto irregolare e a picchi. I benchmark lo mostrano. 2️⃣ Runtime di un singolo fornitore. Non puoi eseguire "Node.js 24". Esegui "qualunque cosa ti diano, che cerca di sembrare Node.js ma non lo è" 3️⃣ Connettività davvero scarsa con i cloud. Abbiamo misurato il tempo di andata e ritorno tra AWS e CF Workers come compreso tra i 10 e i 100 millisecondi Il risultato della nostra migrazione è stato il lancio di Fluid. Paghi per la CPU, gestisce la concorrenza come un server (costo-efficiente), controlli la dimensione / memoria delle funzioni, ottieni runtime completi e aperti come @nodejs e Python, ottieni una latenza di 1 ms ai servizi cloud… Oggi la maggior parte delle persone utilizza Fluid e nemmeno se ne accorge, perché funziona semplicemente® con l'intero ecosistema. Ecco i benchmark che ha eseguito @theo:
Alcune persone hanno chiesto riguardo a 3️⃣. Se la tua funzione è connessa a un database (Supabase, PlanetScale, Neon) o a un servizio (Stripe), allora i benchmark sarebbero ancora più drammatici. Il vantaggio della latenza in cloud è formidabile. "Edge" è stato un errore non solo nel runtime, ma anche nella posizione di calcolo per la logica principale dell'app. Il problema è duplice, waterfall (I/O) e CPU.
145,64K