Vercel Fluid vs Cloudflare Workers. 💬 "Según mis hallazgos, Vercel es de 1,2 a 5 veces más rápido que CloudFlare para el renderizado del servidor". Le dimos una oportunidad muy, muy seria a Workers cuando exploramos el tiempo de ejecución / mundo del borde. No hay "carne", tuvimos que migrar por razones técnicas. Para ser justos con ellos, trajeron nuevas ideas al mercado. El precio basado en la CPU, por ejemplo, era bueno y Vercel Fluid también lo tiene. Los principales problemas con los que nos encontramos: 1️⃣ Mal rendimiento de la CPU, baja capacidad, latencia muy irregular y puntiaguda. Los puntos de referencia te lo demuestran. 2️⃣ Tiempo de ejecución de un solo proveedor. No puedes ejecutar "Node.js 24". Ejecutas "lo que sea que te den, que es tratar de parecerse a Node.js pero no lo es" 3️⃣ Muy mala conectividad a las nubes. Medimos el tiempo de ida y vuelta entre AWS y CF Workers entre 10 y 100 milisegundos El resultado de nuestra migración fue el envío de Fluid. Pagas por la CPU, maneja la concurrencia como un servidor (rentable), controlas el tamaño / memoria de las funciones, obtienes tiempos de ejecución completos y abiertos como @nodejs y Python, obtienes una latencia de 1 ms para los servicios en la nube ... La mayoría de las personas hoy en día usan Fluid y ni siquiera se dan cuenta, porque simplemente funciona® con todo el ecosistema. Estos son los puntos de referencia @theo ejecutó:
Algunas personas preguntaron sobre 3️⃣. Si su función está conectada a una base de datos (Supabase, PlanetScale, Neon) o servicio (Stripe), entonces los puntos de referencia se verían aún más dramáticos. La ventaja de latencia en la nube es formidable. "Edge" fue un error no solo en tiempo de ejecución, sino también en la ubicación de proceso para la lógica principal de la aplicación. El problema es doble, cascadas (E/S) y CPU
167.31K