Vercel Fluid vs Cloudflare Workers. 💬"De acordo com as minhas descobertas, a Vercel é de 1,2x a 5x mais rápida do que a CloudFlare para renderização no servidor." Fizemos uma tentativa muito, muito séria com os Workers quando exploramos o runtime / mundo edge. Não há "conflito", tivemos que migrar por razões técnicas. Para ser justo com eles, trouxeram novas ideias para o mercado. A precificação baseada em CPU, por exemplo, era boa e a Vercel Fluid também a tem. Os principais problemas que encontramos: 1️⃣ Mau desempenho da CPU, baixa capacidade, latência muito irregular e com picos. Os benchmarks mostram isso. 2️⃣ Runtime de fornecedor único. Você não pode rodar "Node.js 24". Você roda "o que quer que eles te deem, que tenta parecer com Node.js, mas não é" 3️⃣ Conectividade realmente ruim com as nuvens. Medimos o tempo de ida e volta entre AWS e CF Workers como estando na casa dos 10 a 100 milissegundos O resultado da nossa migração foi o lançamento do Fluid. Você paga pela CPU, ele lida com concorrência como um servidor (custo-efetivo), você controla o tamanho / memória das funções, você obtém runtimes abertos completos como @nodejs e Python, você tem 1ms de latência para serviços em nuvem… A maioria das pessoas hoje está usando o Fluid e nem percebe, porque simplesmente funciona® com todo o ecossistema. Aqui estão os benchmarks que @theo executou:
Algumas pessoas perguntaram sobre 3️⃣. Se a sua função estiver conectada a um banco de dados (Supabase, PlanetScale, Neon) ou serviço (Stripe), então os benchmarks pareceriam ainda mais dramáticos. A vantagem de latência na nuvem é formidável. "Edge" foi um erro não apenas em tempo de execução, mas na localização de computação para a lógica central do aplicativo. O problema é duplo, quedas (I/O) e CPU.
145,68K