Vercel Fluid vs Cloudflare Workers. 💬 "Pelas minhas descobertas, o Vercel é 1,2x a 5x mais rápido que o CloudFlare para renderização de servidor." Demos uma tentativa muito, muito séria aos Workers quando exploramos o tempo de execução / mundo de borda. Não há "carne", tivemos que migrar por razões técnicas. Para ser justo com eles, eles trouxeram novas ideias para o mercado. O preço baseado em CPU, por exemplo, era bom e a Vercel Fluid também. Os principais problemas que encontramos: 1️⃣ Mau desempenho da CPU, baixa capacidade, latência muito irregular e pontiaguda. Os benchmarks mostram isso. 2️⃣ Tempo de execução de fornecedor único. Você não pode executar "Node.js 24". Você corre "o que quer que eles lhe dêem, que está tentando parecer Node.js mas não é" 3️⃣ Conectividade muito ruim com as nuvens. Medimos o tempo de ida e volta entre os trabalhadores da AWS e do CF como sendo de 10 a 100 milissegundos O resultado de nossa migração foi o envio de fluidos. Você paga pela CPU, ela lida com a simultaneidade como um servidor (custo-benefício), você controla o tamanho / memória das funções, obtém tempos de execução completos e abertos como @nodejs e Python, obtém latência de 1 ms para serviços em nuvem ... A maioria das pessoas hoje está usando o Fluid e nem percebe, porque ele funciona® com todo o ecossistema. Aqui estão os benchmarks @theo executaram:
Algumas pessoas perguntaram sobre 3️⃣. Se sua função estiver conectada a um banco de dados (Supabase, PlanetScale, Neon) ou serviço (Stripe), os benchmarks parecerão ainda mais dramáticos. A vantagem de latência na nuvem é formidável. "Edge" foi um erro não apenas no tempo de execução, mas no local de computação para a lógica principal do aplicativo. O problema é duplo, cascatas (E/S) e CPU
145,58K