Vercel Fluid vs Cloudflare Workers. 💬"Nach meinen Erkenntnissen ist Vercel 1,2x bis 5x schneller als CloudFlare bei der Server-Rendering." Wir haben Workers bei der Erkundung der Edge-Laufzeit / Welt sehr, sehr ernsthaft ausprobiert. Es gibt kein "Beef", wir mussten aus technischen Gründen migrieren. Um fair zu sein, sie haben neue Ideen auf den Markt gebracht. Die CPU-basierte Preisgestaltung war zum Beispiel gut und Vercel Fluid hat das auch. Die Hauptprobleme, auf die wir gestoßen sind: 1️⃣ Schlechte CPU-Leistung, geringe Kapazität, sehr unregelmäßige und spiky Latenz. Die Benchmarks zeigen Ihnen das. 2️⃣ Ein-Einheits-Laufzeit. Sie können "Node.js 24" nicht ausführen. Sie führen "was auch immer sie Ihnen geben, was versucht, wie Node.js auszusehen, aber es ist nicht" aus. 3️⃣ Wirklich schlechte Konnektivität zu den Clouds. Wir haben die Rundlaufzeit zwischen AWS und CF Workers als im niedrigen 10er- bis 100er-Millisekundenbereich gemessen. Das Ergebnis unserer Migration war die Einführung von Fluid. Sie zahlen für die CPU, es behandelt die Parallelität wie ein Server (kosteneffizient), Sie kontrollieren die Größe / den Speicher der Funktionen, Sie erhalten vollständige, offene Laufzeiten wie @nodejs und Python, Sie erhalten 1ms Latenz zu Cloud-Diensten… Die meisten Leute verwenden heute Fluid und merken es nicht einmal, weil es einfach funktioniert® mit dem gesamten Ökosystem. Hier sind die Benchmarks, die @theo durchgeführt hat:
Einige Leute haben nach 3️⃣ gefragt. Wenn Ihre Funktion mit einer Datenbank (Supabase, PlanetScale, Neon) oder einem Dienst (Stripe) verbunden ist, würden die Benchmarks noch dramatischer aussehen. Der Vorteil der Latenz in der Cloud ist gewaltig. "Edge" war ein Fehler, nicht nur in der Laufzeit, sondern auch im Standort der Berechnung für die Kernanwendungslogik. Das Problem ist zweifach: Wasserfälle (I/O) und CPU.
167,31K