Vercel Fluid مقابل عمال Cloudflare. 💬 "من النتائج التي توصلت إليها ، فإن Vercel أسرع بمقدار 1.2x إلى 5x من CloudFlare لعرض الخادم." لقد قدمنا محاولة جادة للغاية للعمال عندما استكشفنا وقت تشغيل الحافة / العالم. لا يوجد "لحم بقري" ، اضطررنا إلى الهجرة لأسباب فنية. لكي نكون منصفين لهم ، جلبوا أفكارا جديدة إلى السوق. كان التسعير المستند إلى وحدة المعالجة المركزية على سبيل المثال جيدا ولدى Vercel Fluid أيضا. المشكلات الرئيسية التي واجهناها: 1️⃣ أداء سيئ لوحدة المعالجة المركزية ، سعة منخفضة ، زمن انتقال غير منتظم للغاية وشائك. تظهر لك المعايير هذا. 2️⃣ وقت تشغيل بائع واحد. لا يمكنك تشغيل "Node.js 24". أنت تدير "كل ما يقدمونه لك ، والذي يحاول أن يبدو Node.js لكنه ليس كذلك" 3️⃣ اتصال سيء حقا بالسحب. قمنا بقياس وقت الذهاب والإياب بين AWS و CF Workers على أنه في 10 ثوان إلى 100 ثانية منخفضة من المللي ثانية كانت نتيجة هجرتنا هي شحن السوائل. أنت تدفع مقابل وحدة المعالجة المركزية ، وتتعامل مع التزامن مثل الخادم (فعال من حيث التكلفة) ، وتتحكم في حجم / ذاكرة الوظائف ، وتحصل على أوقات تشغيل كاملة ومفتوحة مثل @nodejs و Python ، وتحصل على زمن انتقال 1 مللي ثانية للخدمات السحابية ... يستخدم معظم الناس اليوم Fluid ولا يلاحظون ذلك ، لأنه يعمل® فقط مع النظام البيئي بأكمله. فيما يلي المعايير التي @theo تشغيلها:
سأل بعض الناس عن 3️⃣. إذا كانت وظيفتك متصلة بقاعدة بيانات (Supabase و PlanetScale أو Neon) أو خدمة (Stripe) ، فستبدو المعايير أكثر دراماتيكية. ميزة زمن الوصول داخل السحابة هائلة. كان "Edge" خطأ ليس فقط في وقت التشغيل ، ولكن في موقع الحوسبة لمنطق التطبيق الأساسي. المشكلة ذات شقين ، الشلالات (I / O) ووحدة المعالجة المركزية
‏‎145.6‏K