إنه Google Cloud Next في لاس فيغاس هذا الأسبوع، وهذا يعني أنه حان الوقت لإطلاق أنواع جديدة من الإنسنس والمسرعات على منصة Google Cloud. بالإضافة إلى رقائق Axion المبنية على Arm، فإن معظم الإعلانات لهذا العام تتعلق بمسرعات الذكاء الاصطناعي، سواء كانت من صنع Google أو من Nvidia.
قبل بضعة أسابيع فقط، أعلنت Nvidia عن منصتها Blackwell. ولكن لا تتوقع أن تقدم Google تلك الآلات في أي وقت قريب. سيصل الدعم لرقاقة Nvidia HGX B200 العالية الأداء لحمولات العمل الخاصة بالذكاء الاصطناعي وتعليم LLM نموذج كبير الحجم NBL72 في بداية عام 2025. إحدى الأشياء المثيرة في إعلان Google: سيتم تبريد خوادم GB200 بالسائل.
قد يبدو هذا إعلانًا مبكرًا إلى حد ما، ولكن قالت Nvidia إن رقائقها Blackwell لن تكون متاحة للعامة حتى الربع الأخير من هذا العام.
قبل Blackwell
بالنسبة للمطورين الذين يحتاجون إلى المزيد من القدرة لتقديم تدريب LLMs اليوم، أعلنت Google أيضًا عن Mega instance A3. تضم هذه النسخة التي طورتها الشركة بالتعاون مع Nvidia رقاقات H100، مما يجمع بينها وبين نظام شبكة جديد يمكنه توفير ما يصل إلى ضعف سرعة النطاق الترددي لكل رقاقة معالجة الرسومات.
آخر نموذج جديد هو نسخة A3 سرية، التي وصفتها Google بأنها تمكن العملاء من 'حماية السرية وسلامة البيانات الحساسة وحمولات العمل الخاصة بالذكاء الاصطناعي أثناء التدريب والاستنتاج'. وقد قدمت الشركة خدمات الحوسبة السرية منذ فترة طويلة التي تقوم بتشفير البيانات أثناء الاستخدام، وهنا، عند تمكينها، ستقوم الحوسبة السرية بتشفير نقل البيانات بين معالج الذكاء الاصطناعي CPU من Intel ورقاقة H100 GPU من Nvidia عبر PCIe المحمية. 'لا تتطلب تغييرات في الكود'، كما تقول Google.
أما بالنسبة لرقائق جوجل الخاصة، فقد أطلقت الشركة يوم الثلاثاء معالجاتها Cloud TPU v5p - أقوى معالجات الذكاء الاصطناعي التي طورتها إلى الآن - في التوفر العام. تتميز هذه الرقائق بتحسين بمقدار 2 مرة في عمليات النقطة العائمة في الثانية وتحسين بمقدار 3 مرات في سرعة عرض الذاكرة.
كل هذه الرقائق السريعة تحتاج إلى هندسة معمارية أساسية يمكنها مواكبتها. لذا بالإضافة إلى الرقائق الجديدة، أعلنت Google أيضًا يوم الثلاثاء خيارات جديدة للتخزين المُحسنة للذكاء الاصطناعي. Hyperdisk ML، التي هي الآن في المعاينة، هي خدمة التخزين بالنصف المواجهة للكتل الجيل القادمة التي يمكنها تحسين أوقات تحميل النماذج بمقدار يصل إلى 3.7 مرات، وفقًا لـ Google.
كما أن Google Cloud تطلق عددًا من الإنسنس التقليدية، مدعومة بمعالجات Intel من الجيل الرابع والخامس Xeon. على سبيل المثال، ستتميز النماذج العامة الجديدة C4 و N4 بمعالجات الإيمرلد رابيدس الخامسة، حيث يتمحور C4 حول الأداء و N4 حول السعر. النماذج الجديدة C4 متوفرة الآن في المعاينة الخاصة، وتتوفر آلات N4 بشكل عام اليوم.
كذلك، ولكن ما زالت في المعاينة، هي الآلات غير المغطاة C3، مدعومة بمعالجات Intel Xeon القديمة من الجيل الرابع، توجيه K4 bare metal instances المحسنة للذاكرة (أيضًا في المعاينة) و Z3، أول آلة افتراضية محسنة للتخزين من Google Cloud التي تعد بتقديم 'أعلى عدد من عمليات الإدخال والإخراج للإنسنس المحسنة للتخزين بين السحباء الرائدة'.
كانت كلمة Nvidia في GTC تحمل بعض المفاجآت