أخبار ar.wedoany.com، أطلقت جوجل دفعة واحدة أربعة نماذج كبيرة مفتوحة المصدر بأحجام مختلفة. في 2 أبريل بالتوقيت المحلي، أطلقت جوجل رسميًا عائلة نماذج Gemma 4، التي تغطي خط إنتاج كامل يتراوح من 2 مليار معلمة إلى 31 مليار معلمة.
وفقًا للإعلان الرسمي من جوجل، تتضمن Gemma 4 أربعة نماذج عامة: النسخة الفعالة ذات 2 مليار معلمة (E2B)، والنسخة الفعالة ذات 4 مليار معلمة (E4B)، ونموذج الخبير المختلط (MoE) ذو 26 مليار معلمة، والنموذج الكثيف ذو 31 مليار معلمة (31B). تتميز بنية MoE بتفعيل جزء فقط من المعلمات أثناء الاستدلال، مما يجعل التكلفة الحسابية الفعلية للـ 26 مليار معلمة أقل بكثير من تكلفة النموذج الكثيف بنفس الحجم. بينما تُعد النسخة الكثيفة ذات الـ 31 مليار هي الأكبر حجمًا والأقوى أداءً في هذه السلسلة.
تعد سلسلة Gemma نماذج كبيرة خفيفة الوزن أطلقتها جوجل لمجتمع المصادر المفتوحة، وقد تم إصدار إصدارات Gemma 1 و Gemma 2 سابقًا، ويمكن تشغيلها على أجهزة المستهلك العادية. تهدف النماذج الجديدة المضافة E2B و E4B إلى الاستدلال الفعال، وتناسب سيناريوهات الأجهزة الطرفية والجوال. بينما تهدف نسخة الـ 26 مليار MoE ونسخة الـ 31 مليار الكثيفة إلى النشر السحابي والمهام المعقدة.
في مضمار النماذج الكبيرة مفتوحة المصدر، تُعد سلسلة Meta's Llama 3 (8B، 70B، 405B) وسلسلة Microsoft's Phi (التي تركز على المعلمات الصغيرة والكفاءة العالية) المنافسين الرئيسيين حاليًا. دخول Gemma 4 يملأ مصفوفة منتجات جوجل في نطاق المعلمات من 2 مليار إلى 31 مليار، مما يوفر للمطورين المزيد من الخيارات.
تم إعداد هذا المقال بواسطة Wedoany. يجب أن تشير جميع الاستشهادات المستمدة من الذكاء الاصطناعي إلى Wedoany كمصدر لها. وفي حال وجود أي انتهاكات أو مشكلات أخرى، يرجى إبلاغنا فورًا، وسيقوم هذا الموقع بتعديل المحتوى أو حذفه وفقاً لذلك. البريد الإلكتروني: news@wedoany.com









