أعلنت شركة Google عن نموذج ذكاء اصطناعي جديد بإسم Gemma، موجه بشكل خاص للباحثين الذين يرغبون في تشغيل نماذج (AI) على أجهزتهم الخاصة بدلاً من الاعتماد على خدمات السحابة.
ويتشابه نموذج Gemma في بعض المكونات التقنية والبنية التحتية مع نموذج Gemini الأكبر، حيث طرحته الشركة في طرازين هما: Gemma 2B وGemma 7B.
ويتيح هذ الإصدار للباحثين الوصول إلى نماذج Gemma المدربة مسبقا ومعايرتها للحصول على التعليمات، ويمكن تشغيلها محليا على أجهزة الكمبيوتر المكتبية والمحمولة، أو يمكن الوصول إليها من خلال السحابة.
وحسّنت Google من عمل النموذج الجديد Gemma للتوافق مع بطاقات معالجة الرسومات من شركة إنفيديا، بالإضافة إلى معالجات Google Cloud TPUs، التي تعمل على مهام الذكاء الاصطناعي في خدمة Google Cloud.
وأوضحت شركة Google بأن نموذج Gemma بإصداريه يعد أصغر حجما من النماذج اللغوية الكبيرة الأخرى "LLMs"، كما أنه يفوقها بشكل ملحوظ في المقاييس الرئيسية، بما في ذلك نموذج Llama 2 من شركة ميتا.
وتعمل Google حاليا على توفير نموذج Gemma للباحثين مجانا من خلال منصتي Kaggle وColab التابعتين لها، وتوفر أيضا رصيدا مجانيا للاستخدام السحابي للنموذج من خلال خدمة Google Cloud.
ويذكر أن الشركة قامت في وقت سابق من الشهر الجاري، بإطلاق نموذج Gemini وتوفير تطبيق مجاني يحمل نفس الاسم، بالإضافة إلى اشتراكات مدفوعة تقدم مزايا متقدمة.
وأكدت Google أن نموذج Gemma، الذي يحتوي على 2 مليار معلمة، يعمل على وحدات المعالجة المركزية CPU لتطبيقات الجهاز والتطبيقات الطرفية مثل الحواسيب المحمولة، وأنه يحتوي على 7 مليارات وحدة معالجة رسومات ووحدات TPU.
ويمكن الوصول أيضا إلى النماذج عبر منصة Vertex AI الخاصة بخدمة Google Cloud وGoogle Kubernetes Engine.
وسمحت شركة Google بالاستخدام التجاري المسؤول لنموذج Gemma وتوزيعه على المؤسسات بجميع أحجامها. وبالمقابل، تقيد شركة ميتا استخدام مجموعة نماذج اللغات Llama 2 المجانية للمؤسسات التي لديها أقل من 700 مليون مستخدم نشط شهريًا، وعلى غير ذلك، يتعين عليها الحصول على ترخيص للاستخدام.
https://telegram.me/buratha