منصة موحدة مبنية على السحابة الهجينة لدعم الذكاء الاصطناعي التوليدي والاستدلال الموزّع في بيئات متعددة وتسريع تطبيقات الجيل التالي
أعلنت شركة ريد هات (Red Hat)، المزود العالمي الرائد لحلول المصدر المفتوح، عن إطلاق الجيل الثالث من منصتها المؤسسية للذكاء الاصطناعي "Red Hat AI 3"، في خطوة تمثل نقلة نوعية في تمكين المؤسسات من تعزيز الاستدلال الموزّع، وتطوير الوكلاء الذكيين، والانتقال السريع من إثبات المفهوم إلى التشغيل الفعلي للتطبيقات.
ويجمع هذا الإصدار بين أبرز تقنيات ريد هات في الذكاء الاصطناعي، وهي:
خادم استدلال الذكاء الاصطناعي من ريد هات
Red Hat Enterprise Linux AI (RHEL AI)
Red Hat OpenShift AI
معالجة فجوة الذكاء الاصطناعي المؤسسي
مع انتقال المؤسسات من مرحلة التجريب إلى الإنتاج، تبرز تحديات معقدة مثل حماية الخصوصية، وخفض التكاليف، وإدارة النماذج المتنوعة. وأظهرت دراسة لمشروع NANDA بمعهد MIT أن نحو 95% من المؤسسات لم تحقق عوائد مالية ملموسة رغم استثمارات ضخمة قاربت 40 مليار دولار في الذكاء الاصطناعي.
قال محمد يوسف، المدير التسويقي لشركة ريد هات في الشرق الأوسط وشمال إفريقيا، نعمل في ريد هات على تمكين المؤسسات من تجاوز الحواجز التقنية والتشغيلية في مجال الذكاء الاصطناعي، عبر منصة موحدة مفتوحة المصدر تلبّي مختلف احتياجاتهم، من الاستدلال إلى التشغيل التعاوني للنماذج. الإصدار الجديد Red Hat AI 3 يُعزز من مرونة فرق التكنولوجيا في تطوير حلول عملية قابلة للتنفيذ، سواء على البنية المحلية أو السحابية، وهو ما تحتاجه المؤسسات اليوم لتحقيق قيمة حقيقية من استثماراتها.
وأضاف من خلال تبنّي استدلال موزع وذكي باستخدام مشروع llm-d، وتوفير أدوات مثل مركز الذكاء الاصطناعي (AI Hub) واستوديو gen AI، نمنح المؤسسات القدرة على إدارة أعباء الذكاء الاصطناعي المعقدة بسهولة وكفاءة غير مسبوقة، مع الحفاظ على أمان البيانات وتكامل الأداء.
مشروع llm-d لتسريع الاستدلال على نطاق واسع
يرتكز Red Hat AI 3 على مشروع llm-d، الذي يتيح تنفيذ نماذج اللغة الكبيرة (LLMs) بشكل موزّع عبر كوبرنيتس، مستفيدًا من:
تنظيم vLLM عالي الأداء
تقنيات مثل NIXL وDeepEP MoE
دعم واجهة برمجة تطبيقات Kubernetes Gateway API
أبرز مزايا Red Hat AI 3
خفض التكاليف وتقليص زمن الاستجابة عبر استدلال ذكي مصنف حسب نوع الأحمال
موزّع أحمال مدرك للاستدلال يدير التغير المستمر في أعباء العمل
مسارات إرشادية "Well-lit Paths" لتبسيط النشر وتحسين النماذج الضخمة
الذكاء الاصطناعي كخدمة (MaaS) ومركز AI Hub
منصة متكاملة للتعاون وتقديم MaaS
نموذج التشغيل كخدمة (Model as a Service) الذي يمكّن المؤسسات من تقديم النماذج داخليًا بأمان وخصوصية
AI Hub لإدارة ونشر الأصول الذكية والمصادق عليها
gen AI Studio لتجربة النماذج وتخصيص المعايير
دعم خوادم MCP لتسهيل تكامل النماذج مع الأدوات الخارجية
دعم واسع للنماذج مفتوحة المصدر
تتضمن المنصة مجموعة مختارة من النماذج المُحسّنة والمدعومة من ريد هات، أبرزها:
gpt-oss من OpenAI
DeepSeek-R1
Whisper لتحويل الكلام إلى نص
Voxtral Mini للوكلاء الصوتيين
بنية جاهزة لوكلاء الذكاء الاصطناعي القابلين للتوسع
يرتكز Red Hat AI 3 على بنية قابلة للتوسع تدعم تطوير وكلاء الذكاء الاصطناعي من الجيل التالي، من خلال:
Llama Stack API لتوحيد واجهات التطوير
دعم بروتوكول Model Context Protocol (MCP)
أدوات InstructLab لتخصيص النماذج باستخدام مكتبات بايثون مرنة
Docling لتحويل المستندات غير المهيكلة إلى تنسيق قابل للمعالجة
تعليقات داعمة من شركاء التكنولوجيا
جو فرنانديز – ريد هات: نقدم إمكانيات استدلال موزع على نطاق واسع تدعم الابتكار بثقة
دان ماكنمارا – AMD: نُوفر الأساس عالي الأداء لتسريع تطبيقات الذكاء الاصطناعي
مارينو غريكو – ARSAT: انتقلنا من الفكرة إلى التشغيل خلال 45 يومًا فقط بفضل ريد هات
ريك فيلارز – IDC:"2026 سيكون عام التحول نحو ذكاء اصطناعي عملي وقابل للقياس
أوجفال كاباسي – NVIDIA: ريد هات AI 3 تجمع بين الأداء، القابلية للتوسع، والانفتاح
Copyright @2020 PPR. All Rights Reserved by