الأربعاء 15 ,أكتوبر ,2025
Close ad

"ريد هات" تطلق Red Hat AI 3 لتعزيز استدلال الذكاء الاصطناعي وتطوير الوكلاء الذكيين على نطاق مؤسسي

/ الأربعاء 15 ,أكتوبر ,2025
منصة موحدة مبنية على السحابة الهجينة لدعم الذكاء الاصطناعي التوليدي والاستدلال الموزّع في بيئات متعددة وتسريع تطبيقات الجيل التالي

أعلنت شركة ريد هات (Red Hat)، المزود العالمي الرائد لحلول المصدر المفتوح، عن إطلاق الجيل الثالث من منصتها المؤسسية للذكاء الاصطناعي "Red Hat AI 3"، في خطوة تمثل نقلة نوعية في تمكين المؤسسات من تعزيز الاستدلال الموزّع، وتطوير الوكلاء الذكيين، والانتقال السريع من إثبات المفهوم إلى التشغيل الفعلي للتطبيقات.

ويجمع هذا الإصدار بين أبرز تقنيات ريد هات في الذكاء الاصطناعي، وهي:

خادم استدلال الذكاء الاصطناعي من ريد هات

Red Hat Enterprise Linux AI (RHEL AI)

Red Hat OpenShift AI

معالجة فجوة الذكاء الاصطناعي المؤسسي

مع انتقال المؤسسات من مرحلة التجريب إلى الإنتاج، تبرز تحديات معقدة مثل حماية الخصوصية، وخفض التكاليف، وإدارة النماذج المتنوعة. وأظهرت دراسة لمشروع NANDA بمعهد MIT أن نحو 95% من المؤسسات لم تحقق عوائد مالية ملموسة رغم استثمارات ضخمة قاربت 40 مليار دولار في الذكاء الاصطناعي.

قال محمد يوسف، المدير التسويقي لشركة ريد هات في الشرق الأوسط وشمال إفريقيا،  نعمل في ريد هات على تمكين المؤسسات من تجاوز الحواجز التقنية والتشغيلية في مجال الذكاء الاصطناعي، عبر منصة موحدة مفتوحة المصدر تلبّي مختلف احتياجاتهم، من الاستدلال إلى التشغيل التعاوني للنماذج. الإصدار الجديد Red Hat AI 3 يُعزز من مرونة فرق التكنولوجيا في تطوير حلول عملية قابلة للتنفيذ، سواء على البنية المحلية أو السحابية، وهو ما تحتاجه المؤسسات اليوم لتحقيق قيمة حقيقية من استثماراتها.

وأضاف من خلال تبنّي استدلال موزع وذكي باستخدام مشروع llm-d، وتوفير أدوات مثل مركز الذكاء الاصطناعي (AI Hub) واستوديو gen AI، نمنح المؤسسات القدرة على إدارة أعباء الذكاء الاصطناعي المعقدة بسهولة وكفاءة غير مسبوقة، مع الحفاظ على أمان البيانات وتكامل الأداء.

مشروع llm-d لتسريع الاستدلال على نطاق واسع

يرتكز Red Hat AI 3 على مشروع llm-d، الذي يتيح تنفيذ نماذج اللغة الكبيرة (LLMs) بشكل موزّع عبر كوبرنيتس، مستفيدًا من:

تنظيم vLLM عالي الأداء

تقنيات مثل NIXL وDeepEP MoE

دعم واجهة برمجة تطبيقات Kubernetes Gateway API

أبرز مزايا Red Hat AI 3

خفض التكاليف وتقليص زمن الاستجابة عبر استدلال ذكي مصنف حسب نوع الأحمال

موزّع أحمال مدرك للاستدلال يدير التغير المستمر في أعباء العمل

مسارات إرشادية "Well-lit Paths" لتبسيط النشر وتحسين النماذج الضخمة

الذكاء الاصطناعي كخدمة (MaaS) ومركز AI Hub

منصة متكاملة للتعاون وتقديم MaaS

نموذج التشغيل كخدمة (Model as a Service) الذي يمكّن المؤسسات من تقديم النماذج داخليًا بأمان وخصوصية

AI Hub لإدارة ونشر الأصول الذكية والمصادق عليها

gen AI Studio لتجربة النماذج وتخصيص المعايير

دعم خوادم MCP لتسهيل تكامل النماذج مع الأدوات الخارجية

دعم واسع للنماذج مفتوحة المصدر

تتضمن المنصة مجموعة مختارة من النماذج المُحسّنة والمدعومة من ريد هات، أبرزها:

gpt-oss من OpenAI

DeepSeek-R1

Whisper لتحويل الكلام إلى نص

Voxtral Mini للوكلاء الصوتيين

بنية جاهزة لوكلاء الذكاء الاصطناعي القابلين للتوسع

يرتكز Red Hat AI 3 على بنية قابلة للتوسع تدعم تطوير وكلاء الذكاء الاصطناعي من الجيل التالي، من خلال:

Llama Stack API لتوحيد واجهات التطوير

دعم بروتوكول Model Context Protocol (MCP)

أدوات InstructLab لتخصيص النماذج باستخدام مكتبات بايثون مرنة

Docling لتحويل المستندات غير المهيكلة إلى تنسيق قابل للمعالجة

تعليقات داعمة من شركاء التكنولوجيا

جو فرنانديز – ريد هات: نقدم إمكانيات استدلال موزع على نطاق واسع تدعم الابتكار بثقة

دان ماكنمارا – AMD: نُوفر الأساس عالي الأداء لتسريع تطبيقات الذكاء الاصطناعي

مارينو غريكو – ARSAT: انتقلنا من الفكرة إلى التشغيل خلال 45 يومًا فقط بفضل ريد هات

ريك فيلارز – IDC:"2026 سيكون عام التحول نحو ذكاء اصطناعي عملي وقابل للقياس

أوجفال كاباسي – NVIDIA: ريد هات AI 3 تجمع بين الأداء، القابلية للتوسع، والانفتاح