أعلنت OVHcloud عن الإطلاق الرسمي لـAI Endpoints، وهي حل cloud serverless جديد يهدف إلى تسهيل دمج نماذج الذكاء الاصطناعي في التطبيقات والخدمات التجارية. تم تصميم المنصة لديمقراطية استخدام الذكاء الاصطناعي، وتقدم مكتبة تضم أكثر من 40 نموذج مفتوح المصدر، تغطي مجموعة واسعة من حالات الاستخدام المهني.
تتيح AI Endpoints للمطورين الوصول إلى نماذج معالجة اللغة الطبيعية (LLM)، وتوليد الأكواد، والتعرف على الصوت أو حتى توليد الصور، دون الحاجة إلى إدارة البنية التحتية الأساسية أو امتلاك خبرة متقدمة في تعلم الآلة. تعتمد الحلول على بيئة cloud السيادية لـOVHcloud، لضمان استضافة آمنة للبيانات في أوروبا وحمايتها من اللوائح غير الأوروبية.
توفر المنصة بيئة اختبار (sandbox) تتيح للمطورين تجربة قدرات النماذج قبل دمجها الكامل، بالإضافة إلى API تسهل الدمج في بيئات التطوير الحالية. تشمل حالات الاستخدام المستهدفة أتمتة خدمة العملاء، ودعم التشفير، واستخراج النصوص من المستندات غير المهيكلة، أو حتى تحويل الصوت إلى نص والعكس. تبرز OVHcloud شفافية نهجها، مع نماذج مقدمة بوزن مفتوح، يمكن نشرها على البنى التحتية الخارجية أو الداخلية وفقًا لاحتياجات المؤسسات.
بعد معاينة، تم إثراء الحل تدريجيًا بنماذج جديدة، مع مراعاة ملاحظات المستخدمين (دعم النماذج المستقرة، إدارة محسنة لمفاتيح API... ). حاليًا، تقدم AI Endpoints أكثر من 40 نموذج ذكاء اصطناعي مفتوح المصدر من الجيل الأحدث، منها:
LLM : Llama 3.3 70B, Mixtral 8x7B, ...
SLM : Mistral Nemo, Llama 3.1 8B, ...
الكود: Qwen 2.5 Coder 32B, Codestral Mamba
الاستدلال: DeepSeek-R1 (Llama distillé)
متعدد الوسائط: Qwen 2.5 VL 72B, ...
توليد الصور: SDXL
الصوت والخطاب: ASR (speech-to-text), TTS (text-to-speech)
تسمح المنصة بالاستدلال عند الطلب، مع تسعير يعتمد على الاستخدام بناءً على عدد الرموز المستهلكة في الدقيقة ولكل نموذج. يتم استضافتها في مركز البيانات في Gravelines، بالقرب من Dunkerque، والذي يستخدم نظام تبريد بالماء لتقليل الأثر البيئي، وهي متاحة بالفعل في أوروبا، وكندا، ومنطقة آسيا والمحيط الهادئ.

Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale

لتحسين الفهم