OVHcloud anuncia el lanzamiento oficial de AI Endpoints, una nueva solución cloud serverless destinada a facilitar la integración de modelos de inteligencia artificial en aplicaciones y servicios empresariales. Diseñada para democratizar el uso de la IA, la plataforma ofrece una biblioteca de más de 40 modelos open source, cubriendo un amplio rango de casos de uso profesionales.
AI Endpoints permite a los desarrolladores acceder a modelos de procesamiento de lenguaje natural (LLM), generación de código, reconocimiento de voz o generación de imágenes, sin tener que gestionar la infraestructura subyacente ni contar con una experiencia avanzada en machine learning. La solución se basa en el entorno cloud soberano de OVHcloud, garantizando un alojamiento seguro de los datos en Europa, así como su protección frente a regulaciones extraeuropeas.
La plataforma ofrece un entorno de pruebas (sandbox) que permite a los desarrolladores experimentar las capacidades de los modelos antes de su integración completa, así como APIs que facilitan la integración en entornos de desarrollo existentes. Los casos de uso objetivo incluyen la automatización del servicio al cliente, la asistencia al codificado, la extracción de texto a partir de documentos no estructurados, o la conversión de voz a texto y texto a voz. OVHcloud destaca la transparencia de su enfoque, con modelos proporcionados en open weight, que pueden ser desplegados en infraestructuras de terceros o en sitio según las necesidades de las organizaciones.
Tras una preview, la solución ha sido progresivamente enriquecida con nuevos modelos, teniendo en cuenta los comentarios de los usuarios (soporte de modelos estables, gestión afinada de las claves API…). Actualmente, AI Endpoints ofrece más de 40 modelos IA open-source de última generación, incluyendo:
LLM: Llama 3.3 70B, Mixtral 8x7B, ...
SLM: Mistral Nemo, Llama 3.1 8B, ...
Code: Qwen 2.5 Coder 32B, Codestral Mamba
Razonamiento: DeepSeek-R1 (Llama destilado)
Multimodal: Qwen 2.5 VL 72B, ...
Generación de imágenes: SDXL
Voz y discurso: ASR (speech-to-text), TTS (text-to-speech)
La plataforma permite la inferencia a demanda, con una tarificación basada en el uso por el número de tokens consumidos por minuto y por modelo. Albergada en el datacenter de Gravelines, cerca de Dunkerque, que utiliza un sistema de enfriamiento por agua para minimizar el impacto ambiental, ya está disponible en Europa, Canadá y en la región Asia-Pacífico.

Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale

Para entender mejor

¿Qué significa la inferencia a demanda utilizada por la plataforma AI Endpoints de OVHcloud?

La inferencia a demanda permite un uso flexible y optimizado de los recursos al procesar datos solo cuando se realiza una solicitud, lo que puede reducir costos y mejorar la eficiencia energética.

¿Cómo cumple la nube soberana de OVHcloud con las regulaciones europeas de protección de datos?

La nube soberana de OVHcloud asegura que todos los datos permanezcan en Europa, cumpliendo con los estándares del RGPD, y ofrece protección contra el acceso no autorizado por regulaciones extraeuropeas, asegurando la confidencialidad y soberanía de los datos.