OVHcloud kündigt den offiziellen Start von AI Endpoints an, einer neuen serverlosen Cloud-Lösung, die darauf abzielt, die Integration von Modellen der künstlichen Intelligenz in geschäftliche Anwendungen und Dienste zu erleichtern. Die Plattform wurde entwickelt, um die Nutzung von KI zu demokratisieren und bietet eine Bibliothek von über 40 Open-Source-Modellen, die ein breites Spektrum von professionellen Anwendungsfällen abdecken.
AI Endpoints ermöglicht Entwicklern den Zugriff auf Modelle zur Verarbeitung natürlicher Sprache (LLM), Code-Generierung, Spracherkennung oder Bildgenerierung, ohne die zugrunde liegende Infrastruktur verwalten oder über tiefgehende Kenntnisse im Bereich Machine Learning verfügen zu müssen. Die Lösung basiert auf der souveränen Cloud-Umgebung von OVHcloud und gewährleistet eine sichere Datenhaltung in Europa sowie deren Schutz vor außereuropäischen Vorschriften.
Die Plattform bietet eine Testumgebung (Sandbox), die es Entwicklern ermöglicht, die Fähigkeiten der Modelle vor ihrer vollständigen Integration zu erproben, sowie APIs, die die Integration in bestehende Entwicklungsumgebungen erleichtern. Die anvisierten Anwendungsfälle umfassen die Automatisierung des Kundenservices, Unterstützung beim Codieren, Textextraktion aus unstrukturierten Dokumenten sowie Sprach-zu-Text- und Text-zu-Sprach-Konvertierung. OVHcloud betont die Transparenz seines Ansatzes, da die Modelle mit offenen Gewichten bereitgestellt werden, die je nach Bedarf der Organisationen auf Drittinfrastrukturen oder vor Ort eingesetzt werden können.
Nach einer Vorschau wurde die Lösung schrittweise mit neuen Modellen bereichert, wobei das Feedback der Benutzer berücksichtigt wurde (Unterstützung stabiler Modelle, verfeinerte Verwaltung von API-Schlüsseln etc.). Derzeit bietet AI Endpoints mehr als 40 Open-Source-IA-Modelle der neuesten Generation, darunter:
LLM : Llama 3.3 70B, Mixtral 8x7B, ...
SLM : Mistral Nemo, Llama 3.1 8B, ...
Code : Qwen 2.5 Coder 32B, Codestral Mamba
Reasoning : DeepSeek-R1 (Llama destilliert)
Multimodal : Qwen 2.5 VL 72B, ...
Bildgenerierung : SDXL
Sprache und Rede : ASR (speech-to-text), TTS (text-to-speech)
Die Plattform ermöglicht bedarfsorientierte Inferenz mit einer nutzungsbasierten Preisgestaltung, die auf der Anzahl der pro Minute und Modell verbrauchten Tokens basiert. Gehostet wird sie im Rechenzentrum in Gravelines, in der Nähe von Dunkerque, das ein Wasserkühlsystem verwendet, um die Umweltbelastung zu minimieren, und ist bereits in Europa, Kanada und der Asien-Pazifik-Region verfügbar.

Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale

Besser verstehen

Was bedeutet die bedarfsabhängige Inferenz, wie sie von der AI Endpoints-Plattform von OVHcloud verwendet wird?

Die bedarfsabhängige Inferenz ermöglicht die flexible und optimierte Nutzung von Ressourcen, indem Daten nur bei Anforderung verarbeitet werden, was die Kosten senken und die Energieeffizienz verbessern kann.

Wie erfüllt OVHcloud's souveräne Cloud die europäischen Datenschutzbestimmungen?

Die souveräne Cloud von OVHcloud stellt sicher, dass alle Daten in Europa bleiben, den GDPR-Standards entspricht und Schutz gegen unbefugten Zugriff durch außereuropäische Regelungen bietet, wodurch die Datenvertraulichkeit und -souveränität gewährleistet wird.