OVHcloud kündigt den offiziellen Start von AI Endpoints an, einer neuen serverlosen Cloud-Lösung, die darauf abzielt, die Integration von Modellen der künstlichen Intelligenz in Geschäftsapplikationen und -dienste zu erleichtern. Die Plattform, die entwickelt wurde, um die Nutzung von KI zu demokratisieren, bietet eine Bibliothek von mehr als 40 Open-Source-Modellen, die ein breites Spektrum an professionellen Anwendungsfällen abdecken. AI Endpoints ermöglicht Entwicklern den Zugriff auf Modelle zur Verarbeitung natürlicher Sprache (LLM), Codegenerierung, Spracherkennung oder Bildgenerierung, ohne die zugrunde liegende Infrastruktur verwalten oder über umfassende Kenntnisse im maschinellen Lernen verfügen zu müssen. Die Lösung basiert auf der souveränen Cloud-Umgebung von
OVHcloud, die eine sichere Datenhosting in Europa sowie deren Schutz vor außereuropäischen Regelungen gewährleistet.
Die Plattform bietet eine Testumgebung (Sandbox), die es Entwicklern ermöglicht, die Fähigkeiten der Modelle vor ihrer vollständigen Integration zu erproben, sowie APIs, die die Integration in bestehende Entwicklungsumgebungen erleichtern. Die Zielanwendungsfälle umfassen die Automatisierung des Kundenservice, Unterstützung beim Codieren, Textextraktion aus unstrukturierten Dokumenten sowie Sprach-Text- und Text-Sprach-Konvertierung.
OVHcloud hebt die Transparenz seines Ansatzes hervor, mit Modellen, die in Open Weight bereitgestellt werden und je nach den Bedürfnissen der Organisationen auf Drittinfrastrukturen oder vor Ort eingesetzt werden können.
Nach einer Vorschau wurde die Lösung schrittweise mit neuen Modellen angereichert, wobei das Feedback der Benutzer berücksichtigt wurde (Unterstützung stabiler Modelle, verfeinerte Verwaltung von API-Schlüsseln…). Derzeit bietet AI Endpoints mehr als 40 Open-Source-KI-Modelle der neuesten Generation, darunter:
LLM : Llama 3.3 70B, Mixtral 8x7B, ...
SLM : Mistral Nemo, Llama 3.1 8B, ...
Code : Qwen 2.5 Coder 32B, Codestral Mamba
Multimodal : Qwen 2.5 VL 72B, ...
Bildgenerierung : SDXL
Sprache und Rede : ASR (speech-to-text), TTS (text-to-speech)
Die Plattform ermöglicht On-Demand-Inferenz mit nutzungsbasierter Abrechnung, basierend auf der Anzahl der pro Minute und Modell verbrauchten Tokens. Gehostet im
Rechenzentrum von Gravelines, nahe Dunkerque, das ein Wasserkühlungssystem verwendet, um die Umweltbelastung zu minimieren, ist sie bereits in Europa, Kanada und der Region Asien-Pazifik verfügbar.
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale
Besser verstehen
Was bedeutet die bedarfsabhängige Inferenz, wie sie von der AI Endpoints-Plattform von OVHcloud verwendet wird?
Die bedarfsabhängige Inferenz ermöglicht die flexible und optimierte Nutzung von Ressourcen, indem Daten nur bei Anforderung verarbeitet werden, was die Kosten senken und die Energieeffizienz verbessern kann.
Wie erfüllt OVHcloud's souveräne Cloud die europäischen Datenschutzbestimmungen?
Die souveräne Cloud von OVHcloud stellt sicher, dass alle Daten in Europa bleiben, den GDPR-Standards entspricht und Schutz gegen unbefugten Zugriff durch außereuropäische Regelungen bietet, wodurch die Datenvertraulichkeit und -souveränität gewährleistet wird.