OVHcloud kondigt de officiële lancering aan van AI Endpoints, een nieuwe serverloze cloudoplossing die is ontworpen om de integratie van kunstmatige intelligentiemodellen in bedrijfsapplicaties en -diensten te vergemakkelijken. Het platform, ontworpen om het gebruik van AI te democratiseren, biedt een bibliotheek van meer dan 40 open source modellen, die een breed scala aan zakelijke toepassingen dekken.
AI Endpoints stelt ontwikkelaars in staat om toegang te krijgen tot modellen voor natuurlijke taalverwerking (LLM), codegeneratie, spraakherkenning of beeldgeneratie, zonder dat ze de onderliggende infrastructuur hoeven te beheren of diepgaande expertise in machine learning nodig hebben. De oplossing is gebaseerd op de soevereine cloudomgeving van OVHcloud, die zorgt voor veilige hosting van gegevens in Europa en hun bescherming tegen niet-Europese regelgeving.
Het platform biedt een testomgeving (sandbox) waarmee ontwikkelaars de mogelijkheden van de modellen kunnen uitproberen voordat ze volledig worden geïntegreerd, evenals API's die de integratie in bestaande ontwikkelomgevingen vergemakkelijken. De beoogde gebruiksscenario's omvatten automatisering van klantenservice, ondersteunend coderen, tekstextractie uit ongestructureerde documenten, of spraak-naar-tekst en tekst-naar-spraak conversie. OVHcloud benadrukt de transparantie van zijn benadering, met modellen die in open gewicht worden geleverd en die kunnen worden ingezet op externe of on-premise infrastructuren afhankelijk van de behoeften van de organisaties.
Na een preview is de oplossing geleidelijk verrijkt met nieuwe modellen, rekening houdend met feedback van gebruikers (ondersteuning van stabiele modellen, verfijnd beheer van API-sleutels...). Momenteel biedt AI Endpoints meer dan 40 open-source AI-modellen van de nieuwste generatie, waaronder:
LLM : Llama 3.3 70B, Mixtral 8x7B, ...
SLM : Mistral Nemo, Llama 3.1 8B, ...
Code : Qwen 2.5 Coder 32B, Codestral Mamba
Redenering : DeepSeek-R1 (Llama gedistilleerd)
Multimodaal : Qwen 2.5 VL 72B, ...
Beeldgeneratie : SDXL
Stem en spraak : ASR (speech-to-text), TTS (text-to-speech)
Het platform maakt on-demand inferentie mogelijk, met een gebruiksgebaseerde prijsstelling op basis van het aantal tokens dat per minuut en per model wordt verbruikt. Gehost in het datacenter van Gravelines, nabij Duinkerken, dat een waterkoelsysteem gebruikt om de ecologische impact te minimaliseren, is het nu al beschikbaar in Europa, Canada en de regio Azië-Pacific.
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale
Vertaald van L'IA clé en main : OVHcloud lance AI Endpoints, sa plateforme serverless d’IA open source