ML Drift: Erleichterung der lokalen Inferenz

ML Drift: Erleichterung der lokalen Inferenz

TLDR : Ein Team von Forschern bei Google und Meta hat ML Drift entwickelt, eine Lösung, um KI effizient direkt auf dem Gerät auszuführen, trotz der Herausforderungen durch die Vielfalt der GPU-Architekturen. ML Drift verbessert dank Innovationen wie der Virtualisierung von Tensors die Leistung erheblich und bietet eine große Kompatibilität über mobile und Desktop-Plattformen hinweg.

Die meisten KI-Modelle werden auf einem Server inferiert (d.h. "ausgeführt"). Die Entwicklung lokaler Inferenz, also direkt auf dem Gerät, würde jedoch die Verbreitung von KI beschleunigen, insbesondere durch die Reduzierung von Serveranforderungen und die Verbesserung der Vertraulichkeit.

Der Einsatz generativer KI-Modelle auf verschiedenen Arten von GPUs stellt jedoch bemerkenswerte Herausforderungen dar: Die Vielfalt der GPU-Architekturen, von proprietären Lösungen bis hin zu offenen Plattformen, macht die Aufgabe kompliziert, da jeder GPU-Typ seine eigenen Merkmale und Einschränkungen hat. 

Angesichts eines zunehmenden Risikos materieller Abhängigkeit wird die Optimierung der Leistung auf heterogenen Plattformen zu einem Muss, um einen reibungslosen und effizienten Ablauf generativer Modelle zu gewährleisten.

Um diese Herausforderungen zu meistern, hat ein Team von Forschern bei Google und Meta, darunter Jiuqiang Tang, Raman Sarokin und Ekaterina Ignasheva, ML Drift entwickelt, eine Lösung für die Inferenz auf verschiedenen Plattformen. Ihre Expertise liegt in der Optimierung von GPU-Inferenz-Engines, die eine effektive Ausführung generativer KI-Arbeitslasten ermöglichen. ML Drift zeichnet sich durch seine Fähigkeit aus, technische Hürden im Zusammenhang mit der Entwicklung von Inter-GPU-APIs zu überwinden, was eine breite Kompatibilität über mobile und Desktop-Plattformen hinweg sicherstellt.

Methodischer Ansatz und technische Innovationen

ML Drift führt mehrere technische Innovationen ein, darunter die Virtualisierung von Tensors und eine optimierte Speicherverwaltung. Die Virtualisierung von Tensors ermöglicht es, logische von physischen GPU-Indizes zu trennen, was eine erhöhte Flexibilität in der Speicheranordnung und der Optimierung von Kernen bietet. Darüber hinaus ermöglichen Speicherverwaltungs- und Optimierungsstrategien die Reduzierung des Speicherbedarfs und die Verbesserung der Leistung.

Ergebnisse und Zukunftsaussichten

Die Leistungsevaluierungen von ML Drift zeigen signifikante Verbesserungen im Vergleich zu bestehenden Open-Source-Lösungen, mit erheblichen Gewinnen in Bezug auf die Leistung (10 bis 100 Mal mehr unterstützte Parameter). Diese vielversprechenden Ergebnisse ebnen den Weg für zukünftige Anwendungen und Verbesserungen, einschließlich der Integration fortschrittlicher Quantisierungstechniken und der Erforschung spezialisierter Anweisungen für ML-Arbeitslasten. In Zukunft plant das Team, die Fähigkeiten von ML Drift auf neuere Diffusionsmodelle und transformatorbasierte Architekturen auszudehnen und gleichzeitig eine effektive Interoperabilität mit heterogenen Prozessoren zu erforschen.

 

Referenz der Veröffentlichung: arXiv:2505.00232v1

 

Besser verstehen

Was ist die Tensor-Virtualisierung und warum ist sie wichtig für die Inferenz auf verschiedenen GPUs?

Die Virtualisierung von Tensoren trennt logische von physischen GPU-Indizes, was eine erhöhte Flexibilität in der Speicherverwaltung ermöglicht. Dies ist entscheidend für die Optimierung der Inferenzleistung auf diversen GPUs mit heterogenen Architekturen und ermöglicht eine bessere Ressourcennutzung.