Die Zukunft der Cloud-Technologie wurde auf der KubeCon EU 2024 deutlich.
In Paris am 21. März beleuchtete Dennis Gu, leitender Architekt von Huawei Cloud, in einer Keynote die entscheidende Rolle der Integration von Cloud-Native und KI-Technologien für die industrielle Transformation. Es wurde ein starkes Engagement für die Entwicklung und Kollaboration an Open-Source-Projekten zur Realisierung eines intelligenten Zeitalters hervorgehoben.
Cloud-Native Technologien haben traditionelle IT-Systeme revolutioniert, den digitalen Fortschritt vorangetrieben und in verschiedenen Bereichen wie dem Internet und Behördendiensten bedeutende Beschleunigungen erzielt. DevOps und die Microservice Governance haben das Wachstum und die Anwendung von KI beeinflusst, was sich signifikant auf das alltägliche Leben auswirkt.
Eine Studie aus dem Jahr 2023 ergab, dass sich die Rechenleistung für grundlegende KI-Modelle alle 18 Monate verzehnfacht – ein Wachstum, das fünfmal schneller ist als das Moore’sche Gesetz vorhersagt. Diese Trendwende durch KI schafft neue Herausforderungen für Cloud-Native Technologien und zugleich neue Chancen für Innovationen.
Dennis Gu thematisierte wichtige Punkte wie geringe GPU/NPU-Auslastungen, die Kosten für KI-Training und KI-Inferenz ansteigen lassen, und komplexe Konfigurationen von Großmodellen, welche hohe Anforderungen an die KI-Entwicklung stellen.
Huawei Cloud nutzte KubeEdge, eine Edge-Computing-Plattform, um eine innovative Multi-Roboter-Planungs- und Verwaltungsplattform zu erstellen. Diese Architektur ermöglicht es, mehrere Roboter für komplexe Aufgaben zu koordinieren, und steigert effektiv die Effizienz.
Eine führende chinesische Plattform zur Inhaltsfreigabe mit über 100 Millionen aktiven Nutzern pro Monat stützt sich auf ein KI-Modell mit fast 100 Milliarden Parametern. Hierbei kommt ein Trainingscluster zum Einsatz, das Tausende von Rechenknoten umfasst und dessen Leistung durch das Open-Source-Projekt Volcano signifikant verbessert wird.
Ein zentrales Thema der Keynote war Serverless AI, die mit einer adaptiven Funktion zur automatischen GPU/NPU-Erweiterung und der Kompatibilität mit gängigen KI-Frameworks überzeugt.
Serverless AI ermöglicht eine bessere GPU-/NPU-Auslastung und unterstützt bei der Bewältigung der Herausforderungen, die durch die steigende Größe von KI-Modellen entstehen. Es nutzt eine flexible Ressourcenplanungsschicht und ermöglicht die Automatisierung von großen KI-Ressourcen.
Technische Experten von Huawei Cloud beleuchteten die stetige Zunahme von KI- oder Machine-Learning-Workloads auf Kubernetes. Mit Projekten wie Karmada und Volcano können Ressourcen über verschiedene Cluster hinweg intelligent geplant und Arbeitseffizienz sowie QoS von Arbeitslasten mit unterschiedlichen Prioritäten verbessert werden.
Huawei Cloud hat es sich zur Aufgabe gemacht, durch Open-Source-Innovationen gemeinsam mit Branchenkollegen eine neue Ära der Intelligenz zu beginnen.