Maximale Flexibilität und Skalierbarkeit dank offener k0rdent AI-Architektur Mirantis

0

Mirantis k0rdent AI ist als Teil der NVIDIA AI Cloud Ready Initiative erfolgreich validiert worden und bietet Neocloud-Anbietern eine sofort einsatzbereite Plattform. Mandantenfähige Self-Service-Umgebungen für Bare Metal, Kubernetes, virtuelle Maschinen und Managed AI-Services werden automatisiert bereitgestellt. Der offene NVIDIA NCX Infra Controller übernimmt das Orchestrieren großer GPU-Flotten und gewährleistet eine konsistente Performance. Schon ab dem ersten Tag stehen NVIDIA-zertifizierte Modelle bereit, um schnelle Innovationszyklen, hohe Auslastung und effektive Monetarisierung zu ermöglichen.

Neuer Gründungspartner Mirantis beschleunigt jetzt erheblich KI-Cloud-Infrastrukturen mit NVIDIA-Technologie

Mirantis ist Gründungspartner der NVIDIA AI Cloud Ready Initiative und stellt Cloud-Anbietern k0rdent AI als Container- und Bare-Metal-Plattform bereit. NVIDIA Cloud Partner (NCP) können GPU-Ressourcen sofort mandantenfähig zuweisen und KI-Workloads effizient skalieren. Integrierte Automatisierung garantiert schnelle Provisionierung, kontinuierliche Updates und Monitoring. Offene Schnittstellen des NCX Infra Controllers gewährleisten homogene Verwaltung großer GPU-Flotten. Mandanten-Self-Service-Portale erhöhen die Nutzerfreundlichkeit. Dies führt zu reduzierten Betriebskosten und höherer Ressourcenauslastung. Skalierbarkeit und Sicherheit sind maximal zentral.

Effiziente Auslastung durch Lifecycle-Automation und Self-Service-Portale mit Mandantenfähigkeit garantiert

Neocloud-Anbieter profitieren mit k0rdent AI von einer integrierten Plattform, die automatisierte Workflows und mandantenfähige Self-Service-Portale bereitstellt und alle gängigen Infrastrukturtypen abdeckt: Bare Metal, Kubernetes, virtuelle Maschinen und Managed-KI-Services. Ein zentrales Managementsystem orchestriert Provisionierung, Skalierung, Monitoring und Updates. Anwender starten Dienste eigenständig über intuitive Interfaces, während Betreiber Transparenz über Auslastung und Kosten erhalten. So lassen sich komplexe KI-Umgebungen effizient betreiben, schnell anpassen und wirtschaftlich skalieren.

Mirantis modulare Lösung ermöglicht mandantenfähige Deployments im gesamten Neocloud-Lifecycle

Als einziger offener Gründungspartner der NVIDIA AI Cloud Ready-Initiative stellt Mirantis eine speziell entwickelte modulare Infrastrukturplattform bereit, die den vollen Neocloud-Lifecycle unterstützt. Die Kubernetes-native Lösung umfasst Bare-Metal-Ressourcen, Container-Orchestrierung, virtuelle Maschinen sowie Managed KI-Services in mandantenfähigen Self-Service-Umgebungen. Durch das offene, flexible Design können Cloud-Anbieter Workloads automatisiert ausrollen, Ressourcen dynamisch skalieren und zusätzliche Funktionen nach Bedarf integrieren. Dies fördert Transparenz, verhindert Vendor Lock-ins und steigert die Effizienz bei der GPU-Nutzung nachhaltig profitabel.

NCX Infra Controller beschleunigt k0rdent AI gesteuerte GPU-Workloads effizient

k0rdent AI kombiniert den Open-Source-NCX Infra Controller von NVIDIA mit seiner Infrastruktur, um große GPU-Landschaften zentral zu managen. Dieses Steuerungssystem koordiniert die Hardware-Ebenen unterschiedlichster NVIDIA-Generationen – darunter Ampere, Hopper und Blackwell – und bindet gleichzeitig Hochgeschwindigkeitsnetzwerke wie Quantum InfiniBand und Spectrum-X Ethernet ein. Durch die automatisierte Verwaltung von DGX-, HGX- und MGX-Systemplattformen gewährleistet es eine durchgängige Überwachung, Lastverteilung und schnelle Rollouts neuer Ressourcen.

Gartner prognostiziert weltweit 2,5 Billionen Dollar KI-Ausgaben bis 2026

Provider können dank der Lifecycle-Automation und den automatisierten Skripten des NCX Infra Controllers manuelle Schritte eliminieren und GPU-Ressourcen effizient allokieren. Gartner prognostiziert Investitionen von 2,5 Billionen US-Dollar in KI bis 2026 weltweit. k0rdent AI erweitert dies um mandantenfähige Kubernetes-Cluster, Bare-Metal-Instanzen und VM-Services mit Self-Service-Schnittstellen. So lässt sich das Angebot agil anpassen, Lastspitzen automatisch ausgleichen und Betriebskosten minimieren, während Performance und Verfügbarkeit auf konstant hohem Niveau bleiben sowie automatisierte Skalierung ermöglichen.

Offene Mirantis Plattform beschleunigt schnell automatisch Bereitstellung mandantenfähiger KI-Cloud-Services

Mirantis liefert als einziger offener ISV-Partner eine modulare End-to-End-Infrastrukturplattform. Sie umfasst Bare-Metal-Bereitstellung, Kubernetes-Cluster und mandantenfähige KI-Services für den kompletten Neocloud-Lifecycle. Automatisierte Abläufe und Self-Service-Tools sorgen für schnelle Provisionierung, transparente Ressourcenverwaltung und kontinuierliche Skalierung. Offene APIs erlauben Integration von Drittanbieter-Tools und individuelle Anpassungen. Anbieter profitieren von optimierter GPU-Auslastung, reduzierten Betriebskosten und flexibel konfigurierbaren Abrechnungsmodellen, um langfristig stabile Einnahmen im wachsenden KI-Cloud-Markt sicherzustellen. Die Lösung ist quelloffen, skalierbar, unterstützt Multitenancy High-Performance-Computing.

DGX-, HGX- und MGX-Systeme zentral verwalten mit NCX Controller

Mit Mirantis k0rdent AI erhalten Neocloud-Anbieter eine validierte, schlüsselfertige Plattform, um mandantenfähige KI-Clouds vollautomatisch aufzubauen. Der offene NVIDIA NCX Infra Controller übernimmt die zentrale Orchestrierung großer GPU-Flotten, optimiert Auslastung und sorgt für konstante Performance. Die modulare Lösung integriert Bare Metal, Kubernetes, virtuelle Maschinen und Managed-KI-Services in einem einheitlichen System. Kunden profitieren ab dem ersten Tag von Kosteneffizienz, skalierbarer Flexibilität und schneller Reaktionsfähigkeit auf wachsende Anforderungen im KI-Betrieb.

Lassen Sie eine Antwort hier