Für KI-Workloads optimierte All-Flash-basierte Ultra-Scale-Datenspeicherplattformen bieten ausreichenden Speicherdurchsatz und bieten weitreichende Skalierbarkeit

Mit der zunehmenden Verbreitung von KI-Innovationen erkennen viele Unternehmen schnell den Wert, ihre bestehenden Prozesse durch Modelltraining und Inferenz zu verbessern. Dieser Trend hat die Einführung von KI-Workflows in den Bereichen Vorverarbeitung, Training, Test, Feinabstimmung und Bereitstellung vorangetrieben. Alle diese Teilbereiche der KI-Nutzung profitieren hierbei von leistungsstärkeren GPUs und größeren, multimodalen Datensätzen.

Diese Expansion hat auch neue Herausforderungen an die Infrastruktur mit sich gebracht, wie Pure Storage berichtet. Herkömmliche Speicher weisen Beschränkungen auf bei Skalierbarkeit, Checkpointing, Management und Metadatenleistung in großem Maßstab. Dies führt zu Engpässen und behindert die vollständige Nutzung teurer GPU-orientierter Infrastrukturen, wodurch Fortschritt und Innovation verlangsamt werden. Dies wiederum hat erhebliche Auswirkungen auf den aggressiven ROI-Druck der KI. Jede dafür vorgesehene Infrastruktur muss mit Höchstleistung laufen, um eine möglichst schnelle Wertschöpfung für das Training und die Inferenz von Modellen zu gewährleisten. Verlorene Zeit ist verlorenes Geld.

Diese geschäftliche Herausforderung, dass ungenutzte GPUs Zeit- und Geldverlust bedeuten, wird in großem Maßstab, z. B. bei GPU-Cloud-Anbietern und KI-Laboren, aus zwei Gründen exponentiell verstärkt. Erstens ist eine massive betriebliche Effizienz in großem Maßstab für ihre Rentabilität von entscheidender Bedeutung und geht weit über das hinaus, was die meisten lokalen/internen Rechenzentren bewältigen können. Zweitens haben sich Serviceprovider dem Grundsatz verschrieben, Ressourcenleerlauf zu vermeiden. Für sie sind ungenutzte GPUs in jedem KI-Modell eine entgangene Umsatzchance, Storage-Ineffizienzen sind daher zu vermeiden.

KI-Workflows in großem Maßstab sind anspruchsvoll

Herkömmliche Hochleistungs-Speicherarchitekturen basieren auf parallelen Dateisystemen und wurden für herkömmliche, dedizierte High-Performance-Computing (HPC)-Umgebungen entwickelt und optimiert. HPC-Workloads sind vorhersehbar, sodass die parallelen Speichersysteme für eine bestimmte Leistungsskalierung optimiert werden könnten. KI-basierte Workflows und Modelle in großem Maßstab unterscheiden sich von herkömmlichen HPC-Systemen, da sie komplexer sind und viel mehr Parameter beinhalten, die auch multimodal sind, indem sie Textdateien, Bilder, Videos und mehr enthalten. All dies muss gleichzeitig von Zehntausenden von GPUs verarbeitet werden. Diese neue Dynamik zeigt schnell, wie sehr herkömmliche HPC-basierte Speicheransätze bei einer größeren Skalierung an ihre Leistungsgrenzen stoßen. Genauer gesagt wird die Leistung herkömmlicher paralleler Speichersysteme bei der Verwaltung von Metadaten und zugehörigen Daten von derselben Storage-Controller-Ebene aus problematisch.

Mit dem rasanten Anstieg der Datenmengen wird die Metadatenverwaltung zu einem kritischen Engpass. Herkömmliche Speicher haben Schwierigkeiten, Metadaten effizient zu skalieren, was zu Latenz und Leistungseinbußen führt. Dies gilt insbesondere bei KI- und HPC-Workloads, die eine extreme Parallelität erfordern. Herkömmliche Architekturen, die für sequenziellen Zugriff ausgelegt sind, können da nicht mithalten. Sie leiden oft unter Starrheit und Komplexität, was die Skalierbarkeit einschränkt. Um diese Herausforderungen zu bewältigen, ist eine Metadaten-First-Architektur erforderlich, die sich nahtlos skalieren lässt, massive Parallelität unterstützt und Engpässe beseitigt. Mit der Weiterentwicklung der KI- und HPC-Möglichkeiten werden die Herausforderungen noch größer.

Neue Speicherlösung begegnet KI-Leistungsherausforderungen in großem Maßstab

Engpässe herkömmlicher Speicherlösungen erfordern ein Umdenken beim Metadatenmanagement und bei der Optimierung des Datenzugriffs, um verschiedene Datentypen und eine hochgradige Parallelität von KI-Workloads im Serviceprovider-Maßstab zu verwalten.

Ein Metadaten-Core in einem modernen All-Flash-basiertem Unified Fast File and Object (UFFO)-Speicher hilft nach Erfahrung von Pure Storage Unternehmen dabei, anspruchsvolle KI-Trainings-, Abstimmungs- und Inferenzanforderungen zu bewältigen, indem er typische Metadaten-Herausforderungen angeht, wie z. B.:

  • Parallelitätsmanagement: Effiziente Verarbeitung großer Mengen von Metadatenanfragen über mehrere Knoten hinweg.
  • Vermeidung von Hotspots: Vermeidung von Engpässen bei einzelnen Metadatenservern, die die Leistung beeinträchtigen und eine fortlaufende Abstimmung und Optimierung erfordern können.
  • Konsistenz in großem Maßstab: Sicherstellung der Synchronisierung über verteilte Metadatenkopien hinweg.
  • Effiziente Hierarchieverwaltung: Optimierung komplexer Dateisystemvorgänge bei gleichbleibender Leistung.
  • Skalierbarkeit und Ausfallsicherheit: Aufrechterhaltung einer hohen Leistung bei exponentiell wachsenden Datenmengen.
  • Betriebliche Effizienz: Sicherstellen, dass Verwaltung und Overhead minimiert und automatisiert werden, um Effizienz in großem Maßstab zu unterstützen.

Der Ansatz des Unified Fast File and Object Storage hat sich das Vertrauen auf dem Markt für Unternehmens-KI und HPC erarbeitet und unterstützt Unternehmen wie Meta dabei, ihre KI-Workloads effizient zu skalieren. Der Metadaten-Core einer solchen Lösung basiert auf einer massiv verteilten Transaktionsdatenbank, und die Key-Value-Store-Technologie stellt eine hohe Metadatenverfügbarkeit und effiziente Skalierung sicher. Durch die Anwendung von Erkenntnissen von Hyperscalern und die Nutzung eines bewährten fortschrittlichen Metadaten-Cores ist es nun möglich, extrem leistungsfähigen Speicher bereitzustellen, der die Metadatenherausforderungen von KI und HPC in großem Maßstab bewältigt.

Da extreme End-to-End-KI-Workflows die Grenzen der Infrastruktur sprengen, war der Bedarf an einer Datenspeicherplattform, die dieser Größenordnung gerecht wird, noch nie so groß wie heute. Eine neue Speicherlösung erweitert nun den UFFO-Ansatz, damit große KI- und HPC-Umgebungen künftig nicht mehr durch veraltete Speicherbeschränkungen eingeschränkt werden. Diese neue Kategorie von UFFO-Speicher ist speziell für KI-Fabriken konzipiert und bietet eine massiv parallele Verarbeitungsarchitektur, die Daten und Metadaten aufschlüsselt und Engpässe und die Komplexität beseitigt, die mit veralteten parallelen Dateisystemen verbunden sind.

Dieser neue Ansatz erfüllt die Anforderungen der datenintensivsten KI-Umgebungen und unterstützt KI-Natives, Tech-Giganten, KI-gesteuerte Unternehmen, GPU-Cloud-Anbieter, HPC-Labore oder Forschungszentren. Das Design der nächsten Generation ermöglicht eine nahtlose Produktion, Inferenz und Schulung und bietet eine umfassende Datenspeicherplattform selbst für die anspruchsvollsten KI-Workloads.

Teil dieses innovativen Ansatzes war die Modifizierung der Betriebsumgebung durch Aufteilung der netzwerkbasierten I/O mit hohem Datendurchsatz in zwei diskrete Elemente:

  • Ein Storage-Array speichert und verwaltet die Metadaten mit seiner branchenführenden, verteilten Key/Value-Datenbank mit horizontaler Skalierung.
  • Ein Cluster von Datenknoten eines Drittanbieters ist der Ort, an dem die Datenblöcke gespeichert werden und auf den über den GPU-Cluster mit Remote Direct Memory Access (RDMA) unter Verwendung von branchenüblichen Netzwerkprotokollen mit sehr hoher Geschwindigkeit zugegriffen wird.

Diese Trennung ermöglicht einen Non-Blocking-Datenzugriff, der in HPC-Szenarien exponentiell zunimmt, in denen die Metadatenanfragen den Daten-I/O-Prozessen entsprechen oder diese sogar übertreffen können.

Bei der Trennung der Metadaten- und Datenbereitstellungsebenen lag der Schwerpunkt darauf, alle Elemente einfach zu skalieren und zu verwalten:

  • Metadaten-Core: Dieser Dienst bearbeitet alle Metadatenabfragen aus dem Rechencluster. Wenn eine Abfrage bearbeitet wird, wird der anfragende Rechenknoten zur Ausführung seiner Aufgabe an den spezifischen Datenknoten weitergeleitet. Das Array überwacht auch die Beziehung zwischen Datenknoten und Metadaten über eine Control-Plane-Verbindung, die sich hinter den Kulissen in einem eigenen Netzwerksegment befindet.
  • Datenknoten von Drittanbietern: Hierbei handelt es sich um handelsübliche Standardserver, die eine breite Kompatibilität und Flexibilität gewährleisten. Die Datenblöcke befinden sich auf den NVMe-Laufwerken in diesen Servern. Auf ihnen wird ein „schlankes“ Linux-basiertes Betriebssystem und ein Kernel mit Volume-Management und RDMA-Zieldiensten ausgeführt, die für die Arbeit mit den auf dem Array befindlichen Metadaten angepasst sind.
  • Paralleler Datenzugriff über die vorhandene Netzwerkumgebung: Das neue Storage-Array basiert auf einem eleganten Ansatz, der ein hochverfügbares Single-Core-Netzwerk nutzt, das BGP (Border Gateway Protocol) zum Routen und Verwalten des Datenverkehrs zwischen Metadaten-, Daten- und Workload-Clients verwendet. Dieses Design ermöglicht eine nahtlose Integration in bestehende Unternehmensnetzwerke und vereinfacht die Bereitstellung hochparalleler Speicherumgebungen. Wichtig ist, dass alle genutzten Netzwerkprotokolle dem Industriestandard entsprechen; der Kommunikationsstapel enthält keine proprietären Elemente.

Pure Storage sieht wegweisend neuen Storage-Ansatz für KI

Der neue Storage-Ansatz revolutioniert die Leistung, Skalierbarkeit und Einfachheit für umfangreiche KI- und HPC-Workloads. Er durchbricht das konventionelle Denken in einem infolge des KI-Booms sehr schnell wachsenden Segments des Storage-Markts und gilt unter Experten bereits als wegweisend.

Weitere Informationen finden Sie unter www.purestorage.com.

Disclaimer:
„Für den oben stehenden Beitrag sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Nutzer verantwortlich. Eine inhaltliche Kontrolle des Beitrags seitens der Seitenbetreiberin erfolgt weder vor noch nach der Veröffentlichung. Die Seitenbetreiberin macht sich den Inhalt insbesondere nicht zu eigen.“