Berliner Boersenzeitung - Clockwork.io führt eine neue Klasse der Fehlertoleranz ein, um die durch Ausfälle verursachte Verschwendung von GPU-Leistung beim KI-Training zu beenden

EUR -
AED 4.32145
AFN 75.308617
ALL 95.344815
AMD 432.885163
ANG 2.106168
AOA 1080.216545
ARS 1644.790435
AUD 1.62497
AWG 2.121013
AZN 1.96537
BAM 1.95566
BBD 2.370251
BDT 144.659675
BGN 1.962866
BHD 0.444172
BIF 3503.013705
BMD 1.176706
BND 1.494325
BOB 8.13142
BRL 5.767629
BSD 1.176836
BTN 112.105428
BWP 15.823005
BYN 3.290993
BYR 23063.437841
BZD 2.366861
CAD 1.608133
CDF 2665.23869
CHF 0.916325
CLF 0.026653
CLP 1048.97409
CNY 8.002484
CNH 7.995035
COP 4405.716748
CRC 539.366086
CUC 1.176706
CUP 31.182709
CVE 110.211708
CZK 24.33328
DJF 209.568604
DKK 7.472689
DOP 69.675619
DZD 155.645536
EGP 62.132784
ERN 17.65059
ETB 183.753846
FJD 2.570456
FKP 0.863046
GBP 0.864932
GEL 3.147731
GGP 0.863046
GHS 13.286165
GIP 0.863046
GMD 86.489882
GNF 10326.394586
GTQ 8.981581
GYD 246.144523
HKD 9.212743
HNL 31.292032
HRK 7.533033
HTG 154.022279
HUF 355.96887
IDR 20489.393439
ILS 3.422508
IMP 0.863046
INR 112.08566
IQD 1541.709613
IRR 1543249.935145
ISK 143.805346
JEP 0.863046
JMD 185.658326
JOD 0.834331
JPY 184.89523
KES 151.983825
KGS 102.902841
KHR 4721.66299
KMF 491.863379
KPW 1059.03536
KRW 1733.232385
KWD 0.362296
KYD 0.980738
KZT 545.225718
LAK 25816.376745
LBP 105385.873658
LKR 379.076165
LRD 215.367373
LSL 19.341984
LTL 3.474507
LVL 0.711777
LYD 7.443595
MAD 10.729934
MDL 20.170732
MGA 4892.692362
MKD 61.6406
MMK 2470.52538
MNT 4208.732973
MOP 9.490444
MRU 46.991045
MUR 54.987238
MVR 18.123661
MWK 2040.671689
MXN 20.259042
MYR 4.615631
MZN 75.203378
NAD 19.341984
NGN 1605.721178
NIO 43.308749
NOK 10.829465
NPR 179.367722
NZD 1.978702
OMR 0.452325
PAB 1.176816
PEN 4.043011
PGK 5.111722
PHP 71.930848
PKR 327.840572
PLN 4.239825
PYG 7233.452974
QAR 4.299921
RON 5.210927
RSD 117.376466
RUB 86.961918
RWF 1721.091783
SAR 4.414745
SBD 9.436514
SCR 16.472104
SDG 706.593251
SEK 10.874763
SGD 1.493969
SHP 0.87853
SLE 29.005976
SLL 24674.932214
SOS 672.557712
SRD 44.007618
STD 24355.438695
STN 24.498668
SVC 10.297396
SYP 130.08242
SZL 19.335949
THB 38.147639
TJS 11.015254
TMT 4.118471
TND 3.414478
TOP 2.833226
TRY 53.396924
TTD 7.977498
TWD 36.935979
TZS 3071.203
UAH 51.719148
UGX 4424.721787
USD 1.176706
UYU 46.917313
UZS 14289.162258
VES 587.453968
VND 30976.785774
VUV 139.531196
WST 3.185457
XAF 655.915758
XAG 0.014498
XAU 0.000252
XCD 3.180107
XCG 2.120976
XDR 0.815749
XOF 655.921332
XPF 119.331742
YER 280.791457
ZAR 19.35199
ZMK 10591.767529
ZMW 22.250695
ZWL 378.898856
  • MDAX

    -93.8200

    31087.24

    -0.3%

  • SDAX

    -102.5400

    18525.99

    -0.55%

  • Euro STOXX 50

    -30.7300

    5880.8

    -0.52%

  • DAX

    -90.0400

    24248.59

    -0.37%

  • Goldpreis

    -27.3000

    4703.4

    -0.58%

  • TecDAX

    -14.8300

    3764.89

    -0.39%

  • EUR/USD

    -0.0013

    1.1777

    -0.11%

Clockwork.io führt eine neue Klasse der Fehlertoleranz ein, um die durch Ausfälle verursachte Verschwendung von GPU-Leistung beim KI-Training zu beenden
Clockwork.io führt eine neue Klasse der Fehlertoleranz ein, um die durch Ausfälle verursachte Verschwendung von GPU-Leistung beim KI-Training zu beenden

Clockwork.io führt eine neue Klasse der Fehlertoleranz ein, um die durch Ausfälle verursachte Verschwendung von GPU-Leistung beim KI-Training zu beenden

Die neue TorchPass-Lösung bewältigt eine millionenschwere Herausforderung im Bereich der KI-Infrastruktur und nutzt Live-GPU-Migration, um groß angelegte KI-Trainings trotz Hardwareausfällen fortzusetzen, anstatt kostspielige Neustarts zu erzwingen

Textgröße:

PALO ALTO, Kalifornien / ACCESS Newswire / 10. März 2026 / Clockwork.io, der Marktführer im Bereich Software-Driven AI Fabrics - einer programmierbaren, herstellerneutralen Software-Layer, die groß angelegte GPU-Cluster für Echtzeit-Beobachtbarkeit, Fehlertoleranz und deterministische Leistung optimiert - gab heute die allgemeine Verfügbarkeit von TorchPass Workload Fault Tolerance bekannt. Diese neue Klasse softwaregesteuerter Fehlertoleranz beseitigt einen der kostspieligsten Ausfallmodi beim groß angelegten KI-Training: katastrophale Job-Neustarts aufgrund von Infrastrukturfehlern.

TorchPass wird als Kernfunktion der Clockwork.io FleetIQ-Plattform bereitgestellt und wendet die Prinzipien Software-Driven AI Fabrics auf verteiltes Training an. Dabei nutzt es Live-GPU-Migration, um Workloads auch bei GPU-Ausfällen, Netzwerkstörungen, Treiberfehlern und sogar vollständigen Node-Abstürzen weiterlaufen zu lassen - ohne Neustarts an Checkpoints oder Verlust des Fortschritts.

„Unternehmen investieren Milliarden in Chips der nächsten Generation, doch die Kosten für die Ausführung verteilter KI-Jobs sind nach wie vor extrem hoch, da das Ökosystem Ausfälle als unvermeidbar akzeptiert hat", so Suresh Vasudevan, CEO von Clockwork.io. „Wir haben TorchPass entwickelt, um diese Prämisse grundlegend zu widerlegen. Anstatt Ausfälle als unvermeidbar zu betrachten und nachträglich neu zu starten, macht TorchPass Infrastrukturfehler für die Workload unsichtbar - das Training wird trotz Ausfällen transparent in der Software fortgesetzt. Bei einer typischen Bereitstellung mit 2.048 GPUs bedeutet dies eine Einsparung von über 6 Millionen $ pro Jahr an Rechenleistung. Genau dafür wurde unser softwaregesteuerter KI-Fabric-Ansatz entwickelt: eine fehlertolerante KI-Infrastruktur."

Dylan Patel, Gründer und CEO von SemiAnalysis, stimmte zu, dass groß angelegte Trainingsaufgaben durch Unterbrechungen eingeschränkt werden.

„Da Blackwell-Cluster mit einer NVL72-Domäne eingeführt werden und wir mit der NVL576-Domäne von Rubin Ultra in die Zukunft blicken, ist die Vorstellung, dass ein einziger GPU-Fehler oder eine Netzwerkverbindung einen gesamten Lauf zum Erliegen bringen kann, völlig inakzeptabel", so Patel. „TorchPass löst eine große Herausforderung hinsichtlich der Zuverlässigkeit von Clustern: Es bietet transparentes Failover und Live-Workload-Migration, wodurch die MFU hoch bleibt, was wiederum zu einer besseren GPU-Wirtschaftlichkeit führt."

Warum KI-Training in großem Maßstab scheitert

Verteiltes KI-Training ist nach wie vor eine der fehleranfälligsten Workloads in modernen Infrastrukturen. Mit zunehmender Clustergröße steigt die Anfälligkeit stark an. Untersuchungen von Meta FAIR zeigen, dass die mittlere Zeit bis zum Ausfall in einem Cluster mit 1.024 GPUs auf 7,9 Stunden und bei 16.384 GPUs auf nur 1,8 Stunden sinkt. Das bedeutet, dass für die meisten großen, auf KI fokussierten Unternehmen oder KI-Clouds ausfallbedingte Neustarts völlig unvermeidlich sind - was ein großes Hindernis für die Skalierung der Auswirkungen von KI darstellt.

Jeder Ausfall zwingt Trainingsjobs dazu, zum letzten Checkpoint zurückzukehren, wodurch Minuten oder Stunden bereits geleisteter Arbeit verloren gehen und zusätzliche Zeit für manuelle Eingriffe, die Neuzuweisung von Ressourcen und den Neustart des Trainings verschwendet wird. Diese Neustarts begrenzen stillschweigend die GPU-Auslastung, wodurch die Zuverlässigkeit zu einem der größten versteckten Kostenfaktoren in der KI-Infrastruktur wird.

TorchPass behebt dieses Problem, indem es kostspielige Ausfälle von KI-Workloads proaktiv angeht und sie löst, bevor der Job gestoppt wird oder neu gestartet werden muss. TorchPass ist für Unternehmen, die große KI-Workloads und KI-Clouds betreiben, von entscheidender Bedeutung und verbessert die Zuverlässigkeit von Workloads und die Clusterauslastung erheblich. Für KI-Clouds, die nun betroffene GPUs beheben können, während der Trainingslauf wie geplant fortgesetzt wird, bedeutet dies bessere Kunden-SLAs und eine insgesamt bessere Wirtschaftlichkeit der KI-Cloud, wodurch sie ihre Margen besser schützen und neue Modelle schneller bereitstellen können.

„Die Steuerung der Rechenleistung/-kapazität in großen GPU-Clustern ist entscheidend, um sicherzustellen, dass wir unseren Kunden zuverlässige Kapazitäten bieten können. Mit TorchPass haben wir die Unterstützung eines Unternehmens, das sich auf Ausfallsicherheit als Kernfunktion konzentriert: Es ersetzt jede einzelne ausgefallene GPU und sorgt dafür, dass der Rest des Jobs weiterläuft, anstatt dass ein kleines Problem Auswirkungen auf unseren gesamten Betrieb hat", so David Power, CTO von Nscale. „Bei unserer Bewertung hat Live GPU Migration sowohl die Laufkontinuität als auch den Durchsatz unter realen Fehlerbedingungen aufrechterhalten, was genau das ist, was man braucht, um eine vorhersehbare Trainingszeit und ein besseres Kundenerlebnis in großem Maßstab zu erzielen."

So funktioniert Live GPU Migration: Zuverlässigkeit ohne Neustart

TorchPass führt bei Ausfällen eine transparente Migration der betroffenen Trainingsprozesse zu freien Ressourcen durch. TorchPass schließt die Wiederherstellung in der Regel in etwa drei Minuten ab, während der Trainingsprozess ohne Unterbrechung fortgesetzt wird.

Es unterstützt die Ausfallsicherheit in drei Ausfallszenarien:

  • Ungeplante Migration, die plötzliche Ereignisse wie Kernel-Abstürze, Stromausfälle oder GPU-Fehler durch die Rekonstruktion des Zustands aus fehlerfreien Replikaten behandelt

  • Präventive Migration, ausgelöst durch Frühwarnsignale wie steigende Temperaturen oder ECC-Speicherfehler, ermöglicht eine kontrollierte Migration vor einem schwerwiegenden Ausfall

  • Geplante Migration, die Wartungsarbeiten, Patches und die Neuverteilung der Arbeitslast ohne Unterbrechung des Trainings ermöglicht

Dieser Ansatz reduziert den Verlust an Trainingsfortschritt um 95 % und verkürzt die Ausfallzeit von etwa drei Stunden pro Tag auf weniger als zehn Minuten in einem Cluster mit 1.024 GPUs.

Jordan Nanos, Mitglied des technischen Stabs und Hauptautor des unabhängigen Benchmarks von ClusterMAX-SemiAnalysis für groß angelegtes KI-Training, hat Clockwork.io TorchPass einem Stresstest unterzogen und festgestellt, dass es bei groß angelegten verteilten Trainings eine hervorragende Leistung und Effizienz bietet, wodurch Benutzer den Checkpointing-Overhead beim Training reduzieren können. Er teilte die folgenden Ergebnisse mit:

„In unseren Tests lieferte Clockwork.io TorchPass die schnellste und effizienteste fehlertolerante Leistung für einen gpt-oss-120B-Trainingslauf. Wir haben TorchTitan auf einem Kubernetes-Cluster mit 64x H200-GPUs verwendet. Während unserer Tests haben wir die Job-Abschlusszeit (JCT) und die Modell-FLOPs-Auslastung (MFU) im Vergleich zu einem Standardansatz (Checkpoint-Neustart) und dem führenden Open-Source-Fehlertoleranz-Trainingsframework (TorchFT) gemessen. Wir haben mehrere Hardwareausfälle auf dem Cluster simuliert, um die fehlertoleranten Trainingsframeworks einem Stresstest zu unterziehen.

Im Vergleich zu Checkpoint-Restart war TorchPass bei der Wiederherstellung nach Ausfällen deutlich schneller. Dies reduzierte die Gesamt-JCT und sorgte für eine hohe MFU. Im Vergleich zu TorchFT hatte TorchPass eine deutlich höhere MFU. Dies reduzierte die Gesamt-JCT und sorgte gleichzeitig für eine gleichbleibende Zeit zur Wiederherstellung nach Ausfällen.

Die Verwendung von TorchPass hat auch einen Downstream-Effekt, da es Benutzern die Möglichkeit bietet, Checkpoints in ihrem Trainingscode zu reduzieren oder sogar ganz zu entfernen. Dies bedeutet größere effektive Batch-Größen, ein geringeres Risiko für Speicherfehler (OOMs) und weniger Zeitaufwand für Überlegungen zum Speicherplatz. Für eine Forschungsorganisation kann dies letztendlich eine schnellere Erreichung ihrer Trainingsziele bedeuten", schloss Nanos.

Messbare geschäftliche Auswirkungen durch softwaregesteuerte Fehlertoleranz

Für Kunden, die große KI-Cluster betreiben, sind die Auswirkungen unmittelbar und messbar. In einer typischen H200-Bereitstellung mit 2.048 GPUs sorgt TorchPass Workload Fault Tolerance durch die Vermeidung von Rechenleistungsverschwendung für jährliche Einsparungen von über 6 Millionen US-Dollar.

Diese Einsparungen resultieren aus der Eliminierung von Hunderttausenden von GPU-Stunden, die sonst durch fehlerbedingte Neustarts, kaskadierende Wiederholungsversuche und Leerlaufzeiten verloren gehen würden. Indem TorchPass Trainingsjobs trotz Infrastrukturfehlern weiterlaufen lässt, anstatt sie neu zu starten, wandelt es verlorene GPU-Zeit in produktives Training um und verbessert so erheblich die Rendite von GPU-Investitionen, die heute oft nur 30 bis 50 % der theoretischen Leistung erreichen.

Die nächste Generation der KI-Infrastruktur ermöglichen

Indem TorchPass Zuverlässigkeit zu einer softwaredefinierten Funktion statt zu einer Hardwarebeschränkung macht, bietet es die erforderliche Betriebssicherheit für den Einsatz eng gekoppelter Systeme der nächsten Generation wie NVIDIA GB200 und GB300 NVL72 sowie zukünftiger Rack-Scale-Systeme, bei denen dichte Architekturen selbst die Kosten kleinerer Ausfälle vervielfachen.

TorchPass baut auf der früheren Version von Network Fault Tolerance von Clockwork.io auf, die dieselben Prinzipien der softwaregesteuerten KI-Struktur auf die Netzwerkausfallsicherheit anwendet, indem sie den Datenverkehr bei Verbindungsausfällen transparent umleitet.

Zusammen bilden diese Funktionen die Software-Driven AI Fabric von Clockwork.io, eine herstellerneutrale Software-Layer, die Netzwerk, Rechenleistung und Speicher umfasst. Da moderne KI-Workloads auf eng gekoppelten Clustern laufen, auf denen Hunderte oder Tausende von Prozessoren koordiniert im Gleichschritt arbeiten müssen, verhält sich die Infrastruktur wie ein einziges System, in dem Zuverlässigkeit und Leistung direkt die Gesamteffizienz bestimmen. Durch die Verwaltung dieser Komplexität in der Software ermöglicht Clockwork.io den Betreibern, heterogene KI-Infrastrukturen als einheitliche Plattform zu betreiben und dabei eine hohe Auslastung, vorhersehbare Leistung und Ausfallsicherheit zu gewährleisten, während die Flexibilität zur Weiterentwicklung der Hardware und zur Verbesserung der Wirtschaftlichkeit groß angelegter KI-Implementierungen erhalten bleibt.

Um mehr über die Einführung von TorchPass zu erfahren, besuchen Sie das Clockwork.io-Team persönlich auf der NVIDIA GTC vom 16. bis 19. März am Stand Nr. 205 oder besuchen Sie https://clockwork.io.

Über Clockwork.io

Clockwork.io ist ein Pionier im Bereich Software-Driven AI Fabrics™ und bietet eine programmierbare Software-Layer, die große KI-Cluster beobachtbar, deterministisch und von Grund auf widerstandsfähig macht, um einen kontinuierlichen Workload-Fortschritt und eine maximale Cluster-Auslastung zu erzielen. Mit der FleetIQ-Plattform können Unternehmen die anspruchsvollsten KI-Workloads der Welt schneller, zuverlässiger und kostengünstiger trainieren, bereitstellen und bedienen. Unternehmen wie Uber, Wells Fargo, DCAI, Nebius, Nscale und White Fiber vertrauen auf Clockwork.io, um ihre KI-Infrastruktur zu betreiben. Weitere Informationen finden Sie unter www.clockwork.io.

Medienkontakt

Dana Trismen
[email protected]
650-269-7478

QUELLE: Clockwork

(S.G.Stein--BBZ)