OpenAI und Cerebras haben eine mehrjährige Vereinbarung getroffen, um 750 Megawatt an Cerebras Wafer-Scale-Systemen für OpenAI-Kunden bereitzustellen und damit den weltweit größten Einsatz von Hochgeschwindigkeits-KI-Inferenzen zu ermöglichen. Diese Partnerschaft, die bereits seit zehn Jahren besteht, beruht auf einer gemeinsamen Vision für die Zukunft der KI. Die Zusammenarbeit zielt darauf ab, die nächste Phase der KI-Einführung anzugehen, indem sie sicherstellt, dass die Vorteile der KI ein breiteres Publikum erreichen, angetrieben durch das grundlegende Prinzip der Geschwindigkeit. Cerebras bietet eine Hochgeschwindigkeitslösung für die KI-Inferenz, die Antworten bis zu 15 Mal schneller liefert als GPU-basierte Systeme, was zu einer stärkeren Einbindung der Verbraucher und neuen Anwendungen führt. OpenAI sieht Cerebras als wichtige Ergänzung seiner Compute-Strategie, die eine dedizierte Inferenzlösung mit geringer Latenz für schnellere und natürlichere Echtzeit-KI-Interaktionen bietet. Für Cerebras bedeutet diese Partnerschaft, dass ihre Wafer-Scale-Technologie Hunderte von Millionen und schließlich Milliarden von Nutzern erreichen wird. Der Einsatz soll schrittweise ab 2026 erfolgen. Diese Initiative unterstreicht die entscheidende Konvergenz von Modellmaßstab und Hardware-Architektur bei der Förderung der KI.
