OpenAI hat gegenüber Reuters klargestellt, dass es derzeit keine Pläne gibt, Googles TPUs (Tensor Processor Units) flächendeckend für seine KI-Modelle einzusetzen . Hintergrund ist, dass man zwar bereits in frühen Tests erste Erfahrungen mit TPUs gesammelt habe, allerdings müssten ein breiter Einsatz ganz neue Architekturen und Softwareunterstützung bringen – was viel Zeit in Anspruch nehmen würde.
Noch immer verlässt sich OpenAI in großem Maße auf GPU-Infrastrukturen von Nvidia und AI-Chips von AMD. Diese Kombination steckt bereits tief in der eigenen Rechenplattform, vor allem bei CoreWeave – dem Hauptlieferanten von GPUs für OpenAI.
Parallel dazu arbeitet OpenAI an der Entwicklung eines eigenen KI-Chips. Noch in diesem Jahr soll der sogenannte „tape‑out“ erfolgen – also der Moment, ab dem das Design für die Produktion bereit ist.
Bemerkenswerterweise ging diese offizielle Rückmeldung einen Schritt vor früheren Berichten voraus: Laut Reuters hatte OpenAI bereits TPUs von Google gemietet, darunter bei GPT-Modellen wie ChatGPT, um die Rechenkapazität aufzustocken. Dieses Vorgehen wurde als strategischer Schachzug analysiert: Diversifizierung abseits von Nvidia und Microsoft Azure sowie potenzielle Kostenvorteile .
Doch Google gewährt OpenAI derzeit nur Zugang zu weniger leistungsfähigen TPU-Versionen – die Topvarianten bleiben Googles eigener Nutzung vorbehalten. Zudem hat Google selbst keine Stellungnahme abgegeben.
Insgesamt präsentiert sich OpenAI so als ein getestetes, aber vorsichtiges Unternehmen: Man sammelt zwar Erfahrungen mit alternativen AI-Chips, bleibt aber bei bewährten Lösungen und arbeitet eigenständig an einer langfristigen Hardwarestrategie.
Quelle: Reuters