Do.. Juli 31st, 2025

OpenAI hat gegenüber Reuters klargestellt, dass es derzeit keine Pläne gibt, Googles TPUs (Tensor Processor Units) flächendeckend für seine KI-Modelle einzusetzen  . Hintergrund ist, dass man zwar bereits in frühen Tests erste Erfahrungen mit TPUs gesammelt habe, allerdings müssten ein breiter Einsatz ganz neue Architekturen und Softwareunterstützung bringen – was viel Zeit in Anspruch nehmen würde.

Noch immer verlässt sich OpenAI in großem Maße auf GPU-Infrastrukturen von Nvidia und AI-Chips von AMD. Diese Kombination steckt bereits tief in der eigenen Rechenplattform, vor allem bei CoreWeave – dem Hauptlieferanten von GPUs für OpenAI.

Parallel dazu arbeitet OpenAI an der Entwicklung eines eigenen KI-Chips. Noch in diesem Jahr soll der sogenannte „tape‑out“ erfolgen – also der Moment, ab dem das Design für die Produktion bereit ist.

Bemerkenswerterweise ging diese offizielle Rückmeldung einen Schritt vor früheren Berichten voraus: Laut Reuters hatte OpenAI bereits TPUs von Google gemietet, darunter bei GPT-Modellen wie ChatGPT, um die Rechenkapazität aufzustocken. Dieses Vorgehen wurde als strategischer Schachzug analysiert: Diversifizierung abseits von Nvidia und Microsoft Azure sowie potenzielle Kostenvorteile .

Doch Google gewährt OpenAI derzeit nur Zugang zu weniger leistungsfähigen TPU-Versionen – die Topvarianten bleiben Googles eigener Nutzung vorbehalten. Zudem hat Google selbst keine Stellungnahme abgegeben.

Insgesamt präsentiert sich OpenAI so als ein getestetes, aber vorsichtiges Unternehmen: Man sammelt zwar Erfahrungen mit alternativen AI-Chips, bleibt aber bei bewährten Lösungen und arbeitet eigenständig an einer langfristigen Hardwarestrategie.

Quelle: Reuters

Klicke, um diesen Beitrag zu bewerten!
[Gesamt: 0 Durchschnitt: 0]

Bylars

Ich bin 44 Jahre alt und blogge seit mehreren Jahren. Beruflich bin ich Fachangestellter für Bäderbetriebe. Lebe und liebe diesen Beruf in und rundum Fulda. Habe eine Partnerin und liebe genauso meinen Dackel.