OpenAI bringt GPT‑5.3‑Codex‑Spark in Pro-Vorschau

Stand: 13. February 2026, 17:45 Uhr
Berlin

Auf einen Blick

OpenAI hat GPT‑5.3‑Codex‑Spark als Research Preview vorgestellt. Das Modell zielt auf sehr geringe Latenz bei Programmieraufgaben und soll laut OpenAI auf Cerebras-Hardware mehr als 1.000 Token pro Sekunde erzeugen. Der Zugang startet über ChatGPT Pro; Details zu Preisen und regionaler Verfügbarkeit bleiben teilweise offen.

Das Wichtigste

  • OpenAI startet GPT‑5.3‑Codex‑Spark als latenzoptimierte Codex-Variante für Echtzeit-Coding.
  • OpenAI nennt mehr als 1.000 Token/Sekunde und ein Kontextfenster von 128.000 Token (Text) als Eckdaten.
  • Der Rollout beginnt als Pro-Vorschau; API-Zugänge sind zunächst nur für ausgewählte Partner vorgesehen.

Start als Research Preview

OpenAI hat mit GPT‑5.3‑Codex‑Spark eine neue Variante seines Codex-Modells für Programmieraufgaben veröffentlicht. Das Angebot richtet sich auf schnelle, interaktive Arbeitsabläufe und soll die Antwortzeiten in Editier- und Debugging-Szenarien senken. Für Unternehmen und Entwickler ist vor allem relevant, wie Zugang, Kosten und technische Rahmenbedingungen in Produktivumgebungen aussehen.

Technische Eckdaten, Infrastruktur und Zugang

Nach Angaben von OpenAI ist Codex‑Spark eine kleinere, auf geringe Latenz optimierte Version von GPT‑5.3‑Codex. Das Modell werde auf Cerebras-Wafer-Scale-Engine-Hardware betrieben und erreiche dadurch „mehr als 1.000 Token pro Sekunde“. OpenAI nennt zudem ein Kontextfenster von 128.000 Token für Text. Das Unternehmen verweist auf Optimierungen in der Auslieferung, darunter eine persistente WebSocket-Verbindung für Streaming sowie reduzierte Protokoll- und Token-Overheads.

Der Zugang startet als Research Preview über ChatGPT Pro sowie über Codex-nahe Tools; für die API nennt OpenAI zunächst einen begrenzten Kreis ausgewählter Partner. Wichtig: Konkrete Angaben zu einem separaten, öffentlich ausgewiesenen API-Preis für Codex‑Spark sowie zu regionalen Zugangsbedingungen sind derzeit nicht bekannt.

Bedeutung für Deutschland und Europa

Für Nutzer in Deutschland und der EU hängt die praktische Relevanz kurzfristig vor allem von der Verfügbarkeit im jeweiligen ChatGPT-Tarif und von möglichen Zugangsbeschränkungen im Preview-Betrieb ab. Für Organisationen, die Codex‑Spark in Entwicklungsumgebungen oder Softwareprodukten einsetzen, können Anforderungen an Datenschutz und IT-Compliance maßgeblich sein, insbesondere bei der Verarbeitung personenbezogener oder vertraulicher Daten. Aussagen zu EU-spezifischen Compliance- oder Datenstandort-Optionen machte OpenAI in der Ankündigung nicht.

Nächste Schritte bei Verfügbarkeit und API

OpenAI ordnet den Start als Vorschau ein und stellt eine schrittweise Ausweitung des Zugangs in Aussicht. Für eine breitere API-Verfügbarkeit oder eine allgemeine Freigabe nannte das Unternehmen keinen Zeitplan. Beobachter erwarten, dass sich die Einordnung von Kosten und Compliance-Fragen erst mit einem regulären, dokumentierten API-Angebot und klaren Vertragsoptionen präzisieren lässt.

Einordnung

Mit GPT‑5.3‑Codex‑Spark setzt OpenAI bei Coding-KI auf eine Infrastruktur, die auf sehr niedrige Latenz und hohe Tokenrate zielt. Der Start als Pro-Vorschau begrenzt den unmittelbaren Einsatz in breiten Produktivumgebungen. Offen bleiben vorerst Details zu Preisgestaltung und vertraglichen Rahmenbedingungen für einen skalierbaren Einsatz.

Diskussionspunkt: Welche Mindestangaben zu Kosten, Datenverarbeitung und Einsatzgrenzen sollten Anbieter bei Coding-KI in Preview-Phasen standardisiert veröffentlichen?

In diesem Artikel

Newsletter

Die wichtigsten Tech- & Wirtschaftsthemen – 1× pro Woche.

Avatar von Artisan Baumeister

→ Weitere Artikel des Autors

Newsletter

Einmal pro Woche die wichtigsten Tech- und Wirtschafts-Takeaways.

Kurz, kuratiert, ohne Bullshit. Perfekt für den Wochenstart.

[newsletter_form]