Auf einen Blick
ChatGPT Health ist das neue Gesundheits‑Portal von OpenAI und bündelt persönliche Gesundheitsdaten, Arzt‑Feedback und App‑Verknüpfungen in einem geschützten Bereich. OpenAI sagt, Health‑Inhalte würden standardmäßig nicht zum Training verwendet. Wichtig sind Datenschutz, regionale Verfügbarkeit und unabhängige klinische Prüfung.
Das Wichtigste
- ChatGPT Health ist ein separater Arbeitsbereich für Gesundheitsfragen mit Anbindung an Apps und medizinische Aufzeichnungen.
- OpenAI nennt >230 Mio. wöchentliche Gesundheitsanfragen und sagt, Health‑Daten würden standardmäßig nicht zum Training genutzt.
- Medizinische Aufzeichnungen sind initial regional beschränkt (u. a. USA via Partner b.well); Datenschutz‑ und Prüffragen bleiben offen.
Einleitung
OpenAI stellte Anfang Januar 2026 ChatGPT Health als eigenen Bereich für Gesundheitsfragen vor. Das Angebot soll persönliche Daten aus Apps und elektronischen Akten zusammenführen, um Antworten besser auf den Kontext der Nutzer abzustimmen. Für Anwender und Institutionen sind jetzt vor allem Datenschutz, regionale Verfügbarkeit und die Rolle als Informationshilfe relevant.
Was neu ist
ChatGPT Health ist kein neues Modell, sondern eine eigene Erfahrung innerhalb von ChatGPT, die persönliche Gesundheitsdaten, Memory‑Einträge und Dateiuploads in einem isolierten Bereich speichert. OpenAI nennt als Startangaben, dass Nutzer Apps wie Apple Health, MyFitnessPal und Partner für elektronische Gesundheitsakten (z. B. b.well) verbinden können. Firmenangaben sprechen von mehr als 230 Mio. wöchentlichen Gesundheitsfragen; medizinische Akten‑Integrationen sind anfangs regional eingeschränkt, etwa in den USA. OpenAI betont, dass Health als Informations‑ und Navigationshilfe gedacht ist und nicht den Ersatz für ärztliche Diagnose oder Behandlung darstellt.
Was das bedeutet
Für Nutzer kann ChatGPT Health nützlich sein, weil Antworten individueller werden, wenn Geräte‑ und Akten‑Daten einfließen. Gleichzeitig entstehen Risiken: Die Health Privacy Notice von OpenAI sagt, Health‑Inhalte würden standardmäßig nicht zum Training von Foundation‑Modellen genutzt. Die Richtlinie erlaubt jedoch begrenzte Zugriffe durch autorisiertes Personal oder Dienstleister zur Modell‑Sicherheit. Das schafft Transparenzlücken, die besonders bei sensiblen Gesundheitsdaten relevant sind. Institutionelle Nutzer müssen daher prüfen, ob vertragliche und rechtliche Anforderungen (z. B. EU‑Datenschutz, HIPAA) erfüllt werden.
Wie es weitergeht
OpenAI hat Tests mit mehr als 260 praktizierenden Ärzt:innen genannt und ein internes Bewertungs‑Framework (HealthBench) eingesetzt. Konkrete, unabhängige Peer‑Reviewed‑Studien oder regulatorische Freigaben für den breiten klinischen Einsatz liegen derzeit nicht vor. Kurzfristig dürften regionale Rollouts, zusätzliche Integrationspartner und Sicherheits‑Audits folgen. Behörden und Gesundheitsanbieter werden voraussichtlich eine engere Prüfung verlangen, bevor ChatGPT Health in klinischen Prozessen eingesetzt wird.
Fazit
ChatGPT Health bündelt Datenquellen, um Gesundheitsfragen kontextbezogener zu beantworten. Das Portal bringt praktische Vorteile, aber auch berechtigte Datenschutz‑ und Prüfpflichten mit sich. Nutzer und Institutionen sollten Verknüpfungen, Opt‑out‑Einstellungen und vertragliche Garantien aktiv prüfen.
Diskutieren Sie gern in den Kommentaren oder teilen Sie diesen Beitrag, wenn Sie Fragen zu Datenschutz oder Einsatzszenarien haben.



Schreibe einen Kommentar