AI-bedrijf OpenAI introduceert ChatGPT Health, een speciale versie van zijn chatbot voor gezondheidsvragen. Gebruikers kunnen hun complete medische geschiedenis delen voor persoonlijk advies. Klinkt handig, maar roept meteen fundamentele vragen op over veiligheid, privacy en de vraag of een AI-assistent werkelijk kan vervangen wat een menselijke dokter doet.
Dagelijks gebruiken meer dan 40 miljoen mensen ChatGPT al voor gezondheidsvragen – van dieetadvies tot het interpreteren van symptomen. OpenAI heeft dat blijkbaar gezien als kans en lanceert nu ChatGPT Health, een aparte ruimte binnen de chatbot specifiek voor medische gesprekken. Het bedrijf belooft een “meer gerichte ervaring” voor vragen over ziekte, behandelopties en gezondheid. Maar wie de kleine lettertjes leest, stuit meteen op de disclaimer: dit is geen echte dokter.
Eerst de waarschuwing, dan de belofte
OpenAI benadrukt nadrukkelijk dat ChatGPT Health “enkel bedoeld is ter ondersteuning van medische hulpverlening” en geen vervanging is voor een arts. Die disclaimer staat er niet voor niets: het bedrijf dekt zich juridisch in voor wanneer – niet als – het misgaat. Want hoeveel voorzorgsmaatregelen je ook neemt, een AI-systeem dat medisch advies geeft blijft een risicovolle onderneming.
Om “ongelukken te vermijden”, zou OpenAI hebben samengewerkt met meer dan 260 artsen bij de ontwikkeling. ChatGPT Health haalt zijn informatie uit “beheerde, gecontroleerde en goedgekeurde bronnen” en gebruikt voorzichtig taalgebruik met uitgebreidere veiligheidschecks. Dat klinkt allemaal geruststellend, maar de vraag blijft: is dat genoeg?
Medische informatie is complex en contextafhankelijk. Dezelfde symptomen kunnen bij verschillende personen compleet andere oorzaken hebben. Een AI kan patronen herkennen in data, maar mist de klinische blik, ervaring en intuïtie die artsen na jaren praktijk ontwikkelen. En wat gebeurt er als iemand met acute klachten te veel vertrouwt op een chatbot in plaats van naar de spoedeisende hulp te gaan?
Heel persoonlijk – misschien té persoonlijk
De echte controverse begint bij de persoonlijke functies. ChatGPT Health kan namelijk toegang krijgen tot je complete medische gegevens en gezondheidsapplicaties zoals Apple Health. Deel je bloedsuikerwaardes, cholesterolniveaus, hartslag, slaappatronen en medicatiegeschiedenis, en de chatbot kan “veel gerichter antwoorden geven”. Je kunt zelfs gesprekken met je dokter voorbereiden op basis van je testresultaten.
Het gemak is onmiskenbaar. Maar het vraagt ook om een enorm vertrouwenssprong. Je deelt de meest intieme, gevoelige informatie die je hebt – je complete medische geschiedenis – met een commercieel AI-bedrijf. OpenAI beweert dat gesprekken via ChatGPT Health niet worden gebruikt om AI-modellen te trainen, maar erkent in dezelfde adem dat “integraties met andere tools en connecties met verzekeringsmaatschappijen mogelijk zijn in de toekomst”.
Lees: OpenAI wil op termijn geld verdienen met deze dienst. De vraag is hoe. Via abonnementen? Door data te verkopen aan zorgverzekeraars? Door premies te koppelen aan je gezondheidsgedrag zoals gemonitord door de AI? Het businessmodel blijft opvallend vaag, wat nooit een goed teken is bij diensten die om gratis persoonlijke data vragen.
Privacy-zorgen zijn terecht
Bij het idee om je complete medische geschiedenis te delen met een AI-chatbot, gaan bij veel experts de alarmbellen af. Gezondheidsinformatie is bijzonder gevoelig – het kan invloed hebben op je verzekeringen, je werkgelegenheid, je relaties. Eenmaal gelekt of misbruikt, kun je die informatie nooit meer terughalen.
OpenAI heeft geen vlekkeloze track record op dit gebied. Het bedrijf heeft eerder te maken gehad met datalekken en vragen over hoe het met gebruikersdata omgaat. En zelfs als OpenAI zelf te goeder trouw is, blijft het risico op hacks, beveiligingslekken of toekomstige beleidswijzigingen. Wat gebeurt er als het bedrijf wordt overgenomen? Of als aandeelhouders druk uitoefenen voor meer winstgevendheid?
Europa blijft (voorlopig) buiten beeld
Voor gebruikers in de Europese Unie, Zwitserland en het Verenigd Koninkrijk is dit vooralsnog een hypothetisch debat: ChatGPT Health is daar niet beschikbaar. OpenAI werkt met een wachtlijst, maar sluit deze regio’s bewust uit. De reden is bekend: Europese privacywetgeving zoals de AVG stelt veel strengere eisen aan de verwerking van medische data.
Het is een patroon dat we vaker zien: AI-bedrijven lanceren eerst in de Verenigde Staten, waar wetgeving soepeler is, en besluiten dan of Europa de moeite waard is. Soms volgt later een beperktere versie, soms blijft een dienst gewoon weg. Voor ChatGPT Health valt nog af te wachten of – en in welke vorm – het ooit naar Europa komt.
Ironisch genoeg beschermt die Europese wetgeving consumenten waarschijnlijk tegen diensten waarvan de risico’s nog onvoldoende zijn uitgekristalliseerd. Terwijl Amerikaanse gebruikers zich nu kunnen aanmelden als beta-testers (bewust of onbewust), kijken Europeanen van de zijlijn toe. Frustrerend voor wie graag nieuwe technologie probeert, maar mogelijk verstandig voor wie zijn medische privacy serieus neemt.
De belofte versus de realiteit
ChatGPT Health illustreert de fundamentele spanning in moderne AI-diensten: ze beloven gemak en personalisatie, maar vragen daarvoor je meest gevoelige data. Ze claimen je te helpen, maar dekken zich tegelijk in tegen juridische aansprakelijkheid. Ze presenteren zich als hulpmiddel, maar de businessmodellen suggereren commerciële ambities die verder gaan dan alleen ‘helpen’.
Voor wie ChatGPT Health ziet als handig naslagwerk voor algemene gezondheidsinformatie – vergelijkbaar met vroeger een medische encyclopedie raadplegen – kan het nuttig zijn. Voor wie overweegt zijn complete medische geschiedenis te delen voor gepersonaliseerd advies: denk twee keer na. Een chatbot kan informatie verzamelen en patronen herkennen, maar vervangt geen medische expertise. En de privacy-risico’s van het delen van zoveel gevoelige data met een commercieel AI-bedrijf zijn reëel en potentieel blijvend.
OpenAI heeft meer dan 260 artsen geraadpleegd bij de ontwikkeling. Misschien had het bedrijf ook wat privacy-experts en ethici moeten vragen wat zij ervan vinden. Want de meest geavanceerde AI ter wereld helpt weinig als gebruikers uiteindelijk hun medische privacy opgeven voor gemak – of erger, als ze cruciale medische beslissingen baseren op een systeem dat zelf benadrukt geen echte dokter te zijn.
De vraag is niet of ChatGPT Health technisch indrukwekkend is – dat is het waarschijnlijk wel. De vraag is of we als maatschappij bereid zijn de prijs te betalen die ervoor wordt gevraagd. En die prijs wordt uitgedrukt in een munt die veel waardevoller is dan geld: je medische privacy en autonomie.




