DELEN | AFDRUKKEN | E-MAIL
Mijn ervaring in de geneeskunde stelt me in staat onderscheid te maken tussen echte innovatie en subtiele herclassificatie die de praktijk fundamenteel verandert, terwijl deze ogenschijnlijk ongewijzigd blijft. Kunstmatige intelligentie heeft de laatste tijd veel aandacht gekregen, waaronder de wijdverspreide bewering dat AI in de Verenigde Staten "wettelijk bevoegd is om geneeskunde te beoefenen". Letterlijk genomen is deze bewering onjuist. Geen enkele medische raad heeft een machine een vergunning verleend. Geen enkel algoritme heeft een eed afgelegd, een fiduciaire plicht aanvaard of persoonlijke aansprakelijkheid voor patiëntenschade op zich genomen. Geen enkele robotarts opent een kliniek, dient facturen in bij verzekeraars of verschijnt voor een jury in een zaak over medische wanpraktijken.
Door bij deze constatering te blijven steken, wordt het bredere probleem echter over het hoofd gezien. Juridische concepten van aansprakelijkheid worden momenteel herzien, vaak zonder dat het publiek zich daarvan bewust is.
Er vindt een ingrijpende transformatie plaats die meer rechtvaardigt dan een reflexmatige afwijzing of kritiekloos technologisch enthousiasme. De huidige ontwikkeling betreft niet de erkenning van kunstmatige intelligentie als arts, maar eerder de geleidelijke afbrokkeling van de kern van de geneeskunde: de intrinsieke band tussen klinisch oordeel en menselijke verantwoordelijkheid. Klinisch oordeel houdt in dat er weloverwogen beslissingen worden genomen die zijn afgestemd op de unieke behoeften en omstandigheden van elke patiënt, en die empathie, intuïtie en een diepgaand begrip van medische ethiek vereisen.
Menselijke verantwoordelijkheid verwijst naar de verantwoordelijkheid die zorgverleners dragen voor deze beslissingen en de gevolgen daarvan. Deze erosie is niet het resultaat van ingrijpende wetgeving of een publiek debat, maar vindt stilletjes plaats via proefprojecten, herinterpretaties van regelgeving en taalgebruik dat opzettelijk verantwoordelijkheid verhult. Zodra deze grens vervaagt, verandert de geneeskunde op een manier die moeilijk terug te draaien is.
De voornaamste vraag is niet of AI recepten kan aanvullen of afwijkende laboratoriumresultaten kan opsporen. De geneeskunde maakt al lang gebruik van dergelijke hulpmiddelen, en zorgverleners verwelkomen over het algemeen hulp die administratieve taken vermindert of patroonherkenning verbetert. De echte vraag is of medisch oordeel – het bepalen van de juiste acties, patiënten en risico's – kan worden gezien als een door de computer gegenereerd resultaat, losgekoppeld van morele verantwoordelijkheid. Pogingen om oordeel los te koppelen van verantwoordelijkheid hebben in het verleden vaak schade veroorzaakt zonder dat er verantwoordelijkheid werd genomen.
Recente ontwikkelingen verduidelijken de oorsprong van de huidige verwarring. In verschillende staten maken beperkte pilotprogramma's het nu mogelijk dat AI-gestuurde systemen helpen bij het verlengen van recepten voor stabiele chronische aandoeningen, onder strikt gedefinieerde protocollen. Op federaal niveau is er wetgeving voorgesteld die onderzoekt of kunstmatige intelligentie (AI) voor specifieke wettelijke doeleinden als "beoefenaar" kan worden beschouwd, mits deze op passende wijze wordt gereguleerd. Deze initiatieven worden doorgaans gepresenteerd als pragmatische reacties op tekorten aan artsen, vertragingen in de toegang tot zorg en administratieve inefficiënties. Hoewel geen van deze initiatieven AI expliciet als arts aanwijst, normaliseren ze gezamenlijk de zorgwekkendere veronderstelling dat medische handelingen kunnen plaatsvinden zonder een duidelijk herkenbare menselijke besluitnemer.
In de praktijk is dit onderscheid fundamenteel. Geneeskunde wordt niet gedefinieerd door de mechanische uitvoering van taken, maar door het toewijzen van verantwoordelijkheid wanneer de uitkomsten ongunstig zijn. Een recept uitschrijven is eenvoudig; verantwoordelijkheid nemen voor de gevolgen ervan – met name wanneer rekening wordt gehouden met comorbiditeiten, de sociale context, de waarden van de patiënt of onvolledige informatie – is veel complexer. Gedurende mijn carrière heeft deze verantwoordelijkheid altijd bij een mens gelegen die kon worden bevraagd, uitgedaagd, gecorrigeerd en ter verantwoording geroepen. Wanneer Dr. Smith een fout maakt, weet de familie met wie ze contact moeten opnemen, waardoor er een directe lijn naar menselijke verantwoording is. Geen enkel algoritme, hoe geavanceerd ook, kan deze rol vervullen.
Het voornaamste risico is niet technologisch, maar regelgevend en filosofisch. Deze transitie vertegenwoordigt een verschuiving van deugdethiek naar proceduralisme. Wanneer wetgevers en instellingen medische besluitvorming herdefiniëren als een functie van systemen in plaats van persoonlijke handelingen, verandert het morele kader van de geneeskunde. Verantwoordelijkheid wordt diffuus, schade is moeilijker toe te schrijven en de verantwoordelijkheid verschuift van artsen naar processen, van oordeel naar protocolnaleving. Wanneer er onvermijdelijk fouten optreden, wordt de gangbare verklaring dat 'het systeem de vastgestelde richtlijnen heeft gevolgd'. Het herkennen van deze transitie verduidelijkt de verschuiving van geïndividualiseerde ethische besluitvorming naar gemechaniseerde procedurele naleving.
Deze zorg is niet theoretisch. De hedendaagse gezondheidszorg kampt al met uitdagingen op het gebied van gebrekkige verantwoording. Ik heb gezien hoe patiënten die schade ondervinden door algoritmegestuurde beslissingen, verdwalen tussen beheerders, leveranciers en ondoorzichtige modellen, zonder duidelijk antwoord op de fundamentele vraag: Wie heeft deze beslissing genomen? Kunstmatige intelligentie verergert dit probleem aanzienlijk. Een algoritme kan geen morele verklaringen geven, geen terughoudendheid betrachten op basis van geweten, geen handelingen weigeren vanwege ethische bezwaren, en geen fouten toegeven aan een patiënt of familie.
Voorstanders van meer autonomie voor AI voeren vaak efficiëntie aan als rechtvaardiging. Klinieken zitten overvol, artsen kampen met een burn-out en patiënten wachten vaak maanden op zorg die slechts enkele minuten zou moeten duren. Deze zorgen zijn terecht en elke eerlijke arts herkent ze. Efficiëntie alleen rechtvaardigt echter niet het veranderen van de ethische basis van de geneeskunde. Systemen die geoptimaliseerd zijn voor snelheid en schaalbaarheid offeren vaak nuance, discretie en individuele waardigheid op. De geneeskunde heeft zich van oudsher tegen deze tendens verzet door te benadrukken dat zorg in wezen een relatie is en geen transactie.
Kunstmatige intelligentie dreigt deze relatie om te keren. Wanneer systemen, in plaats van individuen, zorg verlenen, is de patiënt niet langer verbonden met een arts, maar wordt hij of zij onderdeel van een werkproces. De arts neemt de rol van machinebeheerder op zich of, nog zorgwekkender, fungeert als juridische buffer die de aansprakelijkheid absorbeert voor beslissingen die niet persoonlijk zijn genomen. Na verloop van tijd maakt klinisch oordeel plaats voor het naleven van protocollen, en neemt moreel handelen geleidelijk af.
AI introduceert ook een subtieler en gevaarlijker probleem: het maskeren van onzekerheid. De geneeskunde is een wereld van ambiguïteit. Bewijs is probabilistisch. Richtlijnen zijn voorlopig. Patiënten vormen zelden een zuivere dataset. Artsen worden niet alleen getraind om te handelen, maar ook om te aarzelen – om te herkennen wanneer informatie ontoereikend is, wanneer een interventie meer kwaad dan goed kan doen, of wanneer afwachten de juiste aanpak is. Stel je een scenario voor waarin de AI ontslag aanbeveelt, maar de partner van de patiënt angstig lijkt, wat de spanning tussen algoritmische besluitvorming en menselijke intuïtie benadrukt. Dergelijke wrijving in de praktijk onderstreept de ernst van ambiguïteit.
AI-systemen ervaren geen onzekerheid; ze genereren resultaten. Wanneer ze onjuist zijn, doen ze dat vaak met een ongegronde zekerheid. Deze eigenschap is geen programmeerfout, maar een inherent kenmerk van statistische modellering. In tegenstelling tot ervaren artsen die openlijk hun twijfels uiten, kunnen grote taalmodellen en machine learning-systemen hun eigen beperkingen niet herkennen. Ze produceren plausibele antwoorden, zelfs wanneer de data ontoereikend is. In de geneeskunde kan plausibiliteit zonder onderbouwing gevaarlijk zijn.
Naarmate deze systemen eerder in klinische werkprocessen worden geïntegreerd, beïnvloeden hun resultaten steeds meer de daaropvolgende beslissingen. Na verloop van tijd gaan artsen aanbevelingen wellicht niet meer vertrouwen vanwege hun validiteit, maar omdat ze genormaliseerd zijn. Het oordeel verschuift geleidelijk van actief redeneren naar passieve acceptatie. In dergelijke omstandigheden fungeert de 'mens in de lus' niet meer dan als een symbolische waarborg.
Voorstanders beweren vaak dat AI artsen slechts zal 'ondersteunen' in plaats van hen te vervangen. Deze geruststelling is echter wankel. Zodra AI aantoonbaar efficiënter wordt, leiden economische en institutionele druk vaak tot meer autonomie. Als een systeem veilig recepten kan herhalen, mag het deze wellicht al snel zelf uitschrijven. Als het veelvoorkomende aandoeningen nauwkeurig kan diagnosticeren, wordt de noodzaak van een beoordeling door een arts in twijfel getrokken. Als het in gecontroleerde tests beter presteert dan mensen, neemt de tolerantie voor menselijke variabiliteit af.
Gezien deze trends is het essentieel om specifieke waarborgen in te voeren. Zo zouden verplichte controles op afwijkingen van 5% van de door AI gestuurde beslissingen een concrete manier kunnen zijn om de overeenstemming tussen AI-aanbevelingen en menselijk klinisch oordeel te waarborgen, en tegelijkertijd toezichthouders en ziekenhuisbesturen bruikbare meetgegevens te verschaffen om de integratie van AI te monitoren.
Deze vragen worden niet met kwade bedoelingen gesteld; ze komen vanzelf naar voren in systemen die gericht zijn op kostenbeheersing en schaalbaarheid. Ze wijzen echter op een toekomst waarin menselijk oordeel de uitzondering in plaats van de norm wordt. In zo'n scenario zullen mensen met voldoende middelen menselijke zorg blijven ontvangen, terwijl anderen via geautomatiseerde processen worden doorverwezen. Tweeledige zorg zal niet voortkomen uit ideologie, maar uit optimalisatie.
Wat dit moment extra precair maakt, is het ontbreken van duidelijke verantwoordelijkheidslijnen. Wie is er verantwoordelijk als een door AI gestuurde beslissing een patiënt schaadt? Is het de arts die formeel toezicht houdt op het systeem? De instelling die het heeft geïmplementeerd? De leverancier die het model heeft getraind? De toezichthouder die het gebruik ervan heeft goedgekeurd? Zonder expliciete antwoorden verdwijnt de verantwoordelijkheid. En wanneer de verantwoordelijkheid verdwijnt, volgt al snel het vertrouwen.
De geneeskunde is fundamenteel afhankelijk van vertrouwen. Patiënten leggen hun lichaam, hun angsten en vaak hun leven in de handen van artsen. Dit vertrouwen kan niet worden overgedragen op een algoritme, hoe geavanceerd het ook is. Het is gebaseerd op de zekerheid dat er een mens aanwezig is – iemand die kan luisteren, zich kan aanpassen en verantwoordelijkheid kan nemen voor zijn of haar handelingen.
Het volledig afwijzen van kunstmatige intelligentie is niet nodig. Bij een verstandig gebruik kan AI de administratieve lasten verlichten, patronen herkennen die mensen mogelijk ontgaan en de klinische besluitvorming ondersteunen. Het kan artsen in staat stellen meer tijd te besteden aan patiëntenzorg in plaats van administratieve taken. Om deze toekomst te realiseren, is echter een duidelijke toewijding nodig om de menselijke verantwoordelijkheid centraal te stellen in de medische praktijk.
'Menselijke betrokkenheid' moet meer inhouden dan symbolisch toezicht. Het moet vereisen dat een specifiek persoon verantwoordelijk is voor elke medische beslissing, de onderliggende redenering begrijpt en zowel de bevoegdheid als de plicht heeft om algoritmische aanbevelingen te overrulen. Het moet ook transparantie, uitlegbaarheid en geïnformeerde toestemming van de patiënt inhouden, evenals een commitment om te investeren in menselijke artsen in plaats van hen te vervangen door AI.
Het grootste risico schuilt niet in de buitensporige macht van kunstmatige intelligentie, maar eerder in de bereidheid van instellingen om verantwoordelijkheid af te schuiven. In hun streven naar efficiëntie en innovatie bestaat het gevaar dat de geneeskunde een technisch geavanceerd en administratief gestroomlijnd vakgebied wordt, maar zonder morele inhoud.
Als we naar de toekomst kijken, is het essentieel om ons af te vragen: wat voor soort genezer zien we voor ons aan het bed van de patiënt in 2035? Deze vraag vraagt om collectieve morele verbeeldingskracht en moedigt ons aan om een toekomst vorm te geven waarin menselijke verantwoordelijkheid en compassievolle zorg centraal blijven staan in de medische praktijk. Het mobiliseren van collectieve actie zal cruciaal zijn om ervoor te zorgen dat de vooruitgang in kunstmatige intelligentie deze fundamentele waarden versterkt in plaats van ondermijnt.
Kunstmatige intelligentie heeft geen vergunning om geneeskunde te bedrijven. Maar de geneeskunde wordt stilletjes hervormd rond systemen die geen moreel gewicht in de schaal leggen. Als dit proces ongecontroleerd doorgaat, ontdekken we misschien ooit dat de arts niet is vervangen door een machine, maar door een protocol – en dat er niemand meer overblijft om verantwoording af te leggen wanneer er schade wordt toegebracht.
Dat zou geen vooruitgang zijn. Dat zou een troonsafstand zijn.
-
Joseph Varon, MD, is intensive care-arts, hoogleraar en voorzitter van de Independent Medical Alliance. Hij is auteur van meer dan 980 peer-reviewed publicaties en is hoofdredacteur van het Journal of Independent Medicine.
Bekijk alle berichten