Min erfarenhet inom medicin gör att jag kan skilja mellan genuin innovation och subtil omklassificering som fundamentalt förändrar praktiken samtidigt som den framstår som oförändrad. Artificiell intelligens har nyligen väckt stor uppmärksamhet, inklusive det vitt spridda påståendet att AI har "lagligt tillstånd att utöva medicin" i USA. Bokstavligt tolkat är detta påstående felaktigt. Ingen medicinsk nämnd har licensierat en maskin. Ingen algoritm har svurit en ed, accepterat förtroendeuppdrag eller tagit på sig personligt ansvar för patientskador. Ingen robotläkare öppnar en klinik, fakturerar försäkringsbolag eller står inför en felbehandlingsjury.
Att stanna upp vid denna observation förbiser dock den bredare frågan. Rättsliga begrepp om ansvar omdefinieras för närvarande, ofta utan allmänhetens medvetenhet.
En betydande omvandling pågår, vilket motiverar mer än antingen reflexmässigt avfärdande eller okritisk teknologisk entusiasm. Den nuvarande utvecklingen handlar inte om licensiering av artificiell intelligens som läkare, utan snarare om en gradvis urholkning av medicinens kärngräns: den inneboende kopplingen mellan kliniskt omdöme och mänskligt ansvar. Kliniskt omdöme innebär att fatta välgrundade beslut skräddarsydda för varje patients unika behov och omständigheter, vilket kräver empati, intuition och en djup förståelse för medicinsk etik.
Mänskligt ansvar hänvisar till det ansvar som vårdgivare tar för dessa beslut och deras resultat. Denna urholkning är inte ett resultat av dramatisk lagstiftning eller offentlig debatt, utan sker i det tysta genom pilotprogram, omtolkningar av regelverk och språkbruk som avsiktligt döljer ansvaret. När denna gräns upplöses omvandlas medicinen på sätt som är svåra att vända.
Den största oron är inte om AI kan fylla på recept eller upptäcka avvikande laboratorieresultat. Medicin har länge använt verktyg, och vårdgivare välkomnar i allmänhet hjälp som minskar administrativa uppgifter eller förbättrar mönsterigenkänning. Den verkliga frågan är om medicinskt omdöme – att besluta om rätt åtgärder, patienter och risker – kan ses som ett datorgenererat resultat separerat från moraliskt ansvar. Historiskt sett har försök att koppla bort omdöme från ansvarsskyldighet ofta orsakat skada utan att ta ansvar.
Den senaste utvecklingen klargör orsaken till den rådande förvirringen. I flera stater tillåter nu begränsade pilotprogram AI-drivna system att hjälpa till med receptförnyelser för stabila kroniska tillstånd enligt snävt definierade protokoll. På federal nivå har man i föreslagen lagstiftning övervägt huruvida artificiell intelligens kan kvalificera som en "utövare" för specifika lagstadgade ändamål, förutsatt att den är lämpligt reglerad. Dessa initiativ presenteras vanligtvis som pragmatiska svar på läkarbrist, förseningar i tillgång och administrativ ineffektivitet. Även om ingen uttryckligen utser AI som en läkare, normaliserar de tillsammans den mer oroande premissen att medicinska åtgärder kan ske utan en tydligt identifierbar mänsklig beslutsfattare.
I praktiken är denna distinktion grundläggande. Medicin definieras inte genom det mekaniska utförandet av uppgifter, utan genom att ansvaret tillskrivs när resultaten är ogynnsamma. Att skriva ett recept är enkelt; att ta ansvar för dess konsekvenser – särskilt när man beaktar samsjuklighet, social kontext, patientvärderingar eller ofullständig information – är mycket mer komplext. Under hela min karriär har detta ansvar ständigt legat hos en människa som kan ifrågasättas, utmanas, korrigeras och hållas ansvarig. När Dr. Smith gör ett fel vet familjen vem de ska kontakta, vilket säkerställer en direkt linje till mänskligt ansvar. Ingen algoritm, oavsett sofistikering, kan fylla denna roll.
Den primära risken är inte teknologisk, utan reglerande och filosofisk. Denna övergång representerar ett skifte från dygdetik till proceduralism. När lagstiftare och institutioner omdefinierar medicinskt beslutsfattande som en funktion av system snarare än personliga handlingar, förändras den moraliska ramen för medicin. Ansvarsskyldighet blir diffus, skada är svårare att tillskriva och ansvaret flyttas från kliniker till processer, från bedömning till protokollföljsamhet. När fel oundvikligen inträffar blir den rådande förklaringen att "systemet följde etablerade riktlinjer". Att erkänna denna övergång förtydligar skiftet från individualiserat etiskt beslutsfattande till mekaniserad procedurföljsamhet.
Denna oro är inte teoretisk. Samtida hälso- och sjukvård står redan inför utmaningar relaterade till utspädd ansvarsskyldighet. Jag har observerat att patienter som skadats av algoritmdrivna beslut förloras bland administratörer, leverantörer och ogenomskinliga modeller, utan ett tydligt svar på den grundläggande frågan: Vem fattade detta beslut? Artificiell intelligens accelererar detta problem avsevärt. En algoritm kan inte ge moraliska förklaringar, utöva återhållsamhet baserad på samvete, vägra handlingar på grund av etiska problem eller erkänna fel för en patient eller familj.
Förespråkare för ökad AI-autonomi anger ofta effektivitet som rättfärdigande. Kliniker är överbelastade, läkare upplever utbrändhet och patienter väntar ofta månader på vård som borde ta bara några minuter. Dessa farhågor är legitima, och alla ärliga kliniker inser dem. Effektivitet ensamt rättfärdigar dock inte att förändra den etiska grunden för medicin. System som är optimerade för hastighet och skala offrar ofta nyans, diskretion och individuell värdighet. Historiskt sett har medicinen motstått denna tendens genom att betona att vård i grunden är en relation snarare än en transaktion.
Artificiell intelligens riskerar att vända på detta förhållande. När system, snarare än individer, levererar vård, är patienten inte längre engagerad i ett avtal med en läkare utan blir en del av ett arbetsflöde. Läkaren tar på sig rollen som maskinövervakare eller, mer oroande, fungerar som en juridisk buffert som absorberar ansvar för beslut som inte personligen fattats. Med tiden ger kliniskt omdöme vika för protokollföljsamhet, och moralisk handlingsfrihet minskar gradvis.
AI introducerar också ett mer subtilt och farligare problem: maskeringen av osäkerhet. Medicin lever i tvetydighet. Bevis är probabilistiska. Riktlinjer är preliminära. Patienter presenteras sällan som rena datamängder. Kliniker är utbildade att inte bara agera, utan att tveka – att inse när informationen är otillräcklig, när intervention kan orsaka mer skada än nytta, eller när det är rätt väg att vänta. Föreställ dig ett scenario där AI:n rekommenderar utskrivning, men patientens make/maka verkar rädd, vilket belyser spänningen mellan algoritmiskt beslutsfattande och mänsklig intuition. Sådan friktion i den verkliga världen understryker tvetydighetens insatser.
AI-system upplever inte osäkerhet; de genererar utdata. När de är felaktiga gör de det ofta med obefogad säkerhet. Denna egenskap är inte en programmeringsbrist, utan en inneboende egenskap hos statistisk modellering. Till skillnad från erfarna kliniker som öppet uttrycker tvivel, kan stora språkmodeller och maskininlärningssystem inte inse sina egna begränsningar. De producerar rimliga svar även när data är otillräckliga. Inom medicin kan rimlighet utan underbyggande vara riskabel.
Allt eftersom dessa system integreras tidigare i kliniska arbetsflöden påverkar deras resultat i allt högre grad efterföljande beslut. Med tiden kan kliniker börja lita på rekommendationer, inte på grund av deras giltighet, utan för att de har blivit normaliserade. Bedömningssättet skiftar gradvis från aktivt resonemang till passivt accepterande. Under sådana omständigheter fungerar "människan i loopen" som föga mer än en symbolisk skyddsåtgärd.
Förespråkare hävdar ofta att AI bara kommer att "förstärka" kliniker snarare än att ersätta dem. Denna försäkran är dock svag. När AI visar effektivitetsvinster tenderar ekonomisk och institutionell press att driva ökad autonomi. Om ett system säkert kan fylla på recept kan det snart tillåtas att sätta in dem. Om det korrekt kan diagnostisera vanliga tillstånd ifrågasätts behovet av läkargranskning. Om det överträffar människor i kontrollerade riktmärken minskar toleransen för mänsklig variation.
Med tanke på dessa trender är det avgörande att implementera specifika skyddsåtgärder. Till exempel skulle obligatoriska avvikelsegranskningar på 5 % av AI-drivna beslut kunna fungera som en konkret kontroll som säkerställer överensstämmelse mellan AI-rekommendationer och mänsklig klinisk bedömning, samtidigt som tillsynsmyndigheter och sjukhusstyrelser får användbara mätvärden för att övervaka AI-integrationen.
Dessa frågor ställs inte med ond avsikt; de uppstår naturligt inom system som fokuserar på kostnadsbesparingar och skalbarhet. De indikerar dock en framtid där mänskligt omdöme blir undantaget snarare än normen. I ett sådant scenario kommer individer med resurser att fortsätta att få mänsklig vård, medan andra styrs genom automatiserade processer. Tvådelad medicin kommer inte att vara ett resultat av ideologi, utan av optimering.
Det som gör denna tidpunkt särskilt prekär är avsaknaden av tydliga ansvarslinjer. När ett AI-drivet beslut skadar en patient, vem är ansvarig? Är det klinikern som nominellt övervakar systemet? Institutionen som driftsatte det? Leverantören som utbildade modellen? Tillsynsmyndigheten som godkände dess användning? Utan tydliga svar försvinner ansvaret. Och när ansvaret försvinner följer snart förtroendet.
Medicin är fundamentalt beroende av förtroende. Patienter lägger sina kroppar, rädslor och ofta sina liv i händerna på kliniker. Detta förtroende kan inte överföras till en algoritm, oavsett dess sofistikering. Det är grundat i försäkran om att en människa är närvarande – någon som kan lyssna, anpassa sig och vara ansvarig för sina handlingar.
Att helt avvisa artificiell intelligens är onödigt. När den används klokt kan AI minska administrativa bördor, identifiera mönster som kan undgå mänsklig upptäckt och stödja kliniskt beslutsfattande. Det kan göra det möjligt för läkare att ägna mer tid åt patientvård snarare än administrativa uppgifter. Att förverkliga denna framtid kräver dock ett tydligt åtagande att bibehålla mänskligt ansvar i centrum för den medicinska praktiken.
”Människa-i-loopen” måste betyda mer än symbolisk tillsyn. Det bör kräva att en specifik individ ansvarar för varje medicinskt beslut, förstår dess motivering och behåller både befogenheten och skyldigheten att åsidosätta algoritmiska rekommendationer. Det måste också innebära transparens, förklarbarhet och informerat patientsamtycke, samt ett åtagande att investera i mänskliga kliniker snarare än att ersätta dem med AI.
Den primära risken är inte den artificiella intelligensens överdrivna makt, utan snarare institutionernas villighet att avsäga sig ansvar. I strävan efter effektivitet och innovation finns det en risk att medicinen blir ett tekniskt avancerat, administrativt effektiviserat område, men som saknar moralisk substans.
När vi betraktar framtiden är det viktigt att fråga oss: Vilken typ av läkare ser vi oss vid vår sängkant år 2035? Denna fråga kräver kollektiv moralisk fantasi och uppmuntrar oss att forma en framtid där mänskligt ansvar och medkännande omsorg står i centrum för den medicinska praktiken. Att mobilisera kollektiv handlingskraft kommer att vara avgörande för att säkerställa att framsteg inom artificiell intelligens förstärker, snarare än undergräver, dessa grundläggande värden.
Artificiell intelligens har inte licensierats för att utöva medicin. Men medicinen omformas i tysthet kring system som inte har moralisk tyngd. Om den processen fortsätter okontrollerat kan vi en dag upptäcka att läkaren inte har ersatts av en maskin, utan av ett protokoll – och att när skada inträffar finns det ingen kvar att stå till svars för den.
Det skulle inte vara ett framsteg. Det skulle vara en abdikation.
-
Joseph Varon, läkare, är intensivvårdsläkare, professor och ordförande för Independent Medical Alliance. Han har författat över 980 vetenskapligt granskade publikationer och är chefredaktör för Journal of Independent Medicine.
Visa alla inlägg