Dataetiske dilemmaer i velfærd: når effektivisering påvirker relationen
Når AI sorterer mennesker i velfærdssystemet, er spørgsmålet ikke om det er effektivt – men om det erstatter eller supplerer det menneskelige blik. En algoritme ser felter i et skema; en sundhedsplejerske ser de uåbnede breve på køkkenbordet.
En mor sidder i venteværelset med en kold kop kaffe. Hendes sag er blevet vurderet af en algoritme. Systemet siger, hun er "lav risiko." Hun får færre besøg af sundhedsplejersken. Tre i stedet for fem. Algoritmen har regnet på hendes svar i et skema: alder, indkomst, civilstatus, antal børn.
Men algoritmen ved ikke, at hendes partner lige er flyttet. Den ved ikke, at hun ikke har sovet i tre uger. Den ved ikke, at hun sidder i venteværelset og ikke kan huske, hvornår hun sidst talte med en voksen.
Hvad vi taler om, når vi siger "AI i velfærd"
AI i velfærd er ikke én ting. Det spænder fra triage-systemer, der prioriterer sager, over beslutningsstøtte til sagsbehandlere, til algoritmer, der vurderer risiko. Det denne artikel handler om, er de systemer, der påvirker, hvem der får hjælp – og hvor meget. Ikke chatbots eller journalsøgning, men de algoritmer, der sorterer mennesker.
Effektiviseringens løfte
AI kan behandle flere sager hurtigere. Det er løftet. Og det er reelt. I en verden med begrænsede ressourcer – færre sundhedsplejersker, længere ventelister, strammere budgetter – er det fristende at lade en algoritme sortere. Hvem har mest brug for hjælp? Hvem kan klare sig selv?
Problemet er ikke effektivisering i sig selv. Problemet er, når "hurtigere" bliver forvekslet med "bedre." Når algoritmens vurdering erstatter det menneskelige møde i stedet for at supplere det.
Dataetisk Råd har i deres arbejde med AI i sundhed peget på risikoen: når AI-systemer bruges i velfærd uden tilstrækkelig gennemsigtighed og forklarlighed, mister borgeren muligheden for at forstå – og udfordre – den vurdering, der påvirker hendes liv.
Det algoritmen ikke fanger
En sundhedsplejerske, der sidder i stuen, mærker noget, et skema ikke kan måle. Hun ser de uåbnede breve på køkkenbordet. Hun hører tøven i stemmen. Hun lægger mærke til, at barnet kigger på sin mor, inden det tør tage en kiks.
Algoritmen ser felter i et skema. Den ser civilstatus, ikke ensomhed. Postnummer, ikke pres. Antal besøg, ikke kvaliteten af dem.
Det betyder ikke, at data er ubrugelig – tværtimod. Data kan identificere tendenser, prioritere ressourcer og fange mønstre, der ellers ville forblive usynlige. Forskellen ligger i, hvordan data bruges. Et system, der sorterer mennesker i kasser ud fra registreringer, er noget andet end et system, der giver familier sprog for det, de selv oplever. Det første erstatter blikket. Det andet skærper det.
Hvem er ansvarlig, når algoritmen tager fejl?
Her rammer vi et af de sværeste spørgsmål. Når en sundhedsplejerske vurderer, at en familie klarer sig fint, og det viser sig, at hun tog fejl, er ansvaret klart. Det er hendes faglighed, hendes vurdering, hendes ansvar.
Men når en algoritme vurderer det samme – hvem bærer så ansvaret? Udvikleren, der byggede modellen? Kommunen, der købte systemet? Lederen, der besluttede at bruge det? Eller den medarbejder, der stolede på det?
Ansvarsspørgsmålet er ikke løst. Og det bør bekymre os. Ikke fordi AI er farlig – men fordi uklart ansvar altid er farligt, når det handler om sårbare mennesker.
Hvilke værdier er kodet ind?
Ethvert AI-system er bygget på valg. Hvilke data vægter mest? Hvad tæller som "risiko"? Hvad tæller som "klarer sig fint"?
De valg er ikke neutrale. De afspejler værdier. Og spørgsmålet er, hvilke: Effektivitet? Lighed? Besparelser? Forebyggelse?
Dataetisk Råd peger på, at værdier i AI-systemer ofte er usynlige for dem, der rammes af dem. En mor, der får færre besøg, ved ikke, hvilken model der afgjorde det. Hun ved bare, at sundhedsplejersken ikke kommer mere.
Gennemsigtighed handler ikke kun om at offentliggøre algoritmer. Det handler om at gøre de underliggende valg synlige og forståelige for de mennesker, de påvirker.
Fra system til køkkenbord
Det er let at diskutere dataetik som noget abstrakt. Noget der handler om systemer og lovgivning og reguleringer. Men til sidst lander det ved et køkkenbord. Hos en mor. En far. Et barn.
Spørgsmålet er ikke, om AI skal bruges i velfærd. Det gør den allerede. Spørgsmålet er, hvordan det føles at blive vurderet af en maskine. Og om den vurdering supplerer eller erstatter det menneskelige blik.
AI bør ikke stå alene, når afgørelser har stor betydning for menneskers liv. Den kan hjælpe med at sortere, prioritere, identificere. Men det afgørende møde – det, hvor nogen rent faktisk ser dig – kan ikke automatiseres. Det kræver et menneske, der har tid, og et system, der giver dem den tid.