Dataetiska dilemman i välfärden: när effektivisering påverkar relationen
När AI sorterar människor i välfärdssystemet är frågan inte bara om det är effektivt, utan om det ersätter eller kompletterar den mänskliga blicken. En algoritm ser fält i ett formulär. En BVC-sjuksköterska ser de oöppnade breven på köksbordet.
En mamma sitter i väntrummet med en kall kopp kaffe. Hennes ärende har bedömts av en algoritm. Systemet säger att hon har "låg risk". Hon får färre besök av BVC-sjuksköterskan. Tre i stället för fem. Algoritmen har räknat på hennes svar i ett formulär: ålder, inkomst, civilstånd, antal barn.
Men algoritmen vet inte att hennes partner precis har flyttat. Den vet inte att hon inte har sovit på tre veckor. Den vet inte att hon sitter i väntrummet och inte kan minnas när hon senast pratade med en vuxen.
Vad vi menar när vi säger "AI i välfärden"
AI i välfärden är inte en enda sak. Det spänner från triagesystem som prioriterar ärenden, via beslutsstöd till handläggare, till algoritmer som bedömer risk. Det den här artikeln handlar om är de system som påverkar vem som får hjälp, och hur mycket. Inte chatbottar eller journalsökning, utan de algoritmer som sorterar människor.
Effektiviseringens löfte
AI kan behandla fler ärenden snabbare. Det är löftet. Och det är reellt. I en värld med begränsade resurser, färre barnsjuksköterskor, längre väntelistor och stramare budgetar, är det frestande att låta en algoritm sortera. Vem har störst behov av hjälp? Vem klarar sig själv?
Problemet är inte effektivisering i sig. Problemet uppstår när "snabbare" förväxlas med "bättre". När algoritmens bedömning ersätter det mänskliga mötet i stället för att komplettera det.
Dataetisk Råd (Danmark) har i sitt arbete med AI i sundhed pekat på risken: när AI-system används i välfärden utan tillräcklig transparens och förklarbarhet förlorar medborgaren möjligheten att förstå, och ifrågasätta, den bedömning som påverkar hennes liv.
Nyfiken på dig själv?
9 frågor. 2 minuter. Ingen inloggning.
Det algoritmen inte fångar
En BVC-sjuksköterska som sitter i vardagsrummet ser sådant som ett formulär inte kan mäta. Hon ser de oöppnade breven på köksbordet. Hon hör tvekan i rösten. Hon lägger märke till att barnet tittar på sin mamma innan det vågar ta ett kex.
Algoritmen ser fält i ett formulär. Civilstånd, inte ensamhet. Postnummer, inte press. Antal besök, inte kvaliteten i dem.
Det betyder inte att data är oanvändbart, tvärtom. Data kan identifiera tendenser, prioritera resurser och fånga mönster som annars hade varit osynliga. Skillnaden ligger i hur data används. Ett system som sorterar människor i fack utifrån registreringar är något annat än ett system som ger familjer språk för det de själva upplever. Det första ersätter blicken. Det andra skärper den.
Vem bär ansvaret när algoritmen har fel?
Här landar vi i en av de svåraste frågorna. När en BVC-sjuksköterska bedömer att en familj klarar sig fint, och det visar sig att hon hade fel, är ansvaret tydligt. Det är hennes profession, hennes bedömning, hennes ansvar.
Men när en algoritm gör samma bedömning, vem bär då ansvaret? Utvecklaren som byggde modellen? Kommunen som köpte systemet? Chefen som beslutade att använda det? Eller medarbetaren som litade på det?
Ansvarsfrågan är inte löst. Och det bör oroa oss. Inte för att AI i sig är farligt, utan för att otydligt ansvar alltid är farligt när det handlar om sårbara människor.
Vilka värden är inbyggda?
Varje AI-system bygger på val. Vilka data väger tyngst? Vad räknas som "risk"? Vad räknas som att "klara sig fint"?
De valen är inte neutrala. De speglar värderingar. Och frågan är vilka: effektivitet, jämlikhet, besparingar eller förebyggande arbete?
Dataetisk Råd (Danmark) pekar på att värderingarna i AI-system ofta är osynliga för dem som påverkas av dem. En mamma som får färre besök vet inte vilken modell som avgjorde det. Hon vet bara att BVC-sjuksköterskan inte kommer lika ofta.
Transparens handlar inte bara om att offentliggöra algoritmer. Det handlar om att göra de underliggande valen synliga och begripliga för de människor de påverkar.
Från system till köksbord
Det är lätt att diskutera dataetik som något abstrakt. Något som handlar om system, lagstiftning och regleringar. Men till slut landar det vid ett köksbord. Hos en mamma. En pappa. Ett barn.
Frågan är inte om AI ska användas i välfärden. Det gör den redan. Frågan är hur det känns att bli bedömd av en maskin. Och om den bedömningen kompletterar eller ersätter den mänskliga blicken.
AI ska inte stå ensam när beslut får stor betydelse för människors liv. Den kan hjälpa till att sortera, prioritera och identifiera. Men det avgörande mötet, det där någon faktiskt ser dig, går inte att automatisera. Det kräver en människa som har tid, och ett system som ger henne den tiden.