AI-etik i praksis: privatliv, samtykke og 'hvem ejer fortællingen om familien?'
Når AI beskriver din familie, rejser det tre etiske spørgsmål: hvad skal AI'en vide, hvem giver samtykke, og hvem ejer fortællingen om relationen? Svarene handler om dataminimering, reel kontrol over deling – og retten til at være uenig med en algoritmes beskrivelse.
Du tager en familietest. AI'en genererer en rapport om forholdet mellem dig og din datter. Den beskriver mønstre, du genkender. Den sætter ord på noget, du har mærket, men ikke formuleret. Du nikker.
Men så tænker du: Kan min datter se den her? Og hvad hvis hun ikke er enig?
Hvad skal en AI egentlig vide?
Dataminimering er et princip, der lyder teknisk, men er dybt menneskeligt: en AI bør kun vide det, den har brug for. Ikke mere.
Når du svarer på spørgsmål om, hvordan du oplever din familie, afslører du noget. Det er sårbart. Og det forpligter den, der modtager svarene. Spørgsmålet er ikke kun "er mine data sikre?" – det er: "Hvad bruges de til, og hvad bliver de aldrig brugt til?"
I SAMRUM får AI-modellen kun aggregerede scorer i prompten – aldrig de rå besvarelser. Den ved, at du scorer højt på konflikttolerance – men den ved ikke, hvad du svarede på de enkelte spørgsmål. Den forskel er bevidst. Fordi jo mere en AI ved, jo mere magt har den over fortællingen.
Samtykke – især for teenagere
Du er 14. Din mor siger, at I skal tage en familietest. Du vil gerne, for det lyder interessant. Men forstår du reelt, hvad det betyder, at en AI analyserer dine personlighedstræk og beskriver din relation til din mor?
Samtykke fra teenagere er kompliceret. De kan sige ja. Men informeret samtykke kræver, at man forstår konsekvenserne – og det er svært, selv for voksne.
Det betyder ikke, at teenagere ikke bør deltage. Men det betyder, at der er et særligt ansvar for at forklare: Hvad sker der med dine svar? Hvem kan se hvad? Og hvad kan du sige nej til?
Et godt system giver teenageren kontrol. Ikke bare deltagelse, men reel indflydelse på, hvad der deles. I praksis bør en samtykkemodel for familier afklare: Hvem kan invitere hvem til testen? Hvad sker der, hvis ét familiemedlem ikke vil deltage? Og kan man trække sin deltagelse tilbage?
Hvem ejer fortællingen?
Her bliver det virkelig svært. En rapport beskriver en relation – og en relation har altid mindst to sider. Hvis AI'en siger, at jeres dynamik er præget af, at den ene er mere konfliktsky end den anden, hvem ejer så den beskrivelse?
Begge. Og det er hele pointen.
En fortælling om en relation bør aldrig tilhøre kun den ene part. Hvis din datter ikke genkender sig selv i beskrivelsen, er det ikke fordi hun tager fejl. Det er fordi relationer ser forskellige ud, afhængigt af hvor man står.
Det er derfor, rapporter i SAMRUM er symmetriske. Friktion beskrives altid som en loop – A påvirker B, B påvirker A – aldrig som en anklage. Og begge parter kan se den rapport, der handler om deres relation. Ikke den andens individuelle svar.
Sådan er synligheden i SAMRUM
- Rå svar er altid private. Ingen andre familiemedlemmer kan se, hvad du svarede. Heller ikke forældre.
- Deling kræver deltagelse. En relationsrapport kræver, at begge parter har taget testen.
- Teenageres svar er private. En teenagers individuelle svar forbliver deres egne – og de bestemmer selv, hvem der kan se deres profil.
Privatlivet mellem familiemedlemmer
Der er en vigtig forskel mellem gennemsigtighed og overvågning. Forældre bør kunne se, hvordan relationen fungerer. De bør ikke kunne se, hvad deres teenager svarede på spørgsmål 17.
Rå svar er private. Altid. Også i en familie. Især i en familie.
Det er fristende at tænke: "Vi deler jo alt." Men det gør I ikke. Og det bør I heller ikke. Privathed er ikke et tegn på afstand – det er et tegn på respekt. En teenager, der ved, at hendes svar er hendes egne, svarer ærligt. En teenager, der har en fornemmelse af at mor kan læse med, svarer strategisk. Og den strategiske version er værdiløs.
Retten til at være uenig
Den sidste etiske dimension er måske den vigtigste: retten til at sige "det passer ikke."
AI er ikke ufejlbarlig. Den beskriver sandsynligheder, ikke sandheder. Og når den beskriver en relation, bør begge parter have ret til at sige: "Sådan oplever jeg det ikke."
Den ret skal ikke bare eksistere i princippet. Den skal være synlig. Let tilgængelig. Og den skal tages alvorligt.
For etik i AI handler ikke om datasikkerhed alene. Det handler om, hvem der har magt over historien. Og i en familie bør den magt aldrig ligge hos en algoritme – men hos de mennesker, den handler om.