AI-etik i praktiken: integritet, samtycke och vem som äger berättelsen om familjen
När AI beskriver din familj väcker det tre etiska frågor: vad ska AI:n få veta, vem ger samtycke och vem äger berättelsen om relationen? Svaren handlar om dataminimering, verklig kontroll över delning och rätten att inte hålla med om en algoritms beskrivning.
Du gör ett familjetest. AI:n genererar en rapport om relationen mellan dig och din dotter. Den beskriver mönster som du känner igen. Den sätter ord på något du har märkt, men inte formulerat. Du nickar.
Men sedan tänker du: Kan min dotter se det här? Och vad händer om hon inte håller med?
Vad ska en AI egentligen få veta?
Dataminimering är en princip som låter teknisk, men som är djupt mänsklig: en AI bör bara få veta det den behöver. Inte mer.
När du svarar på frågor om hur du upplever din familj lämnar du ut något. Det är sårbart. Och det förpliktar den som tar emot svaren. Frågan är inte bara "är mina data säkra?" utan också: "Vad används de till, och vad används de aldrig till?"
I SAMRUM får AI-modellen bara aggregerade poäng i prompten, aldrig de rå svaren. Den vet att du ligger högt i konflikttolerans, men inte vad du svarade på de enskilda frågorna. Den skillnaden är medveten. Ju mer en AI vet, desto mer makt får den över berättelsen.
Samtycke, särskilt för tonåringar
Du är 14. Din mamma säger att ni ska göra ett familjetest. Du vill gärna, för det låter intressant. Men förstår du verkligen vad det innebär att en AI analyserar dina personlighetsdrag och beskriver din relation till din mamma?
Samtycke från tonåringar är komplicerat. De kan säga ja. Men informerat samtycke kräver att man förstår konsekvenserna, och det är svårt även för vuxna.
Det betyder inte att tonåringar inte ska delta. Men det betyder att det finns ett särskilt ansvar att förklara: Vad händer med dina svar? Vem kan se vad? Och vad kan du säga nej till?
Ett bra system ger tonåringen kontroll. Inte bara möjlighet att delta, utan verkligt inflytande över vad som delas. I praktiken bör en samtyckesmodell för familjer klargöra: Vem kan bjuda in vem till testet? Vad händer om en familjemedlem inte vill delta? Och går det att ta tillbaka sitt deltagande?
Nyfiken på dig själv?
9 frågor. 2 minuter. Ingen inloggning.
Vem äger berättelsen?
Här blir det verkligen svårt. En rapport beskriver en relation, och en relation har alltid minst två sidor. Om AI:n säger att er dynamik präglas av att den ena är mer konflikträdd än den andra, vem äger då den beskrivningen?
Båda. Och det är hela poängen.
En berättelse om en relation ska aldrig tillhöra bara den ena parten. Om din dotter inte känner igen sig i beskrivningen är det inte för att hon har fel. Det är för att relationer ser olika ut beroende på var man står.
Därför är rapporterna i SAMRUM symmetriska. Friktion beskrivs alltid som en loop: A påverkar B, B påverkar A, aldrig som en anklagelse. Och båda parter kan se den rapport som handlar om deras relation. Inte den andras individuella svar.
Så ser synligheten ut i SAMRUM
- Rå svar är alltid privata. Inga andra familjemedlemmar kan se vad du svarade. Inte ens föräldrar.
- Delning kräver deltagande. En relationsrapport kräver att båda parter har gjort testet.
- Tonåringars svar är privata. En tonårings individuella svar förblir deras egna, och de bestämmer själva vem som kan se deras profil.
Integritet mellan familjemedlemmar
Det finns en viktig skillnad mellan transparens och övervakning. Föräldrar ska kunna se hur relationen fungerar. De ska inte kunna se vad deras tonåring svarade på fråga 17.
Rå svar är privata. Alltid. Också i en familj. Särskilt i en familj.
Det är frestande att tänka: "Vi delar ju allt." Men det gör ni inte. Och det ska ni heller inte. Integritet är inte ett tecken på avstånd, utan ett tecken på respekt. En tonåring som vet att svaren är hennes egna svarar ärligt. En tonåring som anar att mamma kan läsa med svarar strategiskt. Och den strategiska versionen är värdelös.
Rätten att inte hålla med
Den sista etiska dimensionen är kanske den viktigaste: rätten att säga "det stämmer inte".
AI är inte ofelbar. Den beskriver sannolikheter, inte sanningar. Och när den beskriver en relation ska båda parter ha rätt att säga: "Så upplever jag det inte."
Den rätten ska inte bara finnas i teorin. Den ska vara synlig. Lätt att använda. Och den ska tas på allvar.
För etik i AI handlar inte bara om datasäkerhet. Det handlar om vem som har makt över berättelsen. Och i en familj ska den makten aldrig ligga hos en algoritm, utan hos människorna den handlar om.