Etiske udfordringer ved AI til børn og familier
 Skrevet af Christian L. Dam
Skrevet af Christian L. Dam
Kunstig intelligens bringer mange spændende muligheder ind i børnefamiliernes liv – men det medfører også et nyt sæt af etiske udfordringer og bekymringer, som vi er nødt til at forholde os til. Når vi lader AI hjælpe med at passe på, undervise eller underholde vores børn, rejser det spørgsmål om privatliv, sikkerhed, påvirkning af børns udvikling og ansvarlig brug. I dette afsnit gennemgår vi de vigtigste etiske og samfundsmæssige aspekter ved AI i relation til børn og familier, så forældre (og andre) kan være opmærksomme på faldgruberne i den nye AI-hverdag.
Privatliv og datasikkerhed for børns data
Børns privatliv er et af de mest presserende emner. Børn kan ikke selv give informeret samtykke, så ansvaret ligger på forældre og lovgivning at beskytte deres data. Mange AI-produkter til børn – lige fra babyalarmer til legetøj og apps – indsamler personlige oplysninger. Det kan være videooptagelser af barnet, stemmeoptagelser, sundhedsdata (som søvn- og pulsdata) eller brugeradfærd (hvad barnet spørger legetøjet om, hvilke læringsopgaver de løser osv.). Denne type data er guld værd for virksomheder, men også ekstremt følsom.
Der er allerede lovgivning, som forsøger at beskytte børn. I USA findes COPPA (Children's Online Privacy Protection Act), der bl.a. kræver forældres samtykke før indsamling af data om børn under 13. EU har lignende strenge regler via GDPR, hvor data om børn er under "særlig kategori". Men håndhævelse har været en udfordring. Et kendt eksempel er sagen mod YouTube/Google i 2019: Det kom frem at YouTube indsamlede data om børns videovaner for at målrette reklamer, selvom platformen officielt ikke tillod brugere under 13. Resultatet blev en rekordbøde på $170 millioner for brud på børns privatliv[1] samt en ændring så YouTube nu kræver at kanalindhold markeres, hvis det er rettet mod børn, og i så fald begrænses dataindsamlingen.
Dette viser, at selv store aktører kan træde ved siden af. For forældre betyder det, at man ikke blindt kan antage, at "nogen andre" sørger for datasikkerheden. Man bør selv gøre sit forarbejde: læs privacy-politikken for de produkter, I bruger (ved småt – men ofte kan man søge efter ord som "share data" eller "third parties" i teksten). Overvej om barnet kan bruge en app anonymt eller lokalt uden login. Hvis en app kræver barnets navn, fødselsdato og billede, så tænk over hvorfor – er det nødvendigt for funktionaliteten, eller går det mest til marketing?
Hacking og sikkerhed: Udover firmaernes brug af data er der også risikoen for hacking. Alt der er på nettet, kan potentielt tilgås af uvedkommende, hvis der er sikkerhedshuller. Vi har set uhyggelige eksempler på babykameraer, hvor fremmede har skaffet sig adgang og kunne tale ud gennem kameraets højttaler til barnet om natten. Sådanne episoder er sjældne, men reelle. Løsningen er dels at købe produkter fra velrenommerede producenter, der udsender sikkerhedsopdateringer, dels at bruge stærke unikke adgangskoder og aktivere 2-faktor-login når muligt[2]. Undgå at bruge udstyr, der sender ubeskyttet data (fx analoge trådløse babyalarmer kan opsnappes af hvem som helst med en scanner). Og sluk/lektrisk adskil legetøj med mikrofoner, når de ikke er i brug, hvis du vil være ekstra forsigtig.
Skærmtid og afhængighed
AI-baserede apps og legetøj kan være så underholdende eller hjælpsomme, at børn (og voksne) bruger dem meget. Vi kender allerede debatten om skærmtid: For meget tid foran tablet eller telefon kan gå ud over fysisk leg, søvn, den sociale interaktion i familien osv. AI kan potentielt forstærke disse effekter, fordi indholdet bliver mere målrettet og "sticky". F.eks. vil YouTubes algoritme (drevet af AI) hele tiden forsøge at holde både børn og voksne fanget ved at foreslå næste video der passer til ens smag. Hos børn ser man, at de kan falde ind i lange sessions med videoer, som algoritmen køer op automatisk – nogle gange videoer som forældre slet ikke er vilde med, at de ser[3][4]. Det såkaldte "Elsagate"-fænomen i 2017 afslørede et hjørne af YouTube, hvor bizarre og upassende tegnefilm med kendte figurer dukkede op i børns feeds, fordi algoritmen prioriterede klik og visninger over kvalitet[4]. YouTube strammede reglerne og fjernede en masse skadeligt indhold, men lignende problemer kan dukke op på nye platforme.
Et andet aspekt er afhængighed af AI-venner. Som nævnt tidligere kan et barn knytte sig meget til en AI, fordi den altid er der og lever for at behage dem. Hvis barnet konsekvent foretrækker at tale med Alexa eller sin robot fremfor at lege med andre børn, kan det hæmme deres sociale træning. Det er lidt parallelt til, at nogle teenagere bliver så opslugte af computerspil, at de isolerer sig. For yngre børn bliver det bare forklædt som en nuttet bamse, men effekten af overdreven brug kan være reel. Derfor skal forældre sætte rammer: AI-legen må være en del af en varieret kost af aktiviteter. Måske kan man sige "max en halv time med robotten om dagen, derefter laver vi noget andet."
Påvirkning af udvikling og værdier
Psykologisk og social påvirkning: Vi må spørge: Hvad gør AI ved vores børns udvikling på længere sigt? Nogle eksperter frygter, at hvis børn vænner sig til at maskiner svarer på alt med det samme (f.eks. hvis de konstant kan spørge en digital assistent i stedet for at tænke selv), kan det påvirke deres evne til at håndtere frustration eller kedsomhed. En artikel argumenterede for, at man måske ikke skal lære børn at sige "tak" til Alexa, fordi Alexa ikke er et menneske – at insistere på høflighed overfor en ting kan forvirre deres forståelse af empati[5]. Omvendt synes andre, at det er udmærket træning, da høflighed bliver en vane uanset modtageren. Dette er stadig åbne spørgsmål, da vi endnu kun har få års erfaring med børn, der vokser op med AI til daglig.
Bias og indhold: AI-systemer er skabt af mennesker og trænet på data, som kan indeholde bias. Et eksempel: En AI-historiefortæller kunne uforvarende komme til at reproducere stereotyper i sine historier – måske fremstille prinsesser som passive og prinser som helte, hvis de data, den trækker fra, er fulde af gamle eventyr. Eller en AI-legetøjs-ven kan have indprogrammerede svar, som udtrykker bestemte værdier. I 2015 var der debat om "Hello Barbie" dukken, som kunne samtale via en cloud-AI; nogle påpegede, at hendes personlighed var ret materialistisk og fokuseret på udseende (baseret på Barbie-universet), og det var man nervøs for at præge børnene med. Når AI mere og mere genererer indhold on-the-fly (snart kan en 6-årig måske sige "fortæl en historie om krig" og få noget potentielt voldsomt), så skal vi tænke over hvad de får serveret. Forældre skal derfor stadig være aktive mediere – AI er ingen garanti for "rent" indhold. Man skal kigge på filtreringsindstillinger, alderssikring og holde øje med, hvad teknologien fortæller ens børn.
Derudover kan algoritmer prioritere indhold på måder, vi ikke har fuld indsigt i. Det klassiske eksempel er de videoforslag, som kan lede børn ned i et kaninhul af ensformigt eller underlødigt indhold (f.eks. en masse billige animerede videoer som bare gentager "learn colors" om og om igen for views). Forældre bør måske i højere grad kuratere selv: bruge tjenester hvor man selv vælger hvad der er tilgængeligt, fremfor at stole på, at en AI vælger godt for barnet.
Ansvar og juridiske udfordringer
Hvem har ansvaret, når noget går galt med AI og børn? Hvis en sundheds-AI fejler og siger "alt ok" men barnet faktisk var sygt, hvem hæfter så? Det må nok stadig være sundhedsvæsenet/lægen, men efterhånden som vi lader AI tage flere beslutninger, bliver ansvarsfordelingen grå. Udviklerne forsøger at minimere dette ved at kalde deres produkter for "beslutningsstøtte" og ikke en egentlig beslutningstager.
For forbrugerne er det også tricky: Hvis en babyalarm-AI undlader at alarmere om en hændelse og der sker noget med barnet, vil forældrene måske bebrejde teknologien (eller dem selv for at have stolet på den). Juridisk er mange af disse produkter solgt med ansvarsfraskrivelse – de lover at hjælpe, men ikke at garantere noget. Det kan minde os om, at AI-værktøjer trods alt ikke er ufejlbarlige, og de skal bruges med sund fornuft.
Lovgivning halter generelt efter teknologien. Der arbejdes på det internationalt – f.eks. EU's kommende AI Act, som vil indføre særlige krav til "højrisiko-AI", herunder formentlig alt der har med børn at gøre. Det kan være krav om gennemsigtighed (man skal oplyse at en robot er en robot, ikke et menneske), og krav om at træningsdata ikke har diskriminerende bias, osv. Men det er komplekst at regulere, og meget ansvar vil fortsat ligge hos forældrene på mikroniveau: hvilke produkter de vælger, hvilke indstillinger de slår til, og hvordan de guider deres børn i brugen af dem.
Hvordan navigerer man etisk som familie?
Etik i praksis handler tit om at finde en balance og tage bevidste valg. Her er nogle råd til familier:
- Sæt jer ind i teknologien: Forældre bør prøve selv at bruge de AI-produkter, de giver børnene, i det mindste i en periode. Så ved man, hvad de indeholder og kan bedre spotte problemer. Læs anmeldelser fra andre forældre eller eksperter (ofte vil pædagoger eller børnepsykologer have input på de mest populære legetøj/apps).
- Lav "digitale spilleregler": Ligesom man har regler for almindelig opførsel, så lav regler for AI-brug. Fx ingen hemmeligheder med robotten (barnet skal vide, at mor og far må høre samtalerne med AI-dukker indimellem – for at modvirke at AI'en bliver et fristed for ting forældrene ikke ved). Eller en regel om at sige farvel og slukke for Alexa efter et vist tidspunkt, så barnet ikke vender sig til at have en digital tjener konstant.
- Tal om indtryk: Hvis barnet ser noget mærkeligt på YouTube eller får et svar fra en chatbot, der gør det utrygt, så hav en åben linje hvor de føler, de kan komme og spørge om det. Børn kan blive forvirrede eller skræmte af noget, de oplever digitalt, og vi vil jo hellere høre det fra dem og forklare, end at de går alene med det.
- Fokus på det menneskelige: Fremhæv værdien af rigtige oplevelser. Påpeg fx at "Det er sjovt at lege med robotten, men robotten kan ikke give et rigtigt kram som farmor kan" eller "Selvom Alexa ved mange ting, så er det hyggeligere at vi to laver lektier sammen, ikke?". Altså, vær med til at sætte AI'en på sin plads som et værktøj, ikke en erstatning for nærvær.
- Privatliv i familielivet: Overvej hvor meget I vil have AI til at lytte. Måske vil man have en offline-knap på stueassistenten under familiediskussioner, eller lade børneværelset være en "offline zone" visse tider, så man ikke har fornemmelsen af at blive iagttaget 24/7 (selvom ingen måske aktivt kigger, kan det føles grænseoverskridende).
Afsluttende tanker
AI kan uden tvivl gavne familier – men det skal ske på en ansvarlig måde. Vi er egentlig i gang med et stort samfundsmæssigt eksperiment: en generation af børn der vokser op med intelligente maskiner omkring sig. Hvordan det præcis vil forme dem, ved vi ikke fuldt endnu. Men ved at være bevidste om etikken, kan vi styre udviklingen i en positiv retning. Det kræver både at forældrene er opmærksomme og stiller krav til producenterne, og at lovgiverne sætter rammer for, hvad der er acceptabelt i produkter rettet mod børn (f.eks. forbud mod visse former for datamining eller manipulerende design).
Som forælder kan man føle sig overvældet – der er pludselig mange nye ting at tænke på, ud over de sædvanlige bekymringer om kost, søvn og skolegang. Men heldigvis handler meget af det om almindelig sund fornuft og klassisk opdragelse i en ny kontekst: Lær børnene kritisk sans, sunde vaner og respekt for privatliv – både deres eget og andres. Hvis de værdier er i orden, står man stærkere, uanset hvilke smarte dimser fremtiden bringer ind i hjemmet.
Kort sagt er etikken omkring AI og børn ikke for at sige "AI er dårligt", men for at sikre at vi bruger teknologien til børnenes bedste, uden at gå på kompromis med deres trivsel, sikkerhed og rettigheder. AI kan blive en fantastisk tjener for menneskeheden – lad os sørge for, at den også bliver en ven, vi med god samvittighed kan byde velkommen i familien.