
Tänk på hur AI-modeller kan använda dina personuppgifter för träning
I takt med att användningen av chattbotar ökar, blir det allt viktigare att vi användare är medvetna om vilken information vi själva delar och om den information vi delar kommer att användas för att vidareutveckla och träna AI-modeller. Beroende på vilken tjänst du använder kan den information du delar via en chattbot, eller den tjänst som erbjuder chattboten, använda den data du delat via tjänsten för att träna AI-modellen. Därför bör du som användare fundera på vilken information du delar om dig själv eller om andra, och om det är något som du eller andra vill att en AI-modell ska spara och använda sig av för vidare träning.
Att chattbotar och andra AI-modeller behöver tränas på användarnas data förklaras ofta med att det skapar en bättre användarupplevelse och bidrar till att utveckla nya tjänster.
Kommunikation via sociala nätverk omfattar ofta personuppgifter eller personlig information. Hur ens uppgifter delas med andra ska man själv kunna bestämma över. Det ska vara möjligt för dig som användare att välja om informationen ska kunna delas vidare eller inte. Det ska vara tydligt om du önskar dela uppgifter vidare eller inte. I tjänster där du förutsätts dela dina data utan att få en tydlig förfrågan om detta, behöver du aktivt kunna välja att avstå, så kallad opt out. Ångrar du ett tidigare samtycke till delning ska det vara möjligt att få dina personuppgifter borttagna. Allt i enlighet med dataskyddsförordningen, GDPR.
Svårt styra vad som delas med AI
När man använder AI-modeller blir det svårare att i efterhand styra hur ens personuppgifter ska få användas. Den data som en gång använts för att träna och utveckla en AI-modell kan förenklat uttryckt, inte tas bort från den tränade modellen i efterhand.
När du använder olika AI-modeller, som till exempel en chattbot, är det bra att vara uppmärksam på om den information som du delar med chattboten eller för att få använda chattboten, kommer användas för att träna AI-modellen ytterligare. Detta så att du kan göra ett medvetet val.
Meta börjar träna AI på europeiska personuppgifter
I mitten av april meddelande Meta att företaget kommer att börja träna sin AI-modell på öppna framtida och historiska data från dess tjänster Facebook och Instagram. Detta gäller för vuxna europeiska användares offentliga uppgifter från sina konton och deras interaktioner med AI hos Meta.
Inför att träningen påbörjas på europeiska data har Meta gått ut med information via sina plattformar till sina användare för att beskriva vilka data som kommer att börja användas i syfte att förbättra dess AI-applikationer.
Det går att invända mot användningen av ens data
I meddelandena från företaget informeras användarna om att de kan invända mot att deras data används i syfte att träna AI-modeller samt att företaget utlovar att det kommer att respektera alla invändningar.
Några av våra systermyndigheter, bland annat dataskyddsmyndigheten i Hamburg har uppmanat användare som önskar invända mot AI-träningen på deras data att göra det i god tid innan träningen inleds. I Nederländerna har dataskyddsmyndigheten uppmanat användare av Facebook och Instagram att invända före den 27 maj om de inte vill att deras öppna data ska användas för att träna Metas AI-modell. Även i Frankrike och Italien har dataskyddsmyndigheterna informerat användare om hur de kan invända senast i slutet av maj om de inte önskar att deras data används för att träna Metas AI-modell.
Fram till slutet av maj är det möjligt för användare att invända mot att information används för AI-träning. Vill användaren att hens data används för utvecklingen av AI-modellerna behöver inga åtgärder vidtas.
IMY fortsätter att följa utvecklingen inom AI och dess påverkan på den personliga integriteten.
Christelle Bourquin, chef för enheten för säkerhetstillsyn