Kunstig intelligens og personvern – et komplekst landskap
Mens kunstig intelligens (KI) gir oss utrolige muligheter, står vi også overfor utfordringer når det gjelder personvern. KI-algoritmer lærer av store mengder data, inkludert sensitive personopplysninger, og dette kan true brukernes personvern. Denne artikkelen tar opp diskusjonen om hvordan vi kan sikre personvern i møte med KI, samtidig som vi nyttiggjør oss teknologiens potensial. Fra bekymringer rundt dataeksponering til juridiske og etiske implikasjoner, vi utforsker veien mot en balanse mellom innovasjon og personvern i den stadig mer digitale verdenen vi lever i.
Vi lever i en tid hvor Kunstig Intelligens (KI) er på sterk fremmarsj og med dette kommer også diskusjoner og refleksjoner rundt hvordan vi interagerer med teknologi med hensyn til personvern. Det er ingen tvil om at kunstig intelligens kan gjøre personlig data mer eksponert samtidig som det kan bidra til å beskytte dem.
De aller fleste algoritmene som brukes innen KI-modeller i dag vil lære ut fra all data som blir innført til den under opptreningsfasen for å kunne forutsi resultater: jo mer mengde av treningsdata desto bedre blir resultatet. Bak en såpass intelligent KI-modell som Chat GPT for eksempel, ligger det altså mye data fra millioner av ulike personer, inkludert sensitive personopplysninger. Det er denne enorme mengden data som gjør programvaren så dyktig, men skyggesiden er at personvernet til brukerne ikke er tilstrekkelig beskyttet. Dette kan føre til at sensitiv informasjon kommer på avveie og dermed at slik informasjon blir misbrukt på ulike måter.
Hvis personopplysninger kommer på avveie vil de kunne spres ubegrenset videre uten ditt samtykke eller sensitiv informasjon kan brukes for å få tilgang til dine digitale plattformer og kontoer, og dermed også få potensiell tilgang til flere persondata. Ettersom at enkelte KI-modeller bygger på statistikk over personopplysning, for eksempel økonomi, juridisk fortid, kjønn, alder og nasjonalitet, vil de ved bruk i beslutningsprosesser kunne tolkes diskriminerende ettersom at systemet vil være partisk eller biased, og den vil dermed ikke ta hensyn til individets særegne situasjon og egenskaper.
I dagens digitaliserte verden står personvern høyt på agendaen både på individuelt og statlig nivå. På grunn av bekymring rundt personvern er KI-modeller som Chat GPT blitt kritisert av mange. Et eksempel på et land som har tatt grep for å sikre innbyggernes personvern i møte med KI er Italia. Etaten for personvern i dette landet (Garante per la protezione dei Dati Personali) innførte i år tiltak for å sikre at OpenAI (selskapen bak Chat GPT) ikke kunne bruke sine tjenester i landet, da modellene som Chat GPT er basert på personopplysningene til millioner av italienerne. Dette tiltaket kan ha noe for seg ifølge Tobias Judin, seksjonsleder for internasjonal avdeling hos Datatilsynet, som påpeker at det vil være høyst problematisk om modeller som Chat GPT har brukt hvilken som helst eksisterende data på internett som den kunne finne, inkludert persondata.
Ikke bare Italia har reagert, også en rekke andre land og ikke minst EU har gjort tiltak, innført lover og utført risikovurderinger. Sistnevnte handler som å vurdere i hvilken grad KI-modeller utgjør en etisk og juridisk risiko for samfunnet. Dette innebærer ikke bare at programvarer som Chat GPT er under lupen, men også måten man driver business på når det gjelder store data (Big Data). De som jobber med, for eksempel, maskinlæring må dermed tilpasse seg den nye virkeligheten, og dette kan medføre at utvikling av maskinlæringsmodeller ikke kan gjøres like effektivt som før. Selv om det innføres juridiske begrensninger, vil utviklingen av kunstig intelligens fortsette. De nye lovene innebærer at utviklere nå må trene sine modeller på en mer etisk måte, og at teknologiske bedrifter følger den europeiske lovbestemmelsen om personvern (GDPR).
Utfordringen fremover vil dermed bli å finne en balansegang mellom god etikk og sikkerhet versus innovasjon og utvikling for å skape et best mulig landskap for møtet mellom kunstig intelligens og personvern.
Kontakt:
Jorge Hernandez
Data Scientist
EYD
E-post: jorge.hernandez@eyd.tech
Telefon: + 47 94 19 20 08