MDG ønsker at Norge vedtar regulering for kunstig intelligens på områder der det har god effekt og er mest mulig i forkant av utviklingen. EU jobber med Artificial Intelligence Act som skaper et rammeverk for regulering av kunstig intelligens. MDG støtter den politiske viljen på tvers av partier for raskest mulig innføring av EUs AI Act i Norge, hvor f.eks. digitaliseringsminister Karianne Tung (Ap) lover hurtigspor for innføring av loven i Norge.
Merk at vi allerede har noe lovgiving som søker å avverge urettferdig behandling av mennesker gjennom kunstig intelligens. Spesielt sikrer i dag personopplysningsloven/GDPR artikkel 22 “rett[en] til ikke å være gjenstand for en avgjørelse som utelukkende er basert på automatisert behandling [som] i betydelig grad påvirker vedkommende”.
Dette er et godt grunnlag for å sikre at mennesker ikke blir utsatt for urettferdig behandling, men nyere utvikling viser at også avgjørelser som er støttet av automatisert behandling kan bli urettferdig, fordi de baserer seg på et datagrunnlag som allerede er diskriminerende, og som dermed forsterkes ved automatisert bruk. I fremtiden vil vi også være gjenstand for mange automatiske avgjørelser som hver for seg kan virke ubetydelig, men som i sum kan marginalisere enkeltmennesker.
Norge bør derfor videreutvikle lovverket for å regulere kunstig intelligens på en måte som balanserer sikkerhet og verdiskaping. Veldokumenterte standarder som IEEE og FNs menneskerettigheter er gode utgangspunkt for norsk regulering.
MDG vil:
Kunstig intelligens vil forrykke maktbalansen i samfunnet. Virksomheter som investerer i kunstig intelligens kan få en stor del av gevinstene, mens arbeidere som blir gjort overflødige vil tape. De som ikke evner å holde seg oppdatert på den teknologiske utviklingen risikerer å havne utenfor. Offentlige organisasjoner i Norge og andre land som bruker kunstig intelligens kan utøve stor kontroll over enkeltmennesker som vil ha vanskelig for å motsette seg.
MDG vil:
Man sier ofte at risiko er kombinasjonen av sannsynlighet for at noe skjer, og konsekvensen av at det skjer. For eksempel vil noe svært usannsynlig (som en atomkrig) likevel ha substansiell risiko fordi konsekvensen er så høy.
Kunstig intelligens gir rom for nye alvorlige konsekvenser. Fiendtlige makter eller kriminelle organisasjoner kan for eksempel benytte kunstig intelligens til krigsroboter og til å spre falsk informasjon med hensikt å forvirre, påvirke eller svindle folk. Slike informasjonsangrep kan bli så omfattende og avanserte at det blir vanskelig å skille fakta fra fabrikasjon. I tillegg kan kunstig intelligens medføre en risiko for slutten på menneskehetens eksistens, dersom ukontrollert kunstig intelligens overgår menneskelig intelligens (jf. “alignment problem” beskrevet i fotnote 1 og ekspertuttalelsene i fotnote 2).
Samtidig øker kunstig intelligens sannsynligheten for alvorlige konsekvenser. Kunstig intelligens senker den faglige terskelen for utvikling av våpensystemer i alle former, noe som gjør at flere folk får tilgang til slike systemer.
Noen av disse utfordringene adresseres i EUs AI Act som forbyr noen typer kunstig intelligens-systemer. EUs AI Act forbyr for eksempel systemer som manipulerer folks oppførsel på måter som forårsaker skade og systemer som brukes av myndigheter til sosiale kredittsystemer.
Enkelte andre utfordringer forsøker EU å dekke i Digital Services Act. De store tech-selskapene har bidratt til spredning av villedende innhold gjennom algoritmer basert på kunstig intelligens. Disse selskapene blir pålagt å gjennomføre risikoanalyser og risikoreduserende tiltak.
I tillegg er EU i startfasen på arbeid for å motvirke avhengighetsskapende teknologiprodukter, hvor kunstig intelligens brukes for å holde brukere på teknologiplattformene lengst mulig. Europaparlamentet mener at AI Act og Digital Services Act er utilstrekkelige for å løse utfordringene med avhengighetsskapende design og algoritmer.
MDG legger føre-var-prinsippet til grunn og er positive til både nevnte initiativer fra EU og globalt samarbeid. I tillegg trenger Norge nasjonale tiltak for redusere samfunnsrisikoen ved kunstig intelligens.
MDG vil: