Politikk | Resolusjoner | Regulering som sikrer human kunstig intelligens

Regulering som sikrer human kunstig intelligens

Vedtatt resolusjon 16.mars 2024, LS-1.24

MDG ønsker at Norge vedtar regulering for kunstig intelligens på områder der det har god effekt og er mest mulig i forkant av utviklingen. EU jobber med Artificial Intelligence Act som skaper et rammeverk for regulering av kunstig intelligens. MDG støtter den politiske viljen på tvers av partier for raskest mulig innføring av EUs AI Act i Norge, hvor f.eks. digitaliseringsminister Karianne Tung (Ap) lover hurtigspor for innføring av loven i Norge. 

Merk at vi allerede har noe lovgiving som søker å avverge urettferdig behandling av mennesker gjennom kunstig intelligens. Spesielt sikrer i dag personopplysningsloven/GDPR artikkel 22 “rett[en] til ikke å være gjenstand for en avgjørelse som utelukkende er basert på automatisert behandling [som] i betydelig grad påvirker vedkommende”.

Dette er et godt grunnlag for å sikre at mennesker ikke blir utsatt for urettferdig behandling, men nyere utvikling viser at også avgjørelser som er støttet av automatisert behandling kan bli urettferdig, fordi de baserer seg på et datagrunnlag som allerede er diskriminerende, og som dermed forsterkes ved automatisert bruk. I fremtiden vil vi også være gjenstand for mange automatiske avgjørelser som hver for seg kan virke ubetydelig, men som i sum kan marginalisere enkeltmennesker.

Norge bør derfor videreutvikle lovverket for å regulere kunstig intelligens på en måte som balanserer sikkerhet og verdiskaping. Veldokumenterte standarder som IEEE og FNs menneskerettigheter er gode utgangspunkt for norsk regulering.

MDG vil:

  • At implementasjonen av tiltakene i EUs AI Act starter allerede før loven trer i kraft. Det innebærer spesielt å kategorisere bruk av kunstig intelligens etter risikogrupper, at høy-risiko kunstig intelligens følger krav om databehandling, teknisk dokumentasjon og mer, og å kreve at tekst, video, musikk og bilder som er generert av kunstig intelligens blir tydelig merket for brukeren. I tillegg innebærer det at Norge innfører tilsyn for å overholde tiltakene i EUs AI Act.
  • At tilsyn med kunstig intelligens i Norge samles i ett tilsynsorgan med overordnet ansvar, så ansvaret ikke spres mellom flere organer.
  • At Norge gjennomfører en digital lovvask for å avdekke hvorvidt eksisterende forskrifter og regelverk er tilstrekkelig utformet for å sikre vårt samfunns verdier i møte med den nye utviklingen. Dette gjelder for eksempel offentlighetsloven og arkivloven.
  • At opphavspersoner skal kunne begrense bruk av sine åndsverk til trening av kunstig intelligens.
  • At beslutninger med (moderate eller vesentlige) konsekvenser for enkeltpersoner ikke skal påvirkes av automatiske vurderinger, med mindre disse vurderingene er transparente for den enkelte. Dette innebærer en forsterkning av GDPR artikkel 22 om vern mot automatiske individuelle avgjørelser.
  • At automatiserte beslutningsprosesser som påvirker mennesker er transparente og mulig å ettergå.

Rettferdig fordeling av verdien av kunstig intelligens

Kunstig intelligens vil forrykke maktbalansen i samfunnet. Virksomheter som investerer i kunstig intelligens kan få en stor del av gevinstene, mens arbeidere som blir gjort overflødige vil tape. De som ikke evner å holde seg oppdatert på den teknologiske utviklingen risikerer å havne utenfor. Offentlige organisasjoner i Norge og andre land som bruker kunstig intelligens kan utøve stor kontroll over enkeltmennesker som vil ha vanskelig for å motsette seg.

MDG vil:

  • Innføre en ny samfunnskontrakt for en ny tid i henhold til tidligere resolusjon. 
  • At Norge investerer i utdanning innen teknologifag og etterutdanning for å sikre at de som får sine yrker endret av kunstig intelligens får nye muligheter.
  • At alle norske språk får gode språkmodeller, slik at norske borgere får fullverdig verdi av verdiskapningen.
  • At samfunnsutviklingen tar hensyn til de som ikke kan eller vil delta i det digitale rom gjennom for eksempel universell utforming av digitale offentlige tjenester.  
  • At lover, kartdata, statistikk og andre datasett som eies av det offentlige skal kunne benyttes til trening av kunstig intelligens slik at det offentlige som helhet skal kunne tilby en bedre forvaltning av innbyggernes behov.
  • Utrede hvordan Norge kan sikre mer demokratisk utvikling og tilgang til kunstig intelligens for å motvirke at utviklingen drives av få markedsledende aktører med unik kapitaltilgang. Det kan for eksempel innebære norsk offentlig infrastruktur for kunstig intelligens eller at Norge lener seg på EUs initiativer for felles europeisk infrastruktur for kunstig intelligens.

Alvorlig samfunnsrisiko ved kunstig intelligens

Man sier ofte at risiko er kombinasjonen av sannsynlighet for at noe skjer, og konsekvensen av at det skjer. For eksempel vil noe svært usannsynlig (som en atomkrig) likevel ha substansiell risiko fordi konsekvensen er så høy. 

Kunstig intelligens gir rom for nye alvorlige konsekvenser. Fiendtlige makter eller kriminelle organisasjoner kan for eksempel benytte kunstig intelligens til krigsroboter og til å spre falsk informasjon med hensikt å forvirre, påvirke eller svindle folk. Slike informasjonsangrep kan bli så omfattende og avanserte at det blir vanskelig å skille fakta fra fabrikasjon. I tillegg kan kunstig intelligens medføre en risiko for slutten på menneskehetens eksistens, dersom ukontrollert kunstig intelligens overgår menneskelig intelligens (jf. “alignment problem” beskrevet i fotnote 1 og ekspertuttalelsene i fotnote 2).

Samtidig øker kunstig intelligens sannsynligheten for alvorlige konsekvenser. Kunstig intelligens senker den faglige terskelen for utvikling av våpensystemer i alle former, noe som gjør at flere folk får tilgang til slike systemer.

Noen av disse utfordringene adresseres i EUs AI Act som forbyr noen typer kunstig intelligens-systemer. EUs AI Act forbyr for eksempel systemer som manipulerer folks oppførsel på måter som forårsaker skade og systemer som brukes av myndigheter til sosiale kredittsystemer.

Enkelte andre utfordringer forsøker EU å dekke i Digital Services Act. De store tech-selskapene har bidratt til spredning av villedende innhold gjennom algoritmer basert på kunstig intelligens. Disse selskapene blir pålagt å gjennomføre risikoanalyser og risikoreduserende tiltak. 

I tillegg er EU i startfasen på arbeid for å motvirke avhengighetsskapende teknologiprodukter, hvor kunstig intelligens brukes for å holde brukere på teknologiplattformene lengst mulig. Europaparlamentet mener at AI Act og Digital Services Act er utilstrekkelige for å løse utfordringene med avhengighetsskapende design og algoritmer. 

MDG legger føre-var-prinsippet til grunn og er positive til både nevnte initiativer fra EU og globalt samarbeid. I tillegg trenger Norge nasjonale tiltak for redusere samfunnsrisikoen ved kunstig intelligens.

MDG vil:

  • At modeller av høy risiko må registreres og godkjennes hos et tilsyn for kunstig intelligens før anvendelse
  • At Norge støtter opp om internasjonalt samarbeid for regulering, sikkerhet, og tilsyn for å motarbeide internasjonal og human risiko knyttet til kunstig intelligens. For eksempel vil vi at Norge bidrar i samarbeid om et internasjonalt tilsyn for sikker kunstig intelligens.
  • At Norge støtter EUs innledende arbeid for å regulere avhengighetsskapende teknologiprodukter. MDG ber også regjeringen starte gjennomføringen av EUs regulering av avhengighetsskapende teknologiprodukter parallelt med pågående forhandlinger i EU. 
  • Styrke forskningen på evnene til, og etiske konsekvenser av, autonom kunstig intelligens for å klarlegge faktisk tilstand og utvikling på teknologien. I tillegg vil vi styrke forskningen på trygg kunstig intelligens og forklarbarhet – altså hvordan forklare hvorfor en modell oppfører seg som den gjør.
  • Bevilge midler til etterretningstjenesten og PST for å øke etterforskning av påvirkningsoperasjoner og svindelforsøk med bruk av maskingenerert informasjon.

Se også