Page 16 - Forskningsetikk 3-2023
P. 16

  – Det er lett å prate om etikk, og det bygger legitimitet, sier teknologifilosof og senterleder Anders Braarud Hanssen.
  – Beslutninger om kunstig intelligens blir ofte tatt i private fora, sier professor Kjetil Rommetveit. Foto: privat.
  Rot i sysakene
Anders Braarud Hanssen ved NTNU er teknologifilosof og leder Senter for digitalt liv Norge. Han mener det er viktig å forstå at kunstig intelligens, på et helt grunn­ leggende nivå, ikke er en nøytral eller objektiv databehandler.
– Algoritmene som utvikles, og data­ settene som brukes til å trene dem, er ikke nøytrale. De har ulike typer forutinntatt­ het. Dette trenger ikke være et problem, om vi vet hva antagelsene er. Det kan raskt bli et stort problem om vi ikke vet, sier han.
Hanssen tror alle aktørene, inkludert forskerne, må tvinges til å pakke ut sine antagelser, både faglige og verdimessige, hvis kunstig intelligens skal utvikles på en ansvarlig måte.
– Jeg er ikke optimist. Om 10–15 år tror jeg vi kommer til å kjenne på at vi ikke hadde orden i sysakene, altså at det ikke var en god dialog mellom forvaltnin­ gen og forskningsmiljøene bak kunstig intelligens, sier Hanssen.
Må ikke få sitte i fred
– Forskningsetikken er veldig viktig, og vi trenger den i dag enda mer enn før, men den er ikke nok. Vi trenger sterkere verktøy, mener teknologifilosofen.
Han mener det er sentralt å øke forskningsmiljøenes forståelse av at de må lytte til andre stemmer og narrativer rundt teknologiutvikling enn de har pleid å gjøre – for eksempel brukere, sårbare grupper eller folk i interesse­ organisasjoner.
– Etikken er teoribasert. Vi kan heller kalle det et moralsk ansvar. Forskere og utviklere må ikke få sitte på kontorene eller laboratoriene sine i fred, slik de kanskje aller helst vil. Vi kan ikke stole på at de fokuserer nok på usikkerhet, for det er ikke i deres interesse, sier Hans­ sen.
Kjetil Rommetveit er professor ved Senter for vitenskapsteori ved UiB og forsker på politisk styring gjennom store digitale systemer. Han er helt enig i at veien å gå er samarbeid på tvers – av både fag, samfunnssektorer og stater.
– Dette må løftes opp på et kollektivt nivå, så vi får til en form for forpliktende regulering som virker på tvers av de som utvikler, finansierer, implementerer, bruker og regulerer kunstig intelligens, sier han.
Forskningsetikken er veldig viktig, og vi trenger den mer enn før, men den er ikke nok. Vi trenger sterkere verktøy.
Anders Braarud Hanssen
I en situasjon hvor sterke aktører posisjonerer seg geopolitisk, er det ikke så enkelt å se for seg hvordan dette skal skje.
– Jeg ser konturene av noe nytt i for­ søkene på å designe etikk inn i infrastruk­ turen gjennom standardiseringsprosesser, som for eksempel i EUs personvernfor­ ordning (GDPR) og i forslaget til EUs lov om kunstig intelligens, sier Rommetveit.
Forslaget forsøker å få i stand en risiko­ vurdering basert på teknologiens konkrete anvendelser. Ulike typer teknologi er gradert fra minimal risiko til uakseptabel risiko. I den siste kategorien finner vi for
eksempel kognitiv manipulasjon, sosial rangering og ansiktsgjenkjenning.
– Dette forutsetter imidlertid at offent­ lige institusjoner har en makt som de kanskje ikke har, siden feltet er så sterkt preget av private aktører som gjerne handler i samsvar med militære interesser og lignende, forklarer Rommetveit.
Ned på jorda
Både Hanssen og Rommetveit mener et viktig første skritt er å få bukt med tekno­ logideterminismen. Dette er forestillingen om at den teknologiske utviklingen dundrer i vei, og at vi bare må henge med for å unngå å sakke akterut.
På dette punktet er parallellen til Oppenheimer og Manhattan­prosjektet tydelig. Mange forskere ble med fordi de trodde de var i et kappløp med fysikere i Tyskland.
Ulike aktører kan ha en egen interesse av å opprettholde et slikt bilde.
– Forslaget om et moratorium på utvikling av kraftig kunstig intelligens var ikke helt troverdig, fordi man snakket om at kunstig intelligens kan ta over verden eller utslette menneskeheten. Det nærmer seg science fiction og tilskriver teknolo­ gien en veldig stor makt, sier Rommetveit.
Han tror slik oppblåsning bidrar til å fremme agendaen til aktører som signerte oppropet, samtidig som det får dem til å fremstå som ansvarlige.
– De enorme dystopiene og utopiene bygger opp under teknologideterminis­ men og skaper resignasjon og en følelse av avmektighet. Dette tar oppmerksomheten bort fra de mer jordnære problemene som er potensielt farlige, sier Rommetveit.
Rommetveit mener det er viktig å huske at teknologien ikke lever sitt eget liv, men at det alltid er menneskelige prosesser i bakgrunnen.
– Det er disse vi bør se på. Her er det dypt problematiske ting, sier han.
Spørsmålet er hvem som skal legge til rette for dette. Hanssen beskriver et forskningspolitisk vakuum.
– Nå mangler øremerkede midler til RRI­forskning. De etiske, juridiske og samfunnsmessige aspektene skal integre­ res mer i alle forskningsprosjekter,
i strategiene til forskningsinstitusjonene, og i selve teknologiutviklingen. Den politiske evnen til å få dette til å skje, er lav, konstaterer han.
16 FORSKNINGSETIKK | NR. 3 | 2023


































































   14   15   16   17   18