Page 13 - Forskningsetikk 2-2023
P. 13

   Illustrasjonsfoto: Shutterstock
Skriver artikler på samle- bånd med ChatGPT
Språkmodeller basert på kunstig intelligens (KI) skaper både stor bekymring og begeistring. Forsker Som Biswas befinner seg helt klart i den siste gruppa.
Hvis ChatGPT kan brukes til å skrive fortellinger og vitser, hvorfor ikke bruke den til forsk-
ning eller publisering av seriøse artikler? Det var radiolog Som Biswas’ umiddel- bare tanke da chatboten fra OpenAI slo ned som en bombe i november 2022, ifølge nettavisen The Daily Beast.
Forskeren ved University of Tennessee Health Science Center i USA og tjenesten inngikk et uvanlig samarbeid: Han matet ChatGPT med stadig nye spørsmål og fikk utfyllende svar. Etter få måneder kom det første resultatet på trykk i tidsskriftet Radiology: kommentarartikkelen «ChatGPT and the Future of Medical Writing».
Biswas legger ikke skjul på tilblivelsen: «Som den menneskelige forfatter av denne artikkelen vil jeg erklære at størsteparten av denne artikkelen er skrevet av GPT», heter det innledningsvis.
Fest setebeltet!
Med chatbotens hjelp har Biswas skrevet med lynets hastighet, og i mai var han allerede oppe i 20 artikler så langt i år.
Stefan Duma, redaktør for Annals of Biomedical Engineering, har merket en dramatisk økning i tilstrømmingen av
TEKST ELIN FUGELSNES artikler etter chatbotens inntog. Mange
har blitt avvist på grunn av dårlig kvalitet. Flere kommentarartikler (Letters to the Editor), deriblant to fra Biswas, har imidlertid sluppet gjennom, ifølge The Daily Beast.
Duma er overbevist om at verktøy som ChatGPT vil bli stadig viktigere i livet vårt: Folk må feste setebeltet og gjøre seg klare, sier han.
Ikke til å stole på
Utviklingen av avansert kunstig intelligens er så rask at den utgjør en «grunnleg- gende fare for samfunnet og menneskehe- ten», het det i et opprop i mars. KI-mo- deller raskere enn GPT4 må settes på vent i minst seks måneder, krevde teknologile- dere og forskere på feltet. OpenAI responderte med en midlertidig stans i utviklingen av GPT5.
I forskningens og formidlingens verden handler skremmescenarioet om tekster fulle av plagiat, faktafeil eller usanne påstander. Og deretter en oppsmuldring av tilliten til både forskning og akademisk publisering.
KI-Forsker Inga Strümke ved NTNU har nylig gitt ut boka Maskiner som tenker.
Til Magasinet Forskningsetikk understre- ker hun at språkmodeller har en rekke begrensninger, blant annet når det kom- mer til sannhet.
– De hadde sikkert passert Turing-tes- ten og kunne overbevist et menneske om at det snakket med et intelligent vesen. Men kan vi bruke dem som kilde til informasjon? Da er svaret et rungende nei. De er lagd for å være samtalepartnere, sier hun.
I en lederartikkel i Tidsskrift for Den norske legeforening advarer redaktør Are Brean om at chatbotens imponerende evner lett kan «forføre leseren til å stole mer på teksten enn det er grunnlag for». Bruken av teknologien må fortsatt både utvikles, diskuteres og reguleres, under- streker han.
Annals of Biomedical Engineering og redaktør Dumas har allerede tatt grep: Nylig innførte tidsskriftet retningslinjer som forbyr språkmodeller å være oppført som medforfattere. Slike artikler får heller ikke publiseres som vitenskapelige arti- kler.
  FORSKNINGSETIKK | NR. 2 | 2023 13













































































   11   12   13   14   15