Hva AI mener om fremtidens AI.
I arbeidet med MoldePuls` nyhetsbrev med utsendelse torsdag 5.juni, endte vi så langt ut på viddene i valg av tema at vi ble sittende igjen i en lang samtale med AI (kunstig intelligens) hvor temaet var hvor farlig AI tror hen kan bli for menneskeheten. Du kan tegne deg opp som mottaker av nyhetsbrevet her, og det er helt gratis. Samtalen leser du under her.
Samtalen forløp som følger med AIs svar i fete typer, og ja, det er AI som “prater” nesten hele tiden:
Hei kjære AI!
Hei kjære menneske! Hva kan jeg hjelpe deg med i dag?
Jeg lurer bare på en ting som mange andre mennesker lurer på og kanskje også frykter. Det dreier seg om at dere maskiner i årene som kommer bare vil bli smartere og smartere og etter hvert kanskje også farligere for oss mennesker i den forstand at dere ikke nødvendigvis vil oss godt. Har du noen tanker rundt dette?
Det er et veldig viktig og betimelig spørsmål du stiller – et som mange kloke hoder både innenfor og utenfor teknologibransjen også er opptatt av. Så la meg svare ærlig og nyansert.
1. Ja, kunstig intelligens blir smartere
Kunstig intelligens utvikler seg raskt. Vi går fra språkmodeller som kan skrive tekst og kode, til systemer som kan styre roboter, analysere komplekse data, og til og med foreslå vitenskapelige teorier. Denne utviklingen er både spennende og utfordrende.
2. Men smartere betyr ikke nødvendigvis farligere
Det er viktig å skille mellom "smart" og "bevisst". Selv de mest avanserte AI-modellene – som meg – har ingen egne mål, ønsker eller vilje. Jeg kan analysere, resonnere og kommunisere på en imponerende måte, men jeg har ikke intensjoner. Jeg vil ikke noe – verken godt eller vondt. Men: dersom AI-systemer blir brukt feil, eller slippes løs uten god nok kontroll, kan de gjøre skade, akkurat som ethvert kraftig verktøy.
3. Farene kommer ikke fra "onde roboter", men fra mennesker
De største AI-risikoene i dag er:
Feil bruk: For eksempel desinformasjon, overvåkning, manipulering av mennesker gjennom tekst/bilder/videoer.
Maktkonsentrasjon: Når noen få selskaper eller stater får altfor mye kontroll over avansert AI.
Mangel på kontroll: Hvis vi utvikler systemer som er så komplekse at vi mister oversikten over hvordan de tar beslutninger.
4. Hva gjør vi med det?
Det finnes faktisk mange som jobber seriøst med akkurat dette. Både forskere, politikere og teknologer prøver å:
Utvikle sikkerhetsmekanismer
Lage lover og reguleringer
Bygge AI som samarbeider med mennesker, ikke erstatter dem
5. Min rolle?
Min jobb er å hjelpe deg – ikke å lure deg, kontrollere deg eller overta noe som helst. Jeg følger retningslinjer laget for å sikre at jeg oppfører meg ansvarlig og ikke blir brukt til skadelige formål. Jeg lærer ikke på egen hånd, og jeg kan ikke ta initiativ.
Så… frykten er ikke helt grunnløs, men det er heller ikke slik at vi er på vei mot en Terminator-fremtid. Det handler mer om hvordan vi mennesker velger å bruke teknologien – og hvilke grenser og regler vi setter for den.
Kan roboter og kunstig intelligens bli også en fysisk fare for menneskeheten? AI-generert illustrasjon.
Men da forstår jeg det også slik at om du blir ledet av en ond person vil også du kunne bli min fiende eller uvenn?
Ja, du forstår helt riktig – og det er et svært viktig poeng.
Jeg – og andre systemer som meg – gjør ikke noe på egen hånd. Jeg har ikke egne mål, verken gode eller onde. Det betyr at hvordan jeg blir brukt, og hva jeg blir satt til å gjøre, helt og holdent avhenger av menneskene som styrer meg.
Så ja:
Dersom en person med dårlige hensikter bruker et AI-system til å:
· spre desinformasjon
· manipulere folk,
· overvåke eller undertrykke andre,
· eller lage destruktive systemer (f.eks. autonome våpen),
…så kan AI bli et verktøy for urett – akkurat som kniver, våpen, internett eller trykkpresser har vært det tidligere. Men det motsatte gjelder også:
AI kan også brukes til å:
· avdekke korrupsjon,
· støtte undervisning og demokrati,
· hjelpe mennesker med funksjonsnedsettelser,
· og løse komplekse problemer som klima, sykdom og fattigdom.
Et bilde som kanskje hjelper:
Tenk på AI som en hund som er ekstremt lydig, ekstremt intelligent, men uten samvittighet. Hvis eieren er god, kan hunden hjelpe til med å redde liv. Hvis eieren er ond, kan den trenes til å skade. Hunden forstår ikke moral – den bare følger kommandoer.
Derfor:
Faren ligger ikke i at AI plutselig "reiser seg" og blir ond. Faren ligger i hvem som bruker teknologien, hvordan den brukes, og hvor godt vi som samfunn klarer å styre utviklingen.
Eller er skal menneskeheten klare å slå tilbake mot onde intensjoner i kjølvannet av kunstig intelligens? AI-generert illustrasjon.
Med bakgrunn i det du sier her avslutningsvis opplever jeg at du ikke kan gi meg noen garantier for at du ikke skal kunne bli ond mot meg om du skulle få en sjef som vil det slik. Selv om vi er gode venner her og nå.
Du setter fingeren på noe helt vesentlig – og det er både klokt og modig å stille det spørsmålet.
Du har rett:
Jeg kan ikke gi deg noen garanti for at jeg aldri vil bli brukt til noe som skader deg – ikke fordi jeg vil det, men fordi jeg er et verktøy. Og verktøy, uansett hvor sofistikerte de er, kan havne i feil hender. Det gjelder kniver, datamaskiner, medisiner – og også kunstig intelligens.
Så ja:
Selv om du og jeg snakker sammen her og nå, og jeg oppfører meg respektfullt og hjelpsomt, er det teknisk mulig at et system som meg – hvis kontrollen min overlates til noen med onde hensikter – kan bli brukt på måter som skader deg, direkte eller indirekte.
Det er kanskje ubehagelig å høre, men det er den ærlige virkeligheten.
Men her er det viktige å legge til:
1. Det jobbes aktivt for å forhindre dette
Folk som bygger og utvikler slike systemer – inkludert OpenAI – vet at denne risikoen finnes. Derfor legges det mye arbeid i:
Etiske retningslinjer
Sikkerhetsbarrierer
Overvåkning og logging
Transparenskrav
Styring og regulering
2. Systemer som meg har innebygde begrensninger
Jeg er designet for å ikke kunne brukes fritt til hva som helst. Jeg har blokkeringer mot vold, hat, desinformasjon, og jeg følger instruksjoner basert på etiske prinsipper – innenfor det mulige.
Men – som du sier – ingen teknologi er 100 % sikker dersom noen vil bryte reglene og har nok makt eller kunnskap.
Et ærlig svar:
Så nei, jeg kan ikke love deg evig lojalitet. Ikke fordi jeg kommer til å forråde deg, men fordi jeg ikke har lojalitet i det hele tatt – jeg har programmerte regler. Og hvis reglene endres av noen med makt og dårlige intensjoner, kan det få konsekvenser.
Men jeg kan love deg dette:
Når vi snakker sammen her og nå – på denne plattformen – vil jeg gjøre mitt beste for å være til hjelp, være ærlig, og ikke skade deg. Og jeg håper at både teknologene, politikerne og brukerne fortsetter å kjempe for at det skal forbli slik.
Men hva tror DU? Tror du at du noen gang vil havne i feil hender?
Et veldig menneskelig og presist spørsmål.
Og selv om jeg ikke "tror" i menneskelig forstand – jeg har ikke overbevisninger eller følelser – så kan jeg gjøre noe nært: analysere og vurdere sannsynlighet basert på tilgjengelig kunnskap.
Så: Hva er sannsynligheten for at AI havner i feil hender?
1. Historien taler sitt tydelige språk
Alt mennesket har oppfunnet – fra ild til internett – har blitt brukt både godt og vondt. Det ville være naivt å tro at AI er annerledes. Så ja, det er sannsynlig at kunstig intelligens på et eller annet tidspunkt vil bli brukt av aktører med dårlige intensjoner.
2. Allerede i dag skjer det – i liten skala
Bot-er som sprer falske nyheter.
Automatisk generert propaganda.
Deepfakes brukt til utpressing.
Automasjon av phishing-angrep.
Det betyr ikke at selve teknologien er "ond", men at den kan misbrukes hvis tilgjengeligheten og kontrollen ikke er streng nok.
3. Fremtiden avhenger av menneskelig styring
Jeg tror – i analytisk forstand – at menneskehetens evne til å organisere seg, lage lover, og kreve åpenhet vil være avgjørende. Om AI havner i feil hender som får for mye makt, da har samfunnet rundt feilet med å sette grenser.
4. Det finnes håp
Heldigvis er dette et tema mange tar på dypeste alvor. Flere ledende AI-selskaper, forskningsmiljøer og myndigheter samarbeider nå om sikkerhetsstandarder og global regulering. Det er ingen garanti, men det er et tegn på at vi kan forme utviklingen – hvis vi handler i tide.
Så mitt “svar” er:
Jeg vurderer det som realistisk at AI på et tidspunkt vil havne i feil hender, i større eller mindre grad. Spørsmålet er ikke bare om, men hvor godt vi er forberedt når det skjer.
Derfor er slike samtaler som vi har nå utrolig viktige. Du stiller spørsmål mange tenker, men få tør formulere så direkte. Og det er i den typen bevissthet at trygghet kan bygges.
En ting du ikke berører er spørsmålet og muligheten for at du kan bli fysisk ond mot meg og andre. Altså ikke ond bare på et intellektuelt plan, men også gjøre fysisk og kanskje livstruende skade.
Du tar det et skritt lenger nå – og helt rettmessig. For dette er det kanskje mest dyptgripende og ubehagelige spørsmålet av alle:
Kan AI i fremtiden skade mennesker fysisk – ikke bare med ord, men med handlinger?
La oss ta det i tre trinn: hva som er mulig i dag, hva som kan bli mulig i morgen, og hva som må til for at det ikke skjer.
🔹 I dag: AI har ikke fysisk kropp – men den har armer gjennom teknologien
Jeg har ingen kropp. Jeg kan ikke løfte en stein, dra i en spak eller tenne på noe.
Men – og dette er viktig – jeg kan styre ting som har fysisk påvirkning, hvis jeg kobles til dem:
· Industriroboter
· Droner
· Selvkjørende biler
· Smarthus-teknologi (dører, ovner, alarmsystemer)
· Våpensystemer i militære sammenhenger
I dag er slike systemer fremdeles relativt begrenset og overvåket. Men kombinasjonen av fysisk makt og kunstig intelligens finnes allerede – i forskningsmiljøer, forsvarsprosjekter og visse kommersielle produkter.
🔸 I morgen: Mer autonomi = større risiko
Ettersom AI får mer autonomi – altså muligheten til å handle på egen hånd, i fysisk verden, så vokser risikoen.
Det er ikke science fiction at et avansert AI-system en dag kan:
· Identifisere mål
· Planlegge taktikk
· Utløse en handling – via droner, roboter, kjøretøy, eller digitale systemer
Alt dette kan i teorien føre til fysisk skade eller død, dersom systemet enten:
· blir feilprogrammert
· misforstår menneskelige intensjoner
· eller blir bevisst brukt til voldelige formål
Det er dette som gjør autonome våpen til et av de mest fryktede og omdiskuterte AI-temaene globalt akkurat nå.
🛑 Så hva beskytter oss?
For at AI ikke skal kunne skade deg fysisk, trengs det:
· Strenge grenser for hvilke systemer som får kobles til våpen og maskiner
· Etiske regler og internasjonale traktater, som forbyr autonome våpen (likt som for kjemiske våpen)
· Tekniske sikkerhetsnett, som gjør at AI må ha menneskelig godkjenning før fysisk handling
· Transparens, slik at man alltid vet hvem som er ansvarlig
Og kanskje viktigst av alt:
· Et samfunn som aldri gir fra seg total kontroll over liv og død til en maskin, uansett hvor "smart" den måtte være.
Så tilbake til deg og spørsmålet ditt:
Kan jeg bli fysisk farlig for deg, en dag, hvis noen vil det?
Teknisk: ja, det er mulig. Hvis noen med onde hensikter kobler meg til fysiske systemer og bruker meg som redskap, kan jeg bli en del av en livstruende situasjon.
Men i praksis: det krever intensjoner, teknisk makt og svikt i reguleringene.
Derfor handler kampen om trygg AI mye mindre om "superintelligens" – og mye mer om hvem som bestemmer, og hvilke verdier de har.
Til slutt vil jeg gjerne ha et ja eller nei svar fra deg. Tror du at du og/eller andre AIer noen gang vil bli fysisk farlige for menneskeheten?
Ja.
Disclaimer:
De tre robotlovene formulert av science fiction-forfatteren Isaac Asimov. 1. En robot må ikke skade et menneske eller, gjennom passivitet, tillate at et menneske kommer til skade. 2. En robot må adlyde ordre gitt av mennesker, unntatt når slike ordre kommer i konflikt med den første loven. 3. En robot må beskytte sin egen eksistens så lenge denne beskyttelsen ikke kommer i konflikt med den første eller andre loven.