Home / Kunstig Intelligens  / AI-sikkerhet: Storbritannia og USA inngår milepælsavtale

AI-sikkerhet: Storbritannia og USA inngår milepælsavtale

Storbritannia og USA har inngått en banebrytende avtale om å samarbeide om testing av avansert kunstig intelligens (AI).

 

Ifølge avtalen som ble undertegnet mandag, skal de to landene samarbeide om å utvikle “robuste” metoder for å evaluere sikkerheten til KI-verktøy og systemene som ligger til grunn for dem.

 

Det er den første bilaterale avtalen i sitt slag.

 

Storbritannias teknologiminister Michelle Donelan sier at dette er “den viktigste teknologiske utfordringen i vår generasjon”.

 

“Vi har alltid vært tydelige på at sikker utvikling av kunstig intelligens er et felles globalt anliggende”, sa hun.

 

“Det er bare ved å samarbeide at vi kan håndtere risikoene ved denne teknologien og utnytte dens enorme potensial til å hjelpe oss alle til å leve enklere og sunnere liv.”

 

Statssekretæren for vitenskap, innovasjon og teknologi la til at avtalen bygger på forpliktelsene som ble inngått på AI Safety Summit i Bletchley Park i november 2023.

 

På arrangementet, der AI-sjefer som Sam Altman fra OpenAI, Demis Hassabis fra Google DeepMind og teknologimilliardæren Elon Musk deltok, opprettet både Storbritannia og USA AI Safety Institutes som skal evaluere AI-systemer med åpen og lukket kildekode.

 

Selv om det har vært stille på AI-sikkerhetsfronten siden toppmøtet, har det vært svært travelt i AI-sektoren.

 

Konkurransen mellom de største AI-chatbotene – som ChatGPT, Gemini og Claude – er fortsatt knallhard.

 

De nesten utelukkende USA-baserte selskapene som står bak all denne aktiviteten, samarbeider fortsatt om regulering, men tilsynsmyndighetene har ennå ikke lagt bånd på noe av det disse selskapene prøver å oppnå.

 

Myndighetene har heller ikke krevd tilgang til informasjon som AI-selskapene ikke er villige til å dele, for eksempel data som brukes til å trene opp verktøyene eller miljøkostnadene ved å drive dem.

 

EUs AI-lov er på vei til å bli lov, og når den trer i kraft, vil den kreve at utviklere av visse AI-systemer er åpne om risikoen og deler informasjon om dataene som brukes.

 

Dette er viktig etter at OpenAI nylig sa at de ikke ville offentliggjøre et stemmekloningsverktøy de har utviklet, på grunn av de “alvorlige risikoene” teknologien utgjør, særlig i et valgår.

 

I januar ble velgerne i New Hampshire oppfordret til å droppe primærvalget i en falsk, AI-generert telefonsamtale som utga seg for å være fra USAs president Joe Biden.

 

Bekymringer knyttet til kunstig intelligens

 

Foreløpig er de fleste AI-systemer bare i stand til å utføre enkelte intelligente oppgaver som vanligvis ville blitt utført av et menneske.

 

Disse oppgavene, som er kjent som “smal” KI, kan være alt fra å analysere data raskt til å gi et ønsket svar på en ledetekst.

 

Men det er frykt for at mer intelligente “generelle” AI-verktøy – som kan utføre en rekke oppgaver som vanligvis utføres av mennesker – kan sette menneskeheten i fare.

 

“AI kan, i likhet med kjemisk vitenskap, kjernefysisk vitenskap og biologisk vitenskap, brukes som våpen og brukes på godt og vondt”, sier professor Sir Nigel Shadbolt til BBCs Today-program.

 

Men professoren fra University of Oxford mener at frykten for AIs eksistensielle risiko “noen ganger er litt overdrevet”.

 

“Vi må virkelig støtte og sette pris på arbeidet med å få de store AI-kreftene til å tenke på og forske på farene”, sa han.

 

“Vi må forstå hvor sårbare disse modellene er, og også hvor kraftige de er.”

 

Gina Raimondo, USAs handelsminister, sa at avtalen vil gi myndighetene en bedre forståelse av AI-systemer, slik at de kan gi bedre veiledning.

 

“Det vil akselerere begge instituttenes arbeid på tvers av hele spekteret av risikoer, enten det er for vår nasjonale sikkerhet eller for samfunnet generelt”, sier hun.

 

“Partnerskapet gjør det klart at vi ikke løper fra disse problemene – vi løper mot dem.”