Home / Featured  / Igor Jablokov, Pryon: Å bygge en ansvarlig AI-fremtid

Igor Jablokov, Pryon: Å bygge en ansvarlig AI-fremtid

Kritiske etiske utfordringer innen KI

“Det finnes ikke bare én, men kanskje nesten 20 av dem”, sa Jablokov da han ble spurt om de mest kritiske etiske utfordringene. Han skisserte en rekke potensielle fallgruver som man må navigere forsiktig i – fra AI-hallusinasjoner og utslipp av usannheter, til brudd på personvernet og lekkasjer av immaterielle rettigheter som følge av opplæring på proprietær informasjon.

 

Ifølge Jablokov er skjevheter og fiendtlig innhold som siver inn i opplæringsdata, en annen stor bekymring. Sikkerhetshull som innebygde agenter og prompt injection-angrep står også høyt på listen over bekymringer, i tillegg til det ekstreme energiforbruket og klimapåvirkningen fra store språkmodeller.

 

Pryons opprinnelse kan spores tilbake til de tidligste spirene til moderne kunstig intelligens for over to tiår siden. Jablokov ledet tidligere et avansert AI-team hos IBM, der de utviklet en primitiv versjon av det som senere skulle bli Watson. “De ga ikke grønt lys for det. Så i frustrasjon forlot jeg dem og etablerte vårt siste selskap”, forteller han. Dette selskapet, som også het Pryon på den tiden, ble senere Amazons første AI-relaterte oppkjøp, og ga opphav til det som i dag er Alexa.

 

Den nåværende inkarnasjonen av Pryon har hatt som mål å konfrontere AIs etiske dilemmaer gjennom ansvarlig design med fokus på kritisk infrastruktur og viktige bruksområder. “[Vi ønsket] å skape noe som er bevisst herdet for mer kritisk infrastruktur, viktige arbeidstakere og mer seriøse aktiviteter”, forklarte Jablokov.

 

Et nøkkelelement er å tilby bedriftene fleksibilitet og kontroll over datamiljøene sine. “Vi gir dem valgmuligheter når det gjelder hvordan de bruker plattformene sine … fra offentlig nettsky med flere leietakere, til privat nettsky eller lokalt”, sier Jablokov. Dette gjør det mulig for organisasjoner å skjerme svært sensitive data bak sine egne brannmurer når det er nødvendig.

 

Pryon legger også vekt på forklarbar AI og verifiserbar attribusjon av kunnskapskilder. “Når plattformen vår avslører et svar, kan du trykke på det, og den går alltid til den underliggende siden og fremhever nøyaktig hvor den har hentet informasjonen fra”, beskriver Jablokov. Dette gjør det mulig for mennesker å validere kunnskapens opprinnelse.

 

På noen områder, som energi, produksjon og helsevesen, har Pryon implementert menneskelig tilsyn før AI-generert veiledning sendes til frontlinjearbeiderne. Jablokov viste til et eksempel der “veiledere kan dobbeltsjekke resultatene og i praksis gi dem et godkjenningsmerke” før informasjonen når ut til teknikerne.

 

Sikre ansvarlig AI-utvikling

Jablokov tar sterkt til orde for et nytt regelverk for å sikre ansvarlig utvikling og bruk av kunstig intelligens. Han hilser Det hvite hus’ nylige dekret velkommen som en start, men uttrykker samtidig bekymring for risikoer knyttet til generativ AI, som hallusinasjoner, statiske treningsdata, datalekkasje, manglende tilgangskontroll, opphavsrettslige problemer og mer.

 

Pryon har vært aktivt involvert i disse diskusjonene om regelverket. “Vi kanaliserer til en rekke offentlige etater”, sier Jablokov. “Vi bidrar aktivt med våre perspektiver på regelverket etter hvert som det rulles ut … Vi stiller opp ved å uttrykke noen av de risikoene som er forbundet med generativ AI-bruk.”

 

Når det gjelder potensialet for en ukontrollert, eksistensiell “AI-risiko” – som enkelte AI-ledere har advart mot – slo Jablokov an en relativt optimistisk tone når det gjelder Pryons styrte tilnærming: “Vi har alltid jobbet for verifiserbar attribusjon … ved å trekke ut virksomheters eget innhold slik at de forstår hvor løsningene kommer fra, og så kan de bestemme om de vil ta en beslutning med det eller ikke.”

 

Konsernsjefen distanserte Pryons oppdrag fra den nye avlingen av åpne samtaleassistenter med kunstig intelligens, hvorav noen har skapt kontroverser rundt hallusinasjoner og manglende etiske begrensninger.

“Vi er ikke et klovneuniversitet. Våre ting er utviklet for å brukes i noen av de mest alvorlige miljøene på planeten Jorden”, sa Jablokov rett ut. “Jeg tror ingen av dere ville følt dere komfortable med å havne på et akuttmottak og se legene der skrive inn spørsmål i en ChatGPT, en Bing, en Bard …”

 

Han understreket viktigheten av fagekspertise og emosjonell intelligens når det gjelder beslutningstaking med høy innsats i den virkelige verden. “Du vil ha noen som forhåpentligvis har mange års erfaring med å behandle ting som ligner på den plagen du lider av for øyeblikket. Og vet du hva? Du liker det faktum at de også har en emosjonell kvalitet, at de bryr seg om at du skal bli bedre.”

 

På den kommende AI & Big Data Expo vil Pryon avduke nye eksempler på bedriftsbruk som viser plattformen på tvers av bransjer som energi, halvledere, legemidler og myndigheter. Jablokov ertet med at de også vil avsløre “forskjellige måter å konsumere Pryon-plattformen på” utover end-to-end-tilbudet for bedrifter, inkludert potensielt tilgang på lavere nivå for utviklere.

 

Etter hvert som AIs domene raskt utvides fra smale applikasjoner til mer generelle muligheter, vil det bli enda viktigere å håndtere de etiske risikoene. Pryons vedvarende fokus på styring, verifiserbare kunnskapskilder, menneskelig tilsyn og samarbeid med tilsynsmyndigheter kan være en mal for mer ansvarlig AI-utvikling på tvers av bransjer.