Home / Kunstig Intelligens  / Kan vi virkelig stole på at kunstig intelligens kan kanalisere befolkningens stemme for statsrådene?

Kan vi virkelig stole på at kunstig intelligens kan kanalisere befolkningens stemme for statsrådene?

Hva er AIs rolle i demokratiet? Er det bare en vulkan av deepfakes og desinformasjon? Eller kan den – slik mange aktivister og til og med AI-laboratorier satser på – bidra til å fikse et skrantende og aldrende politisk system? Den britiske regjeringen, som elsker å fremstå som en del av AI-utviklingen, ser ut til å tro at teknologien kan forbedre det britiske demokratiet. De ser for seg en verden der storspråklige modeller (LLM-er) kondenserer og analyserer innspill til offentlige høringer, utarbeider ministernotater og kanskje til og med utarbeider lovforslag. Er dette et godt initiativ fra en teknologisk avansert administrasjon? Eller er det bare en måte å pynte på nedskjæringer i embetsverket på, til skade for demokratiet?

 

LLM-er, AI-paradigmet som har tatt verden med storm siden ChatGPT ble lansert i 2022, er eksplisitt trent opp til å oppsummere og destillere informasjon. Og de kan nå behandle hundrevis, til og med tusenvis, av sider med tekst om gangen. Den britiske regjeringen gjennomfører rundt 700 offentlige høringer i året. En åpenbar oppgave for sivilingeniørene er å hjelpe til med å analysere og oppsummere de tusenvis av sidene med høringsuttalelser de mottar som svar på hver av dem. Selv om LLM-ene gjør en god jobb med å oppsummere e-poster eller enkelte avisartikler, er det dessverre et stykke igjen før de er en fullgod erstatning for embetsmenn som analyserer offentlige høringer.

 

Første problem: Hvis du gjennomfører en offentlig høring, vil du vite hva publikum mener, ikke høre fra LLM. I en detaljert studie av bruken av LLM-er for å analysere innspill til en offentlig høring om AI-politikk i USA, fant forskere ved AI-startupen Imbue ut at LLM-sammendrag ofte endret betydningen av det de oppsummerte. For eksempel, i oppsummeringen av Googles bidrag, identifiserte LLM-en korrekt at Google støttet regulering, men utelot at de støttet spesifikk risikoregulering – en snever form for regulering som forutsetter at AI vil bli brukt, og som har som mål å redusere skadevirkningene av å gjøre det. Lignende problemer oppstår når man ber modeller om å sette sammen ideer som finnes i alle innleggene de skal oppsummere. Og selv de dyktigste juristene som arbeider med svært store tekstmengder, kan komme til å fabrikere – det vil si finne på ting som ikke står i kilden.

 

Det andre problemet: Hvis du ber publikum om innspill, vil du være sikker på at du faktisk hører fra alle. I ethvert forsøk på å utnytte innsikten til en stor befolkning – det noen kaller kollektiv intelligens – må du være spesielt oppmerksom ikke bare på enighetspunkter, men også på uenighet, og særlig på avvikere. Enkelt sagt vil de fleste bidragene konvergere om lignende temaer, mens noen få vil by på uvanlig innsikt.

 

LLM-er er dyktige til å representere “midtmassen” av høyfrekvente observasjoner. Men de er ennå ikke like gode til å fange opp det høyfrekvente, lavfrekvente innholdet, der mye av verdien av disse konsultasjonene kan ligge (og til å skille det fra det lavfrekvente, lavfrekvente innholdet). Og faktisk kan du sannsynligvis teste dette selv. Neste gang du vurderer å kjøpe noe fra Amazon, kan du ta en rask titt på det AI-genererte sammendraget av anmeldelsene. Den sier i utgangspunktet bare det åpenbare. Hvis du virkelig vil vite om produktet er verdt å kjøpe, må du se på de enstjernede anmeldelsene (og filtrere bort de som klager over at de hadde en dårlig dag da pakken deres ble levert).

 

Det at LLM-er presterer dårlig på noen oppgaver nå, betyr selvsagt ikke at de alltid vil gjøre det. Dette kan være problemer som kan løses, selv om de ikke er løst ennå. Og hvor mye dette betyr, avhenger selvsagt av hva du prøver å gjøre. Hva er poenget med offentlige høringer, og hvorfor ønsker du å bruke LLM-er til å støtte dem? Hvis du mener at offentlige høringer i bunn og grunn er performative – en slags inkonsekvent, erstatningsdeltakelse – spiller det kanskje ingen rolle om statsrådene mottar AI-genererte sammendrag som utelater de mest innsiktsfulle innspillene fra publikum, og i stedet slenger inn noen AI-genererte bons mots. Hvis det bare er meningsløst byråkrati, hvorfor ikke automatisere det? Hvis du egentlig bare bruker kunstig intelligens for å krympe regjeringens størrelse, hvorfor ikke kutte ut mellommannen og spørre LLM direkte om deres synspunkter, i stedet for å gå til folket?

 

Men, kanskje i motsetning til Storbritannias visestatsminister, mener forskerne som utforsker AIs potensial for demokratiet, at LLM bør skape en dypere integrasjon mellom folk og makt, ikke bare enda et lag med automatisert byråkrati som upålitelig filtrerer og overfører den offentlige mening. Demokrati er tross alt i bunn og grunn en kommunikativ praksis: Enten det er gjennom offentlige høringer, gjennom våre stemmer eller gjennom debatt og uenighet i det offentlige rom, er det gjennom kommunikasjon at folket holder sine representanter i sjakk. Og hvis du virkelig bryr deg om kommunikativt demokrati, mener du sannsynligvis at alle og bare de som har rett til å si sin mening, bør få si sin mening, og at offentlige høringer er nødvendige for å finne effektive løsninger på komplekse problemer.

 

Hvis dette er dine målestokker, bør LLM-enes tendens til å utelate nyanser og fabrikere sin egen oppsummerende informasjon, samt til å ignorere lavfrekvente, men høyfrekvente innspill, være grunn nok til å legge dem på hyllen, inntil videre, fordi de ennå ikke er trygge for demokratiet.