Home / Kunstig Intelligens  / For å bygge en bedre AI-hjelper må du begynne med å modellere menneskets irrasjonelle oppførsel

For å bygge en bedre AI-hjelper må du begynne med å modellere menneskets irrasjonelle oppførsel

For å bygge AI-systemer som kan samarbeide effektivt med mennesker, er det viktig å ha en god modell av menneskelig atferd i utgangspunktet. Men mennesker har en tendens til å oppføre seg suboptimalt når de tar beslutninger.

 

Denne irrasjonaliteten, som er spesielt vanskelig å modellere, skyldes ofte beregningsmessige begrensninger. Et menneske kan ikke bruke flere tiår på å tenke på den ideelle løsningen på et enkelt problem.

 

Forskere ved MIT og University of Washington har utviklet en metode for å modellere atferden til en agent, enten det er et menneske eller en maskin, som tar hensyn til de ukjente beregningsbegrensningene som kan hemme agentens evne til å løse problemer.

 

Modellen deres kan automatisk utlede en agents beregningsbegrensninger ved å se noen få spor av tidligere handlinger. Resultatet, en agents såkalte “inferensbudsjett”, kan brukes til å forutsi agentens fremtidige atferd.

 

I en ny artikkel viser forskerne hvordan metoden kan brukes til å utlede en persons navigasjonsmål ut fra tidligere ruter og til å forutsi spillernes påfølgende trekk i sjakkpartier. Teknikken er på høyde med eller bedre enn en annen populær metode for modellering av denne typen beslutninger.

 

Til syvende og sist kan dette arbeidet hjelpe forskere med å lære AI-systemer hvordan mennesker oppfører seg, noe som kan gjøre disse systemene i stand til å respondere bedre på sine menneskelige samarbeidspartnere. Å kunne forstå et menneskes atferd, og deretter utlede dets mål fra denne atferden, kan gjøre en AI-assistent mye mer nyttig, sier Athul Paul Jacob, doktorgradsstudent i elektroteknikk og informatikk (EECS) og hovedforfatter av en artikkel om denne teknikken.

 

“Hvis vi vet at et menneske er i ferd med å gjøre en feil etter å ha sett hvordan det har oppført seg tidligere, kan AI-agenten gripe inn og tilby en bedre måte å gjøre det på. Eller agenten kan tilpasse seg svakhetene som de menneskelige medarbeiderne har. Å kunne modellere menneskelig atferd er et viktig skritt på veien mot å bygge en AI-agent som faktisk kan hjelpe mennesket”, sier han.

 

Jacob har skrevet artikkelen sammen med Abhishek Gupta, assisterende professor ved University of Washington, og seniorforfatter Jacob Andreas, førsteamanuensis i EECS og medlem av Computer Science and Artificial Intelligence Laboratory (CSAIL). Forskningen vil bli presentert på den internasjonale konferansen om læringsrepresentasjoner.

 

Modellering av atferd

 

Forskere har utviklet beregningsmodeller for menneskelig atferd i flere tiår. Mange tidligere tilnærminger forsøker å ta høyde for suboptimale beslutninger ved å legge til støy i modellen. I stedet for at agenten alltid velger det riktige alternativet, kan modellen få agenten til å velge riktig i 95 prosent av tilfellene.

 

Disse metodene kan imidlertid ikke fange opp det faktum at mennesker ikke alltid oppfører seg suboptimalt på samme måte.

 

Andre ved MIT har også studert mer effektive måter å planlegge og utlede mål på når beslutningene ikke er optimale.

 

For å bygge modellen sin hentet Jacob og medarbeiderne inspirasjon fra tidligere studier av sjakkspillere. De la merke til at spillerne brukte mindre tid på å tenke før de handlet når de gjorde enkle trekk, og at sterkere spillere hadde en tendens til å bruke mer tid på planlegging enn svakere spillere i utfordrende kamper.

 

“Til syvende og sist så vi at dybden i planleggingen, eller hvor lenge noen tenker på problemet, er en veldig god indikator på hvordan mennesker oppfører seg”, sier Jacob.

 

De bygde et rammeverk som kunne utlede en agents planleggingsdybde fra tidligere handlinger og bruke denne informasjonen til å modellere agentens beslutningsprosess.

 

Det første trinnet i metoden innebærer å kjøre en algoritme i en bestemt tidsperiode for å løse problemet som studeres. Hvis de for eksempel studerer et sjakkparti, kan de la sjakkspillalgoritmen kjøre i et visst antall trinn. Til slutt kan forskerne se hvilke beslutninger algoritmen har tatt i hvert trinn.

Modellen deres sammenligner disse beslutningene med atferden til en agent som løser det samme problemet. Den sammenligner agentens beslutninger med algoritmens beslutninger og identifiserer trinnet der agenten sluttet å planlegge.

 

Ut fra dette kan modellen bestemme agentens inferensbudsjett, eller hvor lenge agenten vil planlegge for dette problemet. Modellen kan bruke inferensbudsjettet til å forutsi hvordan agenten vil reagere når han eller hun skal løse et lignende problem.

 

En tolkbar løsning

 

Denne metoden kan være svært effektiv fordi forskerne får tilgang til alle beslutningene som problemløsningsalgoritmen har tatt, uten å gjøre noe ekstra arbeid. Dette rammeverket kan også brukes på et hvilket som helst problem som kan løses med en bestemt klasse av algoritmer.

 

“For meg var det mest slående at dette inferensbudsjettet er veldig tolkbart. Det betyr at tøffere problemer krever mer planlegging, eller at man må planlegge lenger for å være en sterk spiller. Da vi først satte oss fore å gjøre dette, trodde vi ikke at algoritmen vår ville være i stand til å fange opp slik atferd på en naturlig måte”, sier Jacob.

 

Forskerne testet metoden i tre ulike modelleringsoppgaver: å utlede navigasjonsmål fra tidligere ruter, å gjette noens kommunikative intensjon ut fra verbale signaler og å forutsi påfølgende trekk i sjakkpartier mellom mennesker.

 

Metoden deres var enten like god eller bedre enn et populært alternativ i hvert eksperiment. I tillegg så forskerne at deres modell av menneskelig atferd stemte godt overens med mål på spillernes ferdigheter (i sjakkpartier) og oppgavens vanskelighetsgrad.

 

I fremtiden ønsker forskerne å bruke denne tilnærmingen til å modellere planleggingsprosessen på andre områder, for eksempel forsterkningslæring (en prøve-og-feile-metode som ofte brukes i robotteknologi). På sikt har de tenkt å bygge videre på dette arbeidet for å nå det overordnede målet om å utvikle mer effektive AI-samarbeidspartnere.

 

Dette arbeidet ble delvis støttet av MIT Schwarzman College of Computing Artificial Intelligence for Augmentation and Productivity-programmet og National Science Foundation.