Home / Analytics  / OpenAI tar skritt for å øke åpenheten rundt AI-generert innhold

OpenAI tar skritt for å øke åpenheten rundt AI-generert innhold

OpenAI blir med i styringskomiteen for Coalition for Content Provenance and Authenticity (C2PA) og vil integrere den åpne standardens metadata i sine generative AI-modeller for å øke åpenheten rundt generert innhold.

 

C2PA-standarden gjør det mulig å sertifisere digitalt innhold med metadata som beviser dets opprinnelse, enten det er opprettet helt av AI, redigert ved hjelp av AI-verktøy eller fanget tradisjonelt. OpenAI har allerede begynt å legge til C2PA-metadata til bilder fra den nyeste DALL-E 3-modellen i ChatGPT og OpenAI API. Metadataene vil bli integrert i OpenAIs kommende videogenereringsmodell Sora når den lanseres bredere.

 

“Folk kan fortsatt lage villedende innhold uten denne informasjonen (eller fjerne den), men de kan ikke enkelt forfalske eller endre denne informasjonen, noe som gjør den til en viktig ressurs for å bygge tillit”, forklarer OpenAI.

 

Tiltaket kommer midt i en tid med økende bekymring for at AI-generert innhold kan villede velgerne i forkant av de store valgene i USA, Storbritannia og andre land i år. Autentisering av AI-skapte medier kan bidra til å bekjempe deepfakes og annet manipulert innhold rettet mot desinformasjonskampanjer.

 

Selv om tekniske tiltak kan være til hjelp, erkjenner OpenAI at det i praksis krever kollektiv handling fra plattformer, skapere og innholdshåndterere for å sikre metadata for sluttbrukerne.

 

I tillegg til C2PA-integrering utvikler OpenAI nye metoder for å sikre innholdets opprinnelse, for eksempel manipuleringssikker vannmerking av lyd og bildedeteksjonsklassifisering for å identifisere AI-genererte bilder.

 

OpenAI har åpnet for søknader om tilgang til bildedeteksjonsklassifiseringen DALL-E 3 gjennom sitt Researchers Access Program. Verktøyet forutsier sannsynligheten for at et bilde stammer fra en av OpenAIs modeller.

 

“Målet vårt er å muliggjøre uavhengig forskning som vurderer klassifiseringsverktøyets effektivitet, analyserer hvordan det kan brukes i den virkelige verden, avdekker relevante hensyn ved slik bruk og utforsker egenskapene til AI-generert innhold”, sier selskapet.

 

Interne tester viser høy nøyaktighet når det gjelder å skille ikke-AI-bilder fra DALL-E 3-bilder, med rundt 98 % av DALL-E-bildene korrekt identifisert og mindre enn 0,5 % av ikke-AI-bildene feilaktig flagget. Klassifiseringsverktøyet sliter imidlertid mer med å skille mellom bilder produsert av DALL-E og andre generative AI-modeller.

 

OpenAI har også innlemmet vannmerking i sin tilpassede stemmemodell Voice Engine, som for øyeblikket er i begrenset forhåndsvisning.

 

Selskapet mener at økt bruk av proveniensstandarder vil føre til at metadata følger innholdet gjennom hele livssyklusen, noe som vil fylle “et viktig hull i praksis for autentisitet av digitalt innhold”.

 

OpenAI lanserer sammen med Microsoft et fond på 2 millioner dollar for å støtte utdanning i og forståelse av kunstig intelligens, blant annet gjennom AARP, International IDEA og Partnership on AI.

 

“Selv om tekniske løsninger som de ovennevnte gir oss aktive verktøy for forsvaret vårt, vil det kreve kollektiv handling for å sikre innholdsautentisitet i praksis”, sier OpenAI.

 

“Vår innsats rundt proveniens er bare én del av en bredere bransjeinnsats – mange av våre jevnaldrende forskningslaboratorier og generative AI-selskaper driver også med forskning på dette området. Vi berømmer disse anstrengelsene – bransjen må samarbeide og dele innsikt for å forbedre vår forståelse og fortsette å fremme åpenhet på nettet.”