søndag den 9. juni 2019

Deepfakes - dit ansigt er ikke blot dit eget mere…


Kunstig intelligens (AI) har i nogle få år gjort det muligt at forfalske politikeres tale på video og endda skifte ansigtet ud på skuespillere på film. Det nye er, at alle og enhver kan gøre det uden programmeringskendskab og på en almindelig pc.


Som så meget andet i medieindustriens historie startede det med porno. Ligesom muligheden for at vise video på Internettet startede på pornowebsteder, startede ansigtsudskiftning med udskiftning af kvindelige pornoskuespilleres ansigter med kendte kvinders.

Udskift et ansigt med et andet

Det startede på det populære websted for sociale nyheder, Reddit. En bruger, der kalder sig DeepFake, havde udviklet et program, FakeApp, til at skifte ansigter ud i videoer – og det helt uden at skulle programmere. Deep Fake er en forkortelse af Deep Learning Fake. Ud fra en lang række fotos af en person fundet f.eks. ved billedsøgning via Google, Bing eller DuckDuckGo, kan programmet danne en profil af personen, som kan benyttes til at vise dennes ansigt på en skuespillers ansigt i et filmklip vist fra forskellige vinkler og med forskellig mimik og mundbevægelser, mens denne taler.

Det er som nævnt herover benyttet til at skifte kvindelige deltageres ansigter ud i pornovideoer til disses mishag og flovhed.
Bemærk: Videoklippene i denne artikel er alle på engelsk. Du kan du slå simultan taleoversættelse til skriftlige, engelske undertekster til. Via tandhjulet ⚙️ i afspilleren kan du endvidere vælge automatisk simultan oversættelse fra engelske til danske undertekster. Du kan også gøre underteksterne større, ændre farve m.m.
Et eksempel på ansigtsudskiftning med den amerikanske præsident Donald Trump:



Se også kunstig intelligens (AI) anvendt til forfalskning vedrørende Trump i opløbet til valgkampen i 2024 i USA her

Brug din egen stemme til at skabe syntetisk tale

Softwarefirmaet Adobe har på konferencen Adobe MAX 2016 vist en ny teknologi kaldet Voco (Voice Coder), hvor et program ud fra nogle minutters tale kan udtale en vilkårlig tekst med den samme stemme og betoning som personen selv. Du kan se et YouTube-klip om dette fra konferencen herunder:


Google har under deres DeepMind-projekt udviklet WaveNet, som kan gøre noget lignende. Idéen er at skabe meget livagtig tale til oplæsning af bøger - altså til lydbøger. Også denne teknologi kan tage en ægte stemme og skabe syntetisk tale. Men det kan jo i princippet bruges til andre formål. Se hvordan WaveNet virker i YouTube-klippet herunder:


Canadiske Lyrebird har udviklet noget tilsvarende og gjort det offentligt tilgængeligt at lave syntetisk tale ud fra faktiske stemmer. Lyrebird er godt klar over potentialet til misbrug af teknologien. Med Lyrebirds teknologi er det kun nødvendigt med et kort eksempel på tale for at kunne udtale noget nyt. Der skabes så at sige en signatur eller mønster for stemmen. Teknologien er udviklet til at give mennesker, der har taleproblemer, stemmen tilbage. Se et YouTube-klip om det her, hvor teknologien er anvendt til at lægge stemme til tidligere præsident Barack Obama:


Hensigten er med disse teknologier er med tiden at give den kunstige stemme mulighed for at udtrykke følelser.

Hvad sker der, hvis man kombinerer disse teknologier?

Der er allerede en række eksempler på at lægge kendte personer andre ord i munden end de offentligt har udtalt. Det gælder den tidligere amerikanske præsident Barack Obama og den nuværende præsident Donald Trump.

Dataloger ved Washington University i USA har udviklet en teknologi, hvor de kan give en videooptagelse af en person nye mundbevægelser og ny tale. Her kan du se et eksempel med Obama med den teknologi:


Implikationer ved disse teknologier

Vi kan risikere, at vi ikke længere vil anse et videoklip med en politiker for værende sandt, hvis det ikke passer med vort eget synspunkt, selvom det er ægte nok. Eller at vi tror, at det ægte, selvom det er en forfalskning – blot det er i overensstemmelse med ens eget synspunkt. Det er en fare for fremtidens politiske klima – f.eks. ved det kommende præsidentvalg i USA i 2020.

Der er også en risiko for, at en politiker offentligt vil benægte, at faktiske, ægte optagelser af noget, denne har sagt, er ægte eller kalde dem "not authentic," som én kendt politiker faktisk engang har udtalt. Og måske er det svært for journalister at bevise ægtheden, hvis der kan sås tvivl om alt - inklusive ægte video- og lydoptagelser - især hvis kun et enkelt nyhedsmedie var til stede og og kun en enkelt optagelse blev foretaget ved begivenheden.

Men der er også ved at dukke organisationer op, som påtager sig at afsløre deepfakes. Der er en række tegn ved den nuværende teknologi, der afslører videoer og tale som falske. Organisationer er ved at udvikle software, der kan afsløre dem. Men du vil ofte også selv kunne se eller høre det, for så god er teknologien heller ikke.

TV-udsendelser om deepfakes

I flere tv-udsendelser (alle på engelsk) er denne teknologi blevet taget op. Du kan herunder se længere tv-udsendelser lagt ud på YouTube, der viser de nye muligheder og farerne ved dem.

Deepfakes og den nye teknologi bag dem - fra BBC Click:



TED-talk: Falske videoer med rigtige mennesker – og hvordan du kan spotte dem – Datalogen Supasorn Suwajanakorn, der selv forsker i mere realistiske overførsler af tale og mimik til andre personer advarer her - ud fra etiske motiver - om nogle farerne:



Deepfake-videoer er ved at blive forfærdeligt ægte – NOVA, PBS:



Deepfake-videoer er ved at blive ægte, og dét er problemet – Moving Upstream:



Deepfakes - Ægte konsekvenser – Coldfusion:



Og ikke mindst denne video, der har en rigtig god forklaring af hele historien bag forfalskninger af billeder og videoer:

Deepfakes: Dit ansigt er ikke dit mere – Not Exactly Normal:


Hvis du vil vide mere

Du kan læse mere om IT-sikkerhed generelt, men også om deepfakes og fake news i særdeleshed i bogen ”Bliv sikker på nettet”:
  • Side 254-258: Falske nyheder på (sociale) medier på Internettet
  • Side 259-261: ”Troldefabrik” som hemmeligt våben
  • Side 261-264: Facebooks tiltag for at komme falske nyheder til livs
  • Side 264-265: Astroturfing – Falske græsrødder
  • Side 269-270: At lægge ord i munden på kendte personer: DeepFakes
Med venlig hilsen

Lars Laursen, forfatter til bogen ”Bliv sikker på nettet – PC- og onlinesikkerhed”.

Ingen kommentarer:

Send en kommentar