Kunstig intelligens (AI) har i nogle få år gjort det muligt at forfalske politikeres tale på video og endda skifte ansigtet ud på skuespillere på film. Det nye er, at alle og enhver kan gøre det uden programmeringskendskab og på en almindelig pc.
Som så meget andet i medieindustriens historie startede det med porno. Ligesom muligheden for at vise video på Internettet startede på pornowebsteder, startede ansigtsudskiftning med udskiftning af kvindelige pornoskuespilleres ansigter med kendte kvinders.
Udskift et ansigt med et andet
Det startede på det populære
websted for sociale nyheder, Reddit. En bruger, der kalder sig DeepFake,
havde udviklet et program, FakeApp, til at skifte ansigter ud i videoer – og
det helt uden at skulle programmere. Deep Fake er en forkortelse af Deep
Learning Fake. Ud fra en lang række fotos af en person fundet f.eks. ved billedsøgning
via Google, Bing eller DuckDuckGo, kan programmet danne en profil af personen,
som kan benyttes til at vise dennes ansigt på en skuespillers ansigt i et
filmklip vist fra forskellige vinkler og med forskellig mimik og mundbevægelser,
mens denne taler.
Det er som nævnt herover benyttet
til at skifte kvindelige deltageres ansigter ud i pornovideoer til disses
mishag og flovhed.
Bemærk: Videoklippene i denne artikel er alle på engelsk. Du kan du slå simultan taleoversættelse til skriftlige, engelske undertekster til. Via tandhjulet ⚙️ i afspilleren kan du endvidere vælge automatisk simultan oversættelse fra engelske til danske undertekster. Du kan også gøre underteksterne større, ændre farve m.m.
Et eksempel på ansigtsudskiftning
med den amerikanske præsident Donald Trump:
Se også kunstig intelligens (AI) anvendt til forfalskning vedrørende Trump i opløbet til valgkampen i 2024 i USA her.
Brug din egen stemme til at skabe syntetisk tale
Softwarefirmaet Adobe har på konferencen
Adobe MAX 2016 vist en ny teknologi kaldet Voco (Voice Coder),
hvor et program ud fra nogle minutters tale kan udtale en vilkårlig tekst med
den samme stemme og betoning som personen selv. Du kan se et YouTube-klip om
dette fra konferencen herunder:
Google har under deres DeepMind-projekt
udviklet WaveNet, som kan gøre noget lignende. Idéen er at skabe meget
livagtig tale til oplæsning af bøger - altså til lydbøger. Også denne teknologi kan tage en ægte
stemme og skabe syntetisk tale. Men det kan jo i princippet bruges til andre formål. Se hvordan WaveNet virker i YouTube-klippet herunder:
Canadiske Lyrebird har udviklet
noget tilsvarende og gjort det offentligt tilgængeligt at lave syntetisk tale
ud fra faktiske stemmer. Lyrebird er godt klar over potentialet til misbrug af teknologien. Med Lyrebirds teknologi er det kun nødvendigt med et kort eksempel på tale for
at kunne udtale noget nyt. Der skabes så at sige en signatur eller mønster for
stemmen. Teknologien er udviklet til at give mennesker, der har taleproblemer,
stemmen tilbage. Se et YouTube-klip om det her, hvor teknologien er anvendt til at lægge stemme til tidligere præsident Barack Obama:
Hensigten er med disse
teknologier er med tiden at give den kunstige stemme mulighed for at udtrykke
følelser.
Hvad sker der, hvis man kombinerer disse teknologier?
Der er allerede en række
eksempler på at lægge kendte personer andre ord i munden end de offentligt har
udtalt. Det gælder den tidligere amerikanske præsident Barack Obama og den
nuværende præsident Donald Trump.
Dataloger ved Washington
University i USA har udviklet en teknologi, hvor de kan give en videooptagelse
af en person nye mundbevægelser og ny tale. Her kan du se et eksempel med
Obama med den teknologi:
Implikationer ved disse teknologier
Vi kan risikere, at vi ikke
længere vil anse et videoklip med en politiker for værende sandt, hvis det ikke
passer med vort eget synspunkt, selvom det er ægte nok. Eller at vi tror, at
det ægte, selvom det er en forfalskning – blot det er i overensstemmelse med
ens eget synspunkt. Det er en fare for fremtidens politiske klima – f.eks. ved
det kommende præsidentvalg i USA i 2020.
Der er også en risiko for, at en politiker offentligt vil benægte, at faktiske, ægte optagelser af noget, denne har sagt, er ægte eller kalde dem "not authentic," som én kendt politiker faktisk engang har udtalt. Og måske er det svært for journalister at bevise ægtheden, hvis der kan sås tvivl om alt - inklusive ægte video- og lydoptagelser - især hvis kun et enkelt nyhedsmedie var til stede og og kun en enkelt optagelse blev foretaget ved begivenheden.
Men der er også ved at dukke
organisationer op, som påtager sig at afsløre deepfakes. Der er en række tegn
ved den nuværende teknologi, der afslører videoer og tale som falske. Organisationer er ved at udvikle software, der kan afsløre dem.
Men du vil ofte også selv kunne se eller høre det, for så god er teknologien
heller ikke.
TV-udsendelser om deepfakes
I flere tv-udsendelser (alle på
engelsk) er denne teknologi blevet taget op. Du kan herunder se længere tv-udsendelser
lagt ud på YouTube, der viser de nye muligheder og farerne ved dem.
Deepfakes og den nye teknologi
bag dem - fra BBC Click:
TED-talk: Falske videoer med rigtige
mennesker – og hvordan du kan spotte dem – Datalogen Supasorn Suwajanakorn, der selv forsker i mere realistiske overførsler af tale og mimik til andre personer advarer her - ud fra etiske motiver - om nogle farerne:
Deepfake-videoer er ved at
blive forfærdeligt ægte – NOVA, PBS:
Deepfake-videoer er ved at
blive ægte, og dét er problemet – Moving Upstream:
Deepfakes - Ægte konsekvenser –
Coldfusion:
Og ikke mindst denne video, der
har en rigtig god forklaring af hele historien bag forfalskninger af billeder
og videoer:
Deepfakes: Dit ansigt er ikke
dit mere – Not Exactly Normal:
Hvis du vil vide mere
Du kan læse mere om IT-sikkerhed generelt, men også om deepfakes
og fake news i særdeleshed i bogen ”Bliv sikker på
nettet”:
- Side 254-258: Falske nyheder på (sociale) medier på Internettet
- Side 259-261: ”Troldefabrik” som hemmeligt våben
- Side 261-264: Facebooks tiltag for at komme falske nyheder til livs
- Side 264-265: Astroturfing – Falske græsrødder
- Side 269-270: At lægge ord i munden på kendte personer: DeepFakes
Lars Laursen, forfatter til bogen ”Bliv sikker på
nettet – PC- og onlinesikkerhed”.
Ingen kommentarer:
Send en kommentar