Hem yttranden Kan någonting skydda oss mot djupfusk? | ben dickson

Kan någonting skydda oss mot djupfusk? | ben dickson

Innehållsförteckning:

Video: Reacting To My Deepfakes.. (September 2024)

Video: Reacting To My Deepfakes.. (September 2024)
Anonim

I slutet av 2017 rapporterade Motherboard om en AI-teknik som kan byta ansikten i videor. Då producerade tekniken - senare kallad deepfakes - råa, korniga resultat och användes mest för att skapa falska porrfilmer med kändisar och politiker.

Två år senare har tekniken utvecklats enormt och är svårare att upptäcka med blotta ögat. Tillsammans med falska nyheter har förfalskade videor blivit en nationell säkerhetsproblem, särskilt när presidentvalet 2020 närmar sig.

Sedan deepfakes uppstod har flera organisationer och företag utvecklat teknik för att upptäcka AI-manipulerade videor. Men det finns en rädsla för att deepfakes-tekniken en dag kommer att vara omöjlig att upptäcka.

Forskare vid University of Surrey utvecklade en lösning som kan lösa problemet: istället för att upptäcka vad som är fel, kommer det att bevisa vad som är sant. Planerad att presenteras vid den kommande konferensen om datorsyn och mönsterigenkänning (CVPR), tekniken, som kallas ärkeängel, använder AI och blockchain för att skapa och registrera ett manipuleringssäkert digitalt fingeravtryck för autentiska videor. Fingeravtrycket kan användas som referenspunkt för att verifiera giltigheten för media som distribueras online eller sänds på TV.

Använda AI för att signera videor

Det klassiska sättet att bevisa äktheten för ett binärt dokument är att använda en digital signatur. Utgivare kör sitt dokument genom en kryptografisk algoritm som SHA256, MD5 eller Blowfish, som producerar en "hash", en kort byte som representerar innehållet i filen och blir dess digitala signatur. Att köra samma fil genom hashalgoritmen när som helst kommer att producera samma hash om innehållet inte har förändrats.

Hashar är överkänsliga för förändringar i den binära strukturen i källfilen. När du modifierar en enda byte i hashfilen och kör den igenom algoritmen igen ger det ett helt annat resultat.

Men medan hascher fungerar bra för textfiler och applikationer, utgör de utmaningar för videor, som kan lagras i olika format, enligt John Collomosse, professor i datorsyn vid University of Surrey och projektledare för ärkeängeln.

"Vi ville att signaturen skulle vara densamma oberoende av codec som videon komprimeras med, " säger Collomosse. "Om jag tar min video och konverterar den från, säg, MPEG-2 till MPEG-4, så kommer den filen att ha en helt annan längd, och bitarna kommer att ha helt förändrats, vilket kommer att producera en annan hash. Vad vi behövde var en innehållsmedveten hash-algoritm."

För att lösa detta problem utvecklade Collomosse och hans kollegor ett djupt neuralt nätverk som är känsligt för innehållet i videon. Djupa neurala nätverk är en typ av AI-konstruktion som utvecklar dess beteende genom analys av stora mängder exempel. Intressant nog är nervnätverk också tekniken i hjärtat av djupfaken.

När du skapar deepfakes matar utvecklaren nätverket med bilder av ett ämnes ansikte. Neuralnätverket lär sig funktionerna i ansiktet och blir med tillräcklig träning kapabelt att hitta och byta ansikten i andra videor med motivets ansikte.

Ärkeängelns neurala nätverk tränas på videon, det är fingeravtryck. "Nätverket tittar på innehållet i videon snarare än underliggande bitar och byte", säger Collomosse.

Efter träning, när du kör en ny video genom nätverket, kommer den att validera den när den innehåller samma innehåll som källvideon oavsett format och avvisar den när det är en annan video eller har manipulerats eller redigerats.

Enligt Collomosse kan tekniken upptäcka både rumslig och temporär manipulation. Rumsliga manipulationer är förändringar som görs i enskilda ramar, till exempel de ansiktsbytande redigeringarna som gjorts i deepfakes.

Men deepfakes är inte det enda sättet att manipulera med videor på. Mindre diskuterade men lika farliga är avsiktliga förändringar som gjorts i bildsekvensen och videoens hastighet och varaktighet. En nyligen utbredd cirkulerad manipulerad video av hushögtalaren Nancy Pelosi använde inte djupfusk utan skapades genom noggrann användning av enkla redigeringstekniker som gjorde att hon verkade förvirrad.

"En av de former av manipulation som vi kan upptäcka är att ta bort korta segment av videon. Dessa är temporära tampare. Och vi kan upptäcka upp till tre sekunder av manipulation. Så om en video är flera timmar lång och du bara tar bort tre sekunder av den videon, kan vi upptäcka det, "säger Collomosse och lägger till att ärkeängeln också kommer att upptäcka förändringar i hastigheten på den ursprungliga videon, som gjordes i Pelosi-videon.

Registrera fingeravtrycket på Blockchain

Den andra komponenten i Archangel-projektet är en blockchain, en manipuleringssäker databas där ny information kan lagras men inte ändras - perfekt för videoarkiv, som inte gör ändringar i videoklipp när de har registrerats.

Blockchain-tekniken ligger till grund för digitala valutor som Bitcoin och Ether. Det är en digital huvudbok som upprätthålls av flera oberoende parter. Majoriteten av partierna måste komma överens om ändringar som gjorts i blockchain, vilket gör det omöjligt för varje enskilt parti att ensidigt blanda sig in i huvudboken.

Det är tekniskt möjligt att attackera och ändra innehållet i en blockchain om mer än 50 procent av dess deltagare samverkar. Men i praktiken är det extremt svårt, särskilt när blockchain upprätthålls av många oberoende parter med olika mål och intressen.

Ärkeängelns blockchain skiljer sig lite från offentliga blockchain. Först producerar den inte cryptocurrency och lagrar bara identifieraren, det innehållsmedvetna fingeravtrycket och den binära hashen hos verifieringsnervenätverket för varje video i ett arkiv (blockchains passar inte för att lagra stora mängder data, varför själva videon och nervnätverket lagras utanför kedjan).

Det är också en tillåten eller "privat" blockchain. Detta betyder att till skillnad från Bitcoin blockchain, där alla kan spela in nya transaktioner, kan endast tillåtna parter lagra nya poster på ärkeängeln blockchain.

Ärkeängel prövas för närvarande av ett nätverk av nationella regeringsarkiv från Storbritannien, Estland, Norge, Australien och USA: För att lagra ny information måste varje inblandat land skriva under tillägget. Men medan bara de nationella arkiven i de deltagande länderna har rätt att lägga till poster, har alla andra läsåtkomst till blockchain och kan använda den för att validera andra videor mot arkivet.

  • AI och Machine Learning Exploit, Deepfakes, nu svårare att upptäcka AI och Machine Learning Exploit, Deepfakes, Now Harder to Detect
  • Deepfake videor är här, och vi är inte redo Deepfake videor är här, och vi är inte redo
  • Adobes nya AI upptäcker Photoshopped ansikten Adobes nya AI upptäcker Photoshopped ansikten

"Detta är en applikation av blockchain för allmänheten, " säger Collomosse. "Enligt min mening är den enda rimliga användningen av blockchain när du har oberoende organisationer som inte nödvändigtvis litar på varandra, men de har detta intresse av detta kollektiva mål om ömsesidigt förtroende. Och vad vi vill göra är att säkra regeringens nationella arkiv över hela världen så att vi kan skriva över deras integritet med hjälp av denna teknik."

Eftersom det blir enklare, snabbare och mer tillgängligt att skapa förfalskade videor kommer alla att behöva all hjälp de kan få för att säkerställa integriteten i deras videoarkiv - särskilt regeringar.

"Jag tror att deepfakes nästan är som ett vapenras, " säger Collomosse. "Eftersom människor producerar allt mer övertygande djupfester och en dag kan det bli omöjligt att upptäcka dem. Det är därför det bästa du kan göra är att försöka bevisa att det finns en video."

Kan någonting skydda oss mot djupfusk? | ben dickson