Hem yttranden Hur openais falska nyhetsvarningar utlöste faktiska falska nyheter

Hur openais falska nyhetsvarningar utlöste faktiska falska nyheter

Innehållsförteckning:

Video: Faktisk.no skal avsløre falske nyheter | Martin og Mikkelsen S1E2 (September 2024)

Video: Faktisk.no skal avsløre falske nyheter | Martin og Mikkelsen S1E2 (September 2024)
Anonim

IA: s forskningslaboratorium OpenAI orsakade en våg av AI-apokalypspanik förra månaden när det introducerade ett modernt textgenererande AI som heter GPT-2. Men medan det firade GPT-2: s resultat, förklarade OpenAI att de inte skulle släppa sin AI-modell för allmänheten, med fruktan att GPT-2 i fel händer skulle kunna användas för skadliga ändamål som att generera vilseledande nyhetsartiklar, efterbehandling av andra på nätet och automatisera produktionen av falskt innehåll på sociala medier.

Förutsägbart skapade OpenAIs tillkännagivande en översvämning av sensationella nyheter, men även om någon avancerad teknik kan vapen, har AI fortfarande långt innan den behärskar textgenerering. Även då kräver det mer än textgenererande AI för att skapa en falsk-nyhetskris. Mot bakgrund av detta var OpenAI: s varningar överdrivna.

AI och mänskligt språk

Datorer har historiskt kämpat för att hantera mänskligt språk. Det finns så många komplexiteter och nyanser i den skrivna texten att det praktiskt taget är omöjligt att konvertera dem till klassiska programregler. Men de senaste framstegen inom djup inlärning och neurala nätverk har banat vägen för en annan strategi för att skapa programvara som kan hantera språkrelaterade uppgifter.

Djupt lärande har gett stora förbättringar inom områden som maskinöversättning, textöversikt, frågesvar och generering av naturligt språk. Det låter programvaruingenjörer skapa algoritmer som utvecklar sitt eget beteende genom att analysera många exempel. För språkrelaterade uppgifter matar ingenjörer neurala nätverk digitaliserat innehåll som nyheter, Wikipedia-sidor och inlägg på sociala medier. Neurala nät jämför noggrant data och notera hur vissa ord följer andra i återkommande sekvenser. De förvandlar sedan dessa mönster till komplexa matematiska ekvationer som hjälper dem att lösa språkrelaterade uppgifter som att förutsäga saknade ord i en textsekvens. I allmänhet, ju mer kvalitetsutbildningsdata du tillhandahåller för en djupinlärningsmodell, desto bättre blir det att utföra sin uppgift.

Enligt OpenAI har GPT-2 tränats på 8 miljoner webbsidor och miljarder ord, vilket är mycket mer än andra, liknande modeller. Den använder också avancerade AI-modeller för att bättre använda textmönster. Provutgång från GPT-2 visar att modellen lyckas upprätthålla koherens i längre textsekvenser än sina föregångare.

Men även om GPT-2 är ett steg framåt inom området naturligt språk, är det inte ett teknologiskt genombrott mot att skapa AI som kan förstå innebörden och sammanhanget av skriftlig text. GPT-2 använder fortfarande algoritmer för att skapa sekvenser av ord som statistiskt liknar de miljarder textutdrag som det tidigare har sett - det har absolut ingen förståelse för vad det genererar.

I en djupgående analys pekar ZDNets Tiernan Ray på flera fall där GPT-2: s utprover förråder sin konstgjorda natur med välkända artefakter som duplikering av termer och brist på logik och konsistens i fakta. "När GPT-2 går vidare för att ta itu med skrivande som kräver mer utveckling av idéer och logik, spricker sprickorna ganska breda, " konstaterar Ray.

Statistiskt lärande kan hjälpa datorer att generera text som är grammatiskt korrekt, men en djupare konceptuell förståelse krävs för att upprätthålla logisk och faktisk konsistens. Tyvärr är det fortfarande en utmaning som nuvarande blandningar av AI inte har övervunnit. Det är därför GPT-2 kan generera trevliga stycken av text men skulle förmodligen vara hårt pressade för att skapa en äkta longformartikel eller efterge sig någon på ett övertygande sätt och under en längre tid.

Varför AI Fake-News Panic är överdrivet

Ett annat problem med OpenAI: s resonemang: Det antar att AI kan skapa en falsk-nyhetskris.

2016 spredde en grupp makedonska tonåringar falska nyheter om det amerikanska presidentvalet till miljoner människor. Ironiskt nog hade de inte ens riktiga engelska färdigheter; de hittade sina berättelser på webben och sy samman olika innehåll. De var framgångsrika eftersom de skapade webbplatser som såg tillräckligt autentiska ut för att övertyga besökarna att lita på dem som pålitliga nyhetskällor. Sensationella rubriker, försumliga användare av sociala medier och trendalgoritmer gjorde resten.

Sedan 2017 utlöste skadliga aktörer en diplomatisk kris i Persiska viken genom att hackinga Qatari-statliga nyhetswebbplatser och regeringens sociala mediekonton och publicera falska kommentarer på uppdrag av Sheikh Tamim bin Hamad Al Thani, Qatar-emiran.

Som dessa berättelser visar, beror framgången med falska nyhetskampanjer på att skapa (och förråda) förtroende, inte på att generera stora mängder sammanhängande engelsk text.

OpenAI: s varningar om att automatisera produktionen av falskt innehåll för att publicera på sociala medier är dock mer motiverade, eftersom skala och volym spelar en viktigare roll i sociala nätverk än i traditionella medier. Antagandet är att en AI som GPT-2 kommer att kunna översvämma sociala medier med miljoner unika inlägg om ett specifikt ämne, vilket påverkar trendalgoritmer och offentliga diskussioner.

Men ändå kommer varningarna inte att verka. Under de senaste åren har företag i sociala medier kontinuerligt utvecklat kapacitet för att upptäcka och blockera automatiserat beteende. Så en skadlig skådespelare beväpnad med en textgenererande AI skulle behöva övervinna ett antal utmaningar utöver att skapa unikt innehåll.

Till exempel skulle de behöva tusentals falska konton för sociala medier för att publicera sitt AI-genererade innehåll. Ännu tuffare, för att se till att det inte finns något sätt att ansluta de falska kontona, skulle de behöva en unik enhet och IP-adress för varje konto.

Det blir värre: Kontona måste skapas vid olika tidpunkter, eventuellt över ett år eller längre, för att minska likheterna. Förra året visade en New York Times- undersökning att konton skapade datum bara kunde hjälpa till att upptäcka botkonton. För att ytterligare dölja deras automatiserade karaktär från andra användare och polisalgoritmer skulle kontona behöva engagera sig i mänskliknande beteende, som att interagera med andra användare och sätta en unik ton i sina inlägg.

Inget av dessa utmaningar är omöjligt att övervinna, men de visar att innehåll bara är en del av den ansträngning som krävs för att genomföra i en social media media-nyhetskampanj. Och återigen spelar förtroende en viktig roll. Några pålitliga påverkande sociala medier som sätter upp några falska nyhetsinlägg kommer att ha större effekt än ett gäng okända konton som genererar stora mängder innehåll.

För att försvara OpenAI: s varningar

OpenAIs överdrivna varningar utlöste en cykel av mediahype och panik som ironiskt nog gränsade till falska nyheter i sig själv, vilket fick kritik från kända AI-experter.

De bjöd in medierna för att få tidig tillgång till resultaten med en pressembargo så att allt blev offentlig samma dag. Inga forskare som jag känner till fick se den stora modellen, men journalister gjorde det. Ja, de blåste avsiktligt upp det.

- Matt Gardner (@nlpmattg) 19 februari 2019

Varje ny människa kan potentiellt användas för att generera falska nyheter, sprida konspirationsteorier och påverka människor.

Ska vi sluta göra barn då?

- Yann LeCun (@ylecun) 19 februari 2019

Bara ville ge er alla en heads-up, vårt laboratorium fann ett fantastiskt genombrott i språkförståelsen. men vi oroar oss också för att det kan falla i fel händer. så vi bestämde oss för att skrapa det och bara publicera vanliga * ACL-saker istället. Stor respekt för teamet för deras fantastiska arbete.

- (((? () (? () 'Yoav)))) (@yoavgo) 15 februari 2019

Zachary Lipton, AI-forskare och redaktören för Ca. ben att stå på."

Även om OpenAI förtjänar all kritik och hetta som den fick i kölvattnet av sina vilseledande kommentarer, är det också rätt att vara verkligen oroliga för eventuella skadliga användningar av sin teknik, även om företaget använde ett ansvarslöst sätt för att utbilda allmänheten om det.

  • AI-industrins år för etisk räkning AI-industrins år för etisk räkning
  • Otillbörlig fördel: Förvänta dig inte att AI spelar som en mänsklig Otillbörlig fördel: Förvänta dig inte att AI spelar som en människa
  • Denna AI förutsäger trolling online innan det händer Denna AI förutsäger online trolling innan det händer

Under de senaste åren har vi sett hur AI-teknologier som offentliggjorts utan tankar och reflektion kan vapenas för skadliga syften. Ett exempel var FakeApp, en AI-applikation som kan byta ansikten i videor. Strax efter att FakeApp släpptes, användes det för att skapa falska pornografiska videor med kändisar och politiker, vilket orsakade oro över hotet om AI-driven förfalskning.

OpenAI: s beslut visar att vi måste pausa och tänka på de eventuella konsekvenserna av att offentliggöra teknik. Och vi måste ha mer aktiva diskussioner om riskerna med AI-teknik.

"En organisation som pausar ett visst projekt kommer inte riktigt att förändra någonting på lång sikt. Men OpenAI får mycket uppmärksamhet för allt de gör… och jag tror att de borde applåderas för att vända sig till denna fråga, " David Bau, en forskare vid MITs datavetenskap och artificiell intelligenslaboratorium (CSAIL), berättade för Slate.

Hur openais falska nyhetsvarningar utlöste faktiska falska nyheter