Hem yttranden Ai-branschens år för etisk räkning

Ai-branschens år för etisk räkning

Innehållsförteckning:

Video: Etisk grund i palliativ vård (September 2024)

Video: Etisk grund i palliativ vård (September 2024)
Anonim

Ända sedan djupa neurala nätverk vann världens viktigaste bildigenkänningstävling 2012, har alla varit glada över vad konstgjord intelligens skulle kunna släppa loss. Men i loppet för att utveckla nya AI-tekniker och applikationer tog de möjliga negativa effekterna en baksäte.

Vi ser nu en förskjutning mot mer medvetenhet om AI-etik. År 2018 blev AI-utvecklare mer medvetna om de möjliga konsekvenserna av deras skapelser. Många ingenjörer, forskare och utvecklare klargjorde att de inte skulle bygga teknik som skadar eller orsakar oskyldiga människors liv, och de innehöll sina företag.

Ansiktsigenkänning vid lagstiftning

Tidigare var att skapa ansiktsigenkänningsapplikationer besvärliga, resurskrävande och felaktiga. Men med framstegen i datorsyn - delmängden av AI som gör det möjligt för datorer att känna igen innehållet i bilder och video - blev ansiktsigenkänningsprogram mycket lättare och inom allas räckvidd.

Stora tekniska företag som Microsoft, Amazon och IBM började tillhandahålla molnbaserade tjänster som gjorde det möjligt för alla utvecklare att integrera ansiktsigenkänningsteknologi i sin programvara. Detta låste upp många nya mål och applikationer i olika domäner, såsom identitetsskydd och autentisering, smarta hemsäkerhet och detaljhandel. Men privatlivsaktivister uttryckte oro över potentialen för missbruk.

I maj 2018 avslöjade American Civil Liberties Union att Amazon marknadsför Rekognition, en realtidsvideo-analysteknik, till brottsbekämpande myndigheter och myndigheter. Enligt ACLU använde polisen i minst tre stater Rekognition för ansiktsigenkänning på övervakningsvideoflöden.

"Med Rekognition kan en regering nu bygga ett system för att automatisera identifiering och spårning av vem som helst. Om till exempel polisorganskameror var utrustade med ansiktsigenkänning skulle enheter avsedda för officerens öppenhet och ansvarsskyldighet ytterligare förvandlas till övervakningsmaskiner riktade till offentligt, ”varnade ACLU. "Genom att automatisera massövervakning hotar ansiktsigenkänningssystem som Rekognition denna frihet och utgör ett särskilt hot mot samhällen som redan är orättvist riktade i det nuvarande politiska klimatet. När kraftfulla övervakningssystem som dessa byggs och distribueras kommer skadan att vara extremt svår att ångra."

ACLU: s oro upprepades av Amazon-anställda, som i juni skrev ett brev till företagets verkställande direktör Jeff Bezos och krävde att han skulle sluta sälja Rekognition till brottsbekämpning. "Vårt företag bör inte vara i övervakningsverksamheten. Vi bör inte vara i polisverksamheten. Vi bör inte vara i branschen för att stödja dem som övervakar och förtrycker marginaliserade befolkningar, " heter det i brevet.

I oktober avslöjade en anonym personal från Amazon att minst 450 anställda hade undertecknat ett annat brev som uppmanade Bezos och andra chefer att sluta sälja Rekognition till polisen. "Vi kan inte tjäna på en delmängd av kraftfulla kunder på bekostnad av våra samhällen; vi kan inte avvisa våra ögon från de mänskliga kostnaderna för vår verksamhet. Vi kommer inte tyst att bygga teknik för att förtrycka och döda människor, vare sig i vårt land eller i andra, " det stod.

Fallout av Googles militära AI-projekt

Medan Amazon hade att göra med den här interna motreaktionen, upplevde Google liknande strider om ett kontrakt för att utveckla AI för den amerikanska militären, kallad Project Maven.

Google hjälpte enligt uppgift försvarsdepartementet att utveckla datorsynteknologi som skulle behandla drone-videofilmer. Mängden videofilmer som spelats in av drönare varje dag var för mycket för mänskliga analytiker att granska, och Pentagon ville automatisera en del av processen.

Genom att erkänna den kontroversiella karaktären av uppgiften förklarade en talesman för Google att den endast tillhandahöll API: er för TensorFlow, dess maskininlärningsplattform, för att upptäcka objekt i videofeeds. Google betonade också att det utvecklade policyer och skyddsåtgärder för att hantera etiska aspekter av dess teknik.

Men Project Maven satt inte bra med Google-anställda - 3 000 av dem, inklusive dussintals ingenjörer, undertecknade snart ett öppet brev till VD Sundar Pichai som krävde att programmet avslutades.

"Vi anser att Google inte bör vara i krigsföretag", står det i brevet. Den bad att företaget "utarbetar, publicerar och verkställer en tydlig policy som säger att varken Google eller dess entreprenörer någonsin kommer att bygga krigsteknik."

Google-anställda varnade också för att deras arbetsgivare äventyrar sitt rykte och sin förmåga att konkurrera om talanger i framtiden. "Vi kan inte lägga ut det moraliska ansvaret för vår teknik till tredje part, " betonade Googlers.

Strax efterpå begärde en framställning undertecknad av 90 akademiker och forskare de bästa cheferna på Google att avbryta arbetet med militär teknik. Undertecknarna varnade för att Googles arbete skulle sätta banan för "automatiskt måligenkänning och autonoma vapensystem." De varnade också för att när teknologin utvecklas skulle de stå "ett kort steg bort från att tillåta autonoma drönare att döda automatiskt, utan mänsklig övervakning eller meningsfull mänsklig kontroll."

När spänningarna ökade avgick flera anställda på Google i protest.

Hur tekniska ledare svarade

Under press förklarade Google i juni att det inte skulle förnya sitt kontrakt med försvarsdepartementet på Project Maven efter att det upphörde att gälla 2019.

I ett blogginlägg förklarade VD Sundar Pichai (bild nedan) en uppsättning etiska principer som skulle styra företagets utveckling och försäljning av AI-teknik. Enligt Pichai kommer företaget från och med nu att överväga projekt som är till förmån för samhället som helhet och undviker utvecklingen av AI som förstärkte befintliga orättvisa fördomar eller undergrävde allmän säkerhet.

Pichai uttalade också uttryckligen att hans företag inte kommer att arbeta med teknik som bryter mot mänskliga rättighetsnormer.

Amazons Bezos blev mindre otroliga av raseri över rekognition. "Vi kommer att fortsätta att stödja DoD, och jag tror att vi borde", sade Bezos på en teknikkonferens i San Francisco i oktober. "Ett av ledarna för seniorledare är att fatta rätt beslut, även när det är opopulärt."

Bezos underströk också behovet av teknikgemenskapen att stödja militären. "Om stora teknikföretag kommer att vända ryggen till DoD kommer detta land att vara i problem, " sade han.

Microsofts president Brad Smith, vars företag mött kritik över sitt arbete med ICE, publicerade ett blogginlägg i juli där han krävde en uppmätt strategi för att sälja känslig teknik till myndigheter. Medan Smith inte utesluter att sälja ansiktsigenkänningstjänster till brottsbekämpning och militären, betonade han behovet av bättre reglering och öppenhet inom tekniksektorn.

  • MIT för att spendera 1 miljard dollar på program för att studera AI-etik MIT att spendera 1 miljard dollar på program för att studera AI-etik
  • Talar AI verkligen vårt språk? Talar AI verkligen vårt språk?
  • Bryta ner Kinas ostoppbara AI-fabrik Bryta ner Kinas instoppbara AI-fabrik

"Vi har valda representanter i kongressen har de verktyg som behövs för att utvärdera denna nya teknik, med alla dess förgreningar. Vi har nytta av kontrollerna och balanserna i en konstitution som har sett oss från levande ålder till en era av konstgjord intelligens. Som i så många gånger i det förflutna måste vi se till att nya uppfinningar tjänar våra demokratiska friheter i enlighet med rättsstatsprincipen, ”skrev Smith.

2018 avlägsnade avlägsna hot om mördningsrobotar och massarbetslöshet oro för den mer omedelbara etiska och sociala effekten av AI. På många sätt indikerar denna utveckling att branschen mognar eftersom AI-algoritmer blir mer framträdande i kritiska uppgifter. Men när algoritmer och automatisering blir mer ingripna i våra dagliga liv kommer fler debatter att uppstå.

Ai-branschens år för etisk räkning