Limitele inteligenței artificiale

AI: Rezultatul rezultatului descoperirii cercetătorului Joy Buolamwini al cercetătorului MIT Media Lab conform căruia recunoașterea facială nu vede cu exactitate chipurile cu pielea închisă la culoare.

(Traducere din Engleză de Google Gtranslate)

Shalini Kantayya urmărește limitele umane ale capacităților Inteligenta Artificiala (AI) în filmul ei plin de informații, bine informat și puternic feminin.

Susținut de Women Make Movies și susținut, printre altele, de Institutul Sundance, Bias codat se bazează pe o distribuție formată în principal de personaje feminine, în mare parte autori și academicieni, care sunt toți experți în prejudecățile periculoase, antidemocratice, atât ale coperții, cât și din cele comerciale AI aplicatii.

Dacă căutați motive pentru care ar trebui să vă opuneți târâtorului totalitarism a Internet din toate, atunci acesta este un punct de plecare excelent, cu o bibliografie care ar putea să vă mențină offline timp de mai multe luni.

Coded Bias, un film de Shalini Kantayya-still1-MTR
Coded Bias, un film de Shalini Kantayya

Biasuri ascunse

Eroina cheie a filmului este Joy Buolamwini, o tânără candidată la doctorat neagră la Massachusetts Institute of Technology (MIT) Media Lab.

Strălucitor și încrezător, Buolamwini - care combină intelectul precoce cu talentul de a inventa poezia afectivă rap - cade în înțelegerea cât de complet compromisă este inteligența artificială atunci când, în timpul unui proiect de cercetare care se bazează pe recunoașterea facială, permite utilizatorilor unei aplicații să-și ofere diverse măști online, demască un fapt îngrijorător: aplicațiile de recunoaștere facială ale companiilor gigant de tehnologie nu reușesc să detecteze fețele negre, în special fețele negre feminine, într-un procent uimitor de mare de cazuri.

Ceea ce a fost inițial o problemă tehnică iritantă în căutarea unei mici aplicații distractive, devine în curând o investigație serioasă asupra prejudecăților ascunse ale unei tehnologie acest lucru este deja omniprezent în majoritatea țărilor.

Pe măsură ce Buolamwini începe să caute răspunsuri, ea întâlnește femei care au început deja să înțeleagă natura insidioasă a IA, inclusiv Cathy O'Neil, o fostă Wall Street consilier (care susține că a fost angajată fără cunoștințe despre industria serviciilor financiare, ci pur și simplu pentru că era bună la rezolvarea puzzle-urilor matematice).

Dacă căutați motive pentru care ar trebui să vă opuneți totalitarismului târâtor al internetului de toate, atunci acesta este un mare punct de plecare

O'Neil, o femeie atrăgătoare, cu o linie grozavă în tunsori de culoare albastru deschis, este o geek mărturisită de sine, care a avut o epifanie în vârstă de 14 ani în tabăra de vară, care și-a dat seama că ar putea rezolva Cubul lui Rubik într-o clipă. degetele ei.

Buolamwini se întâlnește cu ea la Cambridge, Massachusetts, la o semnare a cărții Arme de distrugere a matematicii - Cum Big Data crește inegalitatea și amenință democrația, și este inspirat să analizeze mai departe de ce AI reprezintă o astfel de amenințare (nu în ultimul rând pentru că, fiind capabilă de învățare neobservată, este efectiv o „cutie neagră”).

Ea este deja conștientă de faptul că „trecutul locuiește în alogritmii noștri” - văzând modul în care tendința inconștientă a fondatorilor AI (clasa albă, masculină, mijlocie) din anii 1950 la Dartmouth College - au însămânțat tendința inconștientă în seturile de date utilizate pentru configurați AI de atunci.

O'Neil este caracteristic asertiv în viziunea ei asupra AI: «An Algoritmul folosește informații istorice pentru a face predicții despre viitor; problema este că este vorba despre cine deține nenorocitul de cod; oamenii care îl dețin îl implementează apoi pe alți oameni ... Nu există simetrie, nici o modalitate prin care oamenii care nu au primit carduri de credit să o folosească împotriva sistemului de carduri de credit; nu există responsabilitate. »

Atât de mult pentru utilizările comerciale ale IA - care pot și pot face multe daune oamenilor obișnuiți fără a fi niciodată tras la răspundere: până la 4 milioane de persoane și-au pierdut casele în timpul crizei subprime din SUA în 2008, ca algoritmi care au prezis șanse viitoare de neîndeplinire a obligațiilor au fost utilizate pentru a emite notificări de executare silită.

A fost, un expert în film, „cea mai mare ștergere a bogăției negre din istoria SUA”, adăugând că „tirania acestor tipuri de practici de discriminare a devenit opacă”.

Cu o referință ocazională la HAL 9000, computerul atotvăzător din A lui Stanley Kubrick 2001: A Space Odyssey - și obsedanta lui Clare de Lune a lui Debussy pe care Kubrick a folosit-o la un efect atât de mare, filmul se mută pe mai multe sinistre abuzuri și abuzuri ale AI.

Coded Bias, un film de Shalini Kantayya-still2-MTR
Coded Bias, un film de Shalini Kantayya

Watch Big Brother

În Londra, Poliția Metropolitană a încercat - fără nicio supraveghere de reglementare - încercarea tehnologiei de recunoaștere facială la nivel de stradă aleatorie, folosind camionete nemarcate (altele decât logo-urile cu mândrie și aparent fără urmă de ironie, afirmând „Poliția Metropolitană. Poliție totală”).

Aici grupul de libertăți civile Watch Big Brother este pe cale să contracareze coperta supraveghere, spunând trecătorilor că sunt filmați de un sistem de recunoaștere facială fără permisiunea lor. Un bărbat care își ascunde fața în timp ce merge lângă dubiță este contestat de poliție și primește o amendă la fața locului (probabil pentru comportament antisocial, una dintre puținele amenzi ușor de emis pe care le poate aplica poliția, datorită hotărârii Marii Britanii conservator guvernul, cel mai de dreapta din istoria țării.)

Un bărbat care își ascunde fața în timp ce merge pe lângă dubă este provocat de poliție și aplicat o amendă la fața locului

Big Brother Watch a desfășurat o campanie de libertate de informare și a constatat că 98% dintre meciurile pentru suspecții criminali găsiți erau „potrivirea incorectă a unei persoane nevinovate ca o persoană căutată”.

„Să ai fața ta biometrică pe o bază de date a poliției este ca și cum ai avea amprenta digitală sau ADN-ul și avem legi specifice în acest sens”, spune un militant al Big Brother Watch. «Poliția nu poate lua doar amprentele tale sau ADN-ul tău ... Dar în acest sistem ciudat pe care îl avem, pot să facă fotografia biometrică a oricui și să o păstreze într-o bază de date a poliției. Poliția a început să utilizeze tehnologia de recunoaștere facială în Marea Britanie în absența completă a unui temei legal. »

Coded Bias, un film de Shalini Kantayya-still3-MTR
Coded Bias, un film de Shalini Kantayya

Experiența chineză

Filmul intră în experiența chineză - unde recunoașterea facială este un instrument omniprezent Partidul Comunist control social, și mulți oameni s-au domesticit deja - și face comparația cu SUA, observând că, cel puțin în China, guvernul este deschis cu privire la ceea ce face; în America, cea mai mare parte a recunoașterii IA și a feței continuă să se desfășoare sub radar.

Nu toate sunt vești proaste. Informația este putere și a lui Buolamwini Liga Justiției Algoritmice a avut unele succese: pe 10 iunie 2020, Amazon a anunțat o pauză de un an cu privire la utilizarea de către poliție a tehnologiei sale de recunoaștere facială, iar în iunie acel an, parlamentarii americani au introdus legislația pentru a interzice utilizarea federală a recunoașterii faciale.

Cu toate acestea, nu există încă o reglementare federală americană cu privire la algoritmi și nici o acțiune politică în Marea Britanie împotriva utilizării de către Met a insidioasei tehnologii antidemocratice.

DRAGA CITITORULE.
Ce zici de a abonament, pentru acces complet și 2-3 copii tipărite prin poștă pe an?
(Modern Times Review este o organizație non-profit și apreciem cu adevărat acest sprijin din partea cititorilor noștri.) 

Nick Holdsworthhttp://nickholdsworth.net/
Criticul nostru obișnuit. Jurnalist, scriitor, autor. Lucrează mai ales din Europa Centrală și de Est și Rusia.
Juriul pentru documentare Berlinale și programul complet al competiției au fost anunțate
#Berlinale s-a angajat de mult timp pentru diversitatea formelor documentare. Un premiu distinct pentru cel mai bun documentar...
Cinéma du réel evidențiază noul val documentar african cu accent pe 2022
Dieudo Hamadi a fost selectat atât la #Berlinale, cât și la #Cannes; #Hassen Ferhani# a fost premiat la #Locarno. Acestea sunt doar două...
Laura Huertas Millán se alătură echipei de mentorat a 7th Forecast Platform; apel pentru proiecte acum deschis
În fiecare an, mințile creative care lucrează în diverse discipline sunt invitate să trimită propuneri de proiecte prin intermediul platformei #Forecast# axată pe interdisciplinare din Berlin...
DREPTURI: Avem nevoie de spațiu (2022 Director's Cut) (reg.: Simon White)Odată cu proiectul de lege privind poliția, crima, sentințele și tribunalele care își trece prin parlament, dreptul Marii Britanii de a protesta și de a se întruni liber continuă să fie atacat.
CHINA: China: Drama uigură (reg.: François Reinhardt)Genocid sub orice alt nume – campania președintelui Xi Jinping pentru eradicarea uigurilor musulmani din vestul Chinei.
CREANŢĂ: Loc de muncă în bancă (reg.: Dan Edelstyn, …)O caperă genială, dar serioasă, comică, cu tot stilul și panacheul Italian Job – și inima și sufletul celor mai buni din activismul social britanic.
MUNCĂ: Toate în (reg: Volkan Üce)O nouă lume a bikinilor colorați și exigențe intense se deschide pentru doi tineri timizi care lucrează la un hotel all-inclusive de pe Riviera Turciei.
IDENTITATE: Travesti Odyssey (reg.: Nicolas Videla)Îmbinate cu zile de proteste, ultimele zile ale radicalului chilian Cabaret Travesía Travesti arată cât de important este ca comunitatea trans să se ridice pentru a-și spune propriile povești.
BEIRUT: Beirut: Ochiul furtunii (dir: Mai Masri)Patru femei progresiste documentează revoltele de la Beirut din 2019, până la loviturile Covid-19.
- Publicitate -

S-ar putea sa-ti placa siLEGATE DE
Ți-a fost recomandat

X