[#if caratula??]
    [#if caratula?is_hash]
        [#if caratula.alt??]
            ${caratula.alt}
        [/#if]
    [/#if]
[/#if]
Publicat el 14 de juny 2020

“El reconeixement facial funciona si ets un home blanc”. Al febrer de 2018 el New York Times publicava un article en el qual explicava que els sistemes de reconeixement facial són precisos en un 99% a l'hora de reconèixer homes adults caucàsics però en canvi tenen una eficàcia del 65% quan la persona a identificar és una dona racialitzada.

Aquestes són dades de l'estudi presentat fa dos anys per Timnit Gebru del equip d'investigació de Microsoft i Joy Buolamwin, investigadora del MIT Media Lab. Al llarg de les seves carreres, aquestes dones afroamericanes es van adonar que els sistemes de reconeixement facial utilitzats en els laboratoris tenien problemes a l'hora de reconèixer les seves cares però no obstant això, reconeixien perfectament la dels seus col·legues blancs. Va ser quan aquests sistemes van començar a comercialitzar-se que aquestes joves investigadores van decidir demostrar empíricament el biaix racial dels sistemes de reconeixement facial.

Aquests sistemes són models d'intel·ligència artificial, un tipus de software que funciona millor quantes més dades té. Segons la informació amb la qual compti, el seu comportament serà d'una manera o una altra. Per tant, quants més homes blancs hi hagi en el sistema i menys dones racialitzades, més eficaç serà reconeixent homes i menys reconeixent dones.

Amb l'augment de l'ús d'aquesta mena de tecnologies per part de les forces de l'ordre, són diversos els estudis que com el de Buolamwin i Gebru demostren que els algorismes d'aquests sistemes tendeixen a fallar a l'hora d'identificar persones negres o asiàtiques. Fins i tot organitzacions governamentals com ara l'Institut Nacional d'Estàndards Tecnològics (NIST per les sigles en anglès) va concloure el 2019 que alguns d'aquests sistemes són fins a 100 vegades millors reconeixent cares caucàsiques que no pas d'altres races.

“Compromís ètic”
La fiabilitat d'aquestes tecnologies de reconeixement facial ha tornat a sortir a la palestra aquesta setmana després que el CEO d'IBM, Arvind Krishna, enviés una carta al Congrés dels Estats Units en la qual confirmava que l'empresa deixa de comercialitzar el seu programari de reconeixement facial a més de demanar públicament una reforma de la policia nord-americana.

“IBM condemna l'ús de qualsevol tecnologia, inclòs el reconeixement facial per a la vigilància massiva, categorització racial, violació de drets humans o qualsevol ús que no concordi amb els nostres valors i principis d'honestedat i transparència” anunciava Krishna.


Carta de del CEO d'IBM  Arvind Krishna al Congrés dels Estats Units

Un any de moratòria
Uns dies més tard de la missiva d'IBM, Amazon anunciava aquest dimecres que denegarà l'ús del seu programari de reconeixement facial a la policia estatunidenca durant un any. El gegant americà defensa que els governs haurien d'establir regulacions més severes quant a l'ús ètic del reconeixement facial. “Esperem que aquesta moratòria d'un any doni al congrés el temps suficient per a implementar mesures apropiades i ens oferim per ajudar si cal” concloïa l'anunci.


Anunci d'Amazon

Amazon era fins ara l'única empresa a prestar el seu servei de reconeixement facial, Rekognition, a les forces de l'ordre americà.

Aquest sistema va ser durament criticat el 2018 quan l'Associació americana de llibertats civils (ACLU per les sigles en anglès) va descobrir que aparellava erròniament a 28 membres del congrés amb amb rostres aleatoris d'entre 25.000 fitxes policials.

28 membres del congrés identificats erròniament a l'estudi d'ACLU.

“No podem fer-ho sols”
Encara no s'havien complert 24 hores de l'anunci d'Amazon quan el president de Microsoft, Brad Smith, declarava en un directe al Washington Post que la companyia no vendrà el seu programari de reconeixement facial a la policia estatunidenca fins que s'estableixi una regulació federal sobre aquest tema.

“No podem fer-ho sols”” va dir Smith en referència a la decisió que també han pres IBM i Amazon. “Si alguna de les empreses en aquesta indústria cedeixen aquests serveis a empreses que no estan preparades per a això, no estarem servint a l'interès nacional ni a les vides de les persones afroamericanes d'aquest país", afegia.

L'altra cara de la moneda
No obstant això, malgrat els seus anuncis sobre la limitació dels serveis de reconeixement facial, ni Amazon ni Microsoft ni IBM deixaran de comercialitzar altres serveis d'escrutini i vigilància policial durament criticats per fer ús d'arxius de dades que contenen un biaix racial en la documentació d'incidents de les forces de seguretat.

Microsoft té un contracte amb el pentàgon de 10 bilions de dòlars per a la implementació de cascos amb realitat augmentada i identificació d'objectes per a ús militar. IBM fa diversos anys que ofereix tecnologia de rastreig a cossos policials de diversos estats. I Amazon, per la seva banda, continua oferint els enregistraments del seu servei de càmera d'entrada a habitatges a la policia americana, encara que aquest servei encara no compti amb tecnologia de reconeixement facial.

Investigadors i activistes són crítics amb els anuncis d'aquestes tres grans corporacions. Deb Raji, investigadora al AI Now Institute de la Universitat de Nova York explicava el divendres en el Podcast What Next: TBD de la revista Slate que el moviment d'aquestes grans empreses és “bàsicament un moviment comercial i publicitari”.

Liz O’Sullivan, directora de tecnologia del Projecte de Supervisió de Vigilància Tecnològica (STOP per les sigles en anglès) publicava un fil a Twitter dijous passat en el qual denunciava els motius pels quals aquestes empreses han pres ara aquesta decisió.

Segons O’Sullivan el fet que tant Amazon com Microsoft posin com a requisit per a cedir els seus serveis a les forces de seguretat de l'Estat que hi hagi una legislació federal, fa pensar que el que volen és tenir una capacitat d'influència en la legislació que no tindrien en les legislacions estatals.

La vigilància a casa
L'ús de tecnologies per a la vigilància de les persones ha esclatat aquesta setmana als Estats Units, però a Catalunya també ha cobrat protagonisme en saber-se que l'Ajuntament de Barcelona ha licitat la instal·lació de 13 càmeres "d'alta resolució" a Ciutat Vella a través del projecte europeu Secur cities, pensat per millorar la protecció de l'espai públic davant d'amenaces terroristes o altres incidents crítics.

El tinent d'alcaldia de Seguretat, Albert Batlle, va explicar el passat dimecres que són càmeres de reposició de tecnologies ja obsoletes i que la renovació es va començar a activar arran dels atemptats del 17 d'agost del 2017. A més, va negar que facin reconeixement facial i ha destacat que el sistema de càmeres a l'espai públic que hi ha a Barcelona és "el més garantista d'Europa".

De fet, Batlle recordava que qualsevol càmera a la via pública ha d'estar autoritzada per la Comissió de Control dels Dispositius de Videovigilància de Catalunya, que segons defineix la Generalitat té com a finalitat "vetllar perquè es garanteixi el dret a la privacitat, intimitat i a la pròpia imatge dels ciutadans que poden resultar afectats per aquests dispositius de control".

Fonts municipals reiteren que en cap cas les càmeres tindran la capacitat de reconeixement facial, com publica La Directa, i afirmen que és una característica que l'ajuntament no s'ha plantejat. Les mateixes fonts indiquen que les noves càmeres augmentaran el seu camp de visió passant dels 10 metres actuals als 30 metres i en alguns punts que ja tenien càmeres s’instal·laran més d’una càmera per tenir més angles. "En cap cas es capten imatges que no siguin de l’espai públic", apunten.

— El més vist —
- Comentaris -
- Etiquetes -
— El més vist —