Els nous ulls de Barcelona - Diari de Barcelona

la ciutat ens vigila
Els nous ulls de Barcelona
La instal·lació de tretze càmeres de videovigilància amb reconeixement facial a la capital catalana ha posat sobre la taula el debat del dret a la privacitat
El famós novel·lista britànic George Orwell ja va advertir l’any 1949 dels grans perills de la vigilància massiva quan es troba en les mans equivocades. L’obra 1984 presenta una imatge inquietant de la ciutat de Londres, oprimida per un govern summament autoritari que asfixia i desmoralitza els seus habitants. La monitorització exhaustiva de la vida quotidiana dels seus ciutadans els impedeix poder pensar i tenir una visió crítica de la realitat on conviuen.
Malgrat ser considerada una obra de ficció sobre un futur distòpic, els successos esdevinguts en els últims anys —accelerats per l’expansió inexorable de la pandèmia de la covid-19— tendeixen a mostrar-nos la faceta més profètica de l’escriptor. El que va considerar-se ficció, ara és una realitat; el futur, pot ser un present molt proper; la distopia, un possible esbós de la societat contemporània.
L’atemptat terrorista de les Rambles de Barcelona de l’agost de 2017 i les restriccions derivades de la pandèmia són antecedents suficients perquè l’Ajuntament de Barcelona hagi autoritzat la instal·lació de tretze càmeres de videovigilància amb intel·ligència artificial biomètrica —capaces d’analitzar rostres humans— en l’espai públic. Aquesta instal·lació s’emmarca dins d’un pla finançat per la Comissió Europea, amb l’objectiu de millorar la seguretat al centre de la ciutat de Barcelona i prevenir possibles atemptats terroristes.
Aquest projecte es va iniciar el passat gener i es calcula que tindrà una durada de tres anys. Actualment, es troba en la seva segona fase i preveu la instal·lació de les càmeres a altres ciutats europees com Niça, Canes, Perpinyà o París. El projecte suposa la protecció d’espais emblemàtics, la modernització del sistema de videovigilància i l’elaboració d’un estudi sobre la protecció de les zones més sensibles de la ciutat.
El projecte Secur’Cities es troba ara mateix en una situació d’al·legalitat: malgrat la seva intenció d’augmentar la protecció de la ciutadania, les seves pautes de procediment poden arribar a violar el reglament europeu de protecció de dades si es fa un mal ús d’aquesta tecnologia. Per aquest motiu, especialistes en drets digitals i privacitat s’han mostrat molt contraris al seu ús.
Al seu torn, experts en dades biomètriques i intel·ligència artificial es mostren escèptics sobre què significarà això pel futur immediat de la ciutadania. Tanmateix, és interessant primer fer un repàs pel procés d’instal·lació de les càmeres a Barcelona. No tan sols s’ha produït una il·legalitat en la licitació de l’ajuntament, sinó que la principal empresa subcontractista ha estat assenyalada per Nacions Unides per vulnerar els drets humans.
Una instal·lació poc convencional
Ens remuntem al 13 de maig de 2020. Albert Batlle, cap de la Gerència de l’Àrea de Seguretat i Prevenció de l’Ajuntament de Barcelona i cinquè tinent d’alcalde, s’adhereix al projecte Secur’Cities i proposa la instal·lació de tretze càmeres de videovigilància noves.
L’Ajuntament presenta un concurs públic a sobre tancat amb unes prescripcions tècniques molt concretes pel que fa al software de les càmeres —“sistema de gravació del tipus Avigilon HD-NVR4-PRM-96TB-EU, similar o superior, empresa propietat de la multinacional nord-americana Motorola)—. El 29 de maig, termini per a la presentació d’ofertes del concurs, hi ha nou propostes diferents. Les prescripcions o requisits tècnics del concurs demanen la proposta d’una empresa per al proveïment i instal·lació de les 13 càmeres —empresa contractista— i, a més, una empresa contractada per l’anterior per a la implantació del software de videovigilància en les tretze càmeres —empresa subcontractista—. L’empresa contractista, doncs, s’encarrega de la instal·lació física i del model de les càmeres mentre que l’empresa subcontractista es responsabilitza del software.
L’Ajuntament de Barcelona va decidir que l’empresa contractista seria el fabricant i proveïdor d’equips de videovigilància xinès Hikvision i la subcontractista l’empresa Avigilon. Des del moment de l’aprovació es va especificar que les empreses tenien des del 13 de juny fins al pròxim 31 de desembre per realitzar les instal·lacions. Certament, les tretze càmeres ja van ser instal·lades als punts indicats al mapa, però el software no està disponible.
Mapa de Barcelona amb els punts d'instal·lació de les càmeres.
El 19 d’octubre, Albert Batlle va anunciar un “error” en el concurs públic que els obligava a anul·lar la licitació d’instal·lació del software de les càmeres. El plec de prescripcions tècniques que l’Ajuntament va facilitar per a la participació del concurs no respecta el principi de concurrència ni de neutralitat tecnològica esgrimit per la Llei de Contractes del Sector Públic. L’Ajuntament de Barcelona, segons la llei ja esmentada, no podia haver redactat al plec de prescripcions tècniques la necessitat d’un “sistema de gravació del tipus Avigilon HD-NVR4-PRM-96TB-EU, similar o superior” perquè s’esmentava directament el nom de l’empresa subcontractista i, per tant, no deixava lloc a la participació de propostes d’altres empreses.
Tot això ha congelat la instal·lació del programari de les tretze càmeres de videovigilància fins que es torni a redactar un nou document de prescripcions tècniques i se celebri un nou concurs públic. Per tant, des del juny, les càmeres estan instal·lades com un element merament decoratiu, ja que no funcionen.
Aquest emboic de Barcelona no és el primer en què es troba la multinacional nord-americana. Ja a Palestina, l’empresa va ser denunciada per les Nacions Unides per col·laborar en la vulneració dels drets humans mitjançant la videovigilància. El passat 20 de març, Motorola va aparèixer en un llistat d’empreses involucrades en l’ocupació il·legal de Cisjordània i Jerusalem Est, sent acusada de subministrar equips de vigilància i identificació. Aquesta empresa ha declinat participar en el mencionat reportatge.
L’opinió dels experts
“La instal·lació ha d’estar sotmesa al dret”, sosté Ricard Martínez al Diari de Barcelona, professor de Dret Constitucional i director de la Càtedra de Privacitat i Transformació Digital a la Universitat de València, qui assegura que la decisió ha de “basar-se en la proporcionalitat: no hi ha prou en la política pública o policial, sinó que s’ha de pensar en una circumstància rellevant”. Un context que creu que pot estar justificat amb els antecedents dels atemptats terroristes a les Rambles de Barcelona.
“Vivim dins d’un espai vigilat”, troba el docent. I és que, almenys des de l’any 2001, la lluita contra el fenomen global del terrorisme ha desenvolupat un conjunt d’eines adreçades a la captació d’informació i control de persones. “Avui dia els enregistraments massius són molt sistemàtics. Això suposa una limitació dels nostres drets, se’ns registren dades bàsiques”, explica.
No obstant això, Martínez admet que es tracta d’una “qüestió delicada”: la vigilància massiva de població suposa un “risc per a les societats occidentals” i genera un “conflicte entre la seguretat i els drets de les persones. El sacrifici de les llibertats és sostenible en els casos en què els poders públics es subjecten als procediments legals i asseguren traçabilitat. L’excusa de la lluita antiterrorista no és suficient, ha d’estar justificat en un context i ser proporcional”.
Aquestes mesures, que el professor Martínez qualifica com a “força invasives”, han d’estar subjectes al control i oferir certes garanties: “A més d’estar justificada, cal garantir contrapesos, auditories i fiscalitzacions, així com ser capaços de traçar tot el procés i identificar els responsables. Si tot això no passa, tenim un greu problema amb la garantia dels drets fonamentals”, conclou.
Les càmeres amb intel·ligència artificial presenten importants diferències amb aquelles càmeres ordinàries amb les quals estem més familiaritzats. Roberto Carbajal, enginyer de telecomunicacions i expert en intel·ligència artificial (I.A.), afirma que a les càmeres amb programari d’intel·ligència artificial, el sistema treballa de forma autònoma i va reconeixent les imatges a mesura que les va captant i seguint uns patrons. En canvi, les ordinàries s’envien a monitors en què és l’ull humà qui les ha de veure i analitzar.
Amb les càmeres que s’han instal·lat a Barcelona, Roberto Carbajal també afirma que tècnicament és possible crear bases de dades. “Els sistemes necessiten informació per tal de fer comparacions. Com més informació tinguin, més aprendran les càmeres”, assegura Carbajal. A més, poden realitzar les cerques i les comparacions en molt pocs segons, pràcticament a temps real, sempre que els sistemes estiguin interconnectats.
Aquestes càmeres funcionen com si les cares de la gent fossin la seva empremta dactilar. Les càmeres capten tot el que poden de la part facial, dividint-la en moltes parts per detectar les particularitats de cadascú. Al seu torn, Roberto Carbajal creu que encara hi ha “falsos positius” i que cal acabar de perfeccionar el funcionament, ja que a vegades les càmeres no tenen tota la informació que necessiten.
Líders polítics d’arreu del món monitoritzen els seus ciutadans sense el seu consentiment
Segons l’esbós d’un document filtrat per la revista Político el 17 de gener, la vicepresidenta executiva de la Comissió Europea, Margrethe Vestager, plantejava la prohibició dels sistemes de reconeixement facial en tot el territori de la Unió Europea “fins que un grup assessor determini els impactes d’aquesta tecnologia i fins que les mesures per pal·liar els possibles riscos associats siguin desenvolupades”.
El reglament general de protecció de dades de la Unió Europea (RPGD), en vigor des de 2016, prohibeix el tractament de dades biomètriques amb la finalitat d’identificar una persona o fer-ho amb dades relatives a la seva salut, vida sexual o orientació sexual. Les imatges captades per càmeres de reconeixement facial no poden ser tractades si no hi ha consentiment i coneixement de la gravació.
Tots aquests estatuts, en la pràctica no són més que paper mullat. Existeixen dades oficials que la corporació AnyVision monitoritza la vida quotidiana de la població palestina sense el seu consentiment gràcies a un software instal·lat en més de cent mil càmeres de dispositius mòbils. Entre 2014 i 2016, Amazon va arribar a un acord milionari amb la CIA i l’Agència Nacional de Seguretat dels Estats Units per crear una gran base de dades anomenada Intelligence Community GovCloud. A dia d’avui, aquest projecte emmascarat sota el nom d’Amazon Recognition controla socialment la població mitjançant la intel·ligència artificial.
Sense anar més lluny, l’any passat, les empreses Gunnebo Iberia i Thales Iberia, sota el consentiment del govern espanyol, van instal·lar un sistema de càmeres de videovigilància amb reconeixement facial a les fronteres de Ceuta i Melilla per controlar si els estrangers tornaven al seu país en acabar el permís de visitant estipulat per la llei. Per últim, al febrer, una investigació de Zach Campbell a The Intercept alertava de la intenció d’una desena d’estats europeus de crear una plataforma tecnològica compartida per accedir a bases de dades de reconeixement facial.
Tot i que aquesta clara vulneració de la privacitat dels ciutadans ens sembli inquietant, Xina porta dècades fent ús d'aquest monitoratge dels seus conciutadans gràcies al flux de dades constant entre les companyies de telefonia, Internet i el mateix govern.
En el territori xinès no hi ha una consciència crítica de la vigilància digital i el concepte d'esfera privada ja ha desaparegut. En tota la Xina hi ha instal·lades més de dos-cents milions de càmeres que controlen exhaustivament la vida quotidiana de la població. Els òrgans governamentals, lluny de dissimular aquesta clara vulneració a la privacitat, van instaurar un sistema de crèdit social per avaluar la conducta dels seus ciutadans: si compres menjar saludable i llegeixes diaris afins al règim xinès, obtens crèdits socials. Si, per contra, critiques el govern en xarxes socials o dus a terme conductes considerades incíviques pel poder, perds aquests crèdits socials.
Guanyar crèdits socials es tradueix en una major possibilitat de trobar feina, aconseguir un visat o comprar productes per un preu més econòmic. Perdre crèdits, en canvi, significa l'expulsió directa del teu lloc de treball i la pèrdua total a la deportació de país. La societat xinesa ja fa molts anys que es regeix per aquest model de societat orwelliana.
L’arribada d’aquestes càmeres pot suposar un abans i un després pel que fa a la vigilància massiva per part de les autoritats. Ara sabem que aquest entramat tecnològic que semblava només de pel·lícules futuristes el tenim a tocar i molt més a prop del que ens pensem. Alguns filòsofs com Byung-Chul Han o Yuval Noah Harari han teoritzat a les seves obres aquest paradigma tan complex i, a la vegada, tan desconegut. Han està segur que, tard o d’hora, el model de videovigilància xinès s’assentarà a tot el món. Harari, en canvi, afirma que arribarà un punt en què la intel·ligència artificial conegui més de nosaltres que nosaltres mateixos.
Tots els filòsofs que conjeturen sobre aquest “neopensament” tecnològic tendeixen a trobar un punt de trobada en la següent afirmació: el nostre futur com a societat resideix en l’ús que les esferes de poder li donin a la tecnologia.
Tal i com hem vist amb Xina o Palestina, els governs ja disposen dels instruments necessaris per monitoritzar-nos. Alguns, però, encara no els han posat en pràctica. L’inici d’aquesta dècada està sent un punt d’inflexió social i ètic en tots els sentits: la resposta política al coronavirus, les protestes antiracistes, la “infodèmia” de les xarxes socials, etc. El món està atravessant un moment clau per determinar si el que deia Orwell a les seves novel·les era pura ciència ficció o acabarà esdevenint una realitat.
Malgrat les múltiples trucades i correus electrònics al departament de premsa de l’Ajuntament de Barcelona, la Generalitat de Catalunya i, en última instància, el Tribunal Superior de Justícia de Catalunya (TSJC), cap d’aquests organismes ha volgut pronunciar-s’hi.

