ChatGPT
Per EFE
Publicat el 14 d’abril 2023

Espanya, a través de l'Agència Espanyola de Protecció de Dades (AEPD), ha iniciat d'ofici actuacions prèvies de recerca a l'empresa nord-americana OpenAI, propietària del servei d'intel·ligència artificial generativa ChatGPT, per un possible incompliment de la normativa espanyola i europea. Espanya se suma així a les accions que, amb diferent grau, han anat prenent països com Itàlia, i a les peticions d'organitzacions de consumidors davant la preocupació creixent perquè aquesta eina pugui vulnerar la privadesa i la protecció de dades dels usuaris.

L'autoritat pública espanyola, la missió de la qual és vetllar pel compliment d'aquests drets entre la ciutadania, ha defensat en un comunicat el desenvolupament i la posada en marxa de tecnologies innovadores com la intel·ligència artificial des del "ple respecte" a la legislació vigent, atenent-se al Reglament General de Protecció de Dades. Ha considerat que "només des d'aquest punt de partida es pot dur a terme un desenvolupament tecnològic compatible amb els drets i les llibertats de les persones".

En aquest sentit, ha apostat per adoptar accions harmonitzades i coordinades a nivell europeu. La setmana passada va sol·licitar al Comitè Europeu de Protecció de Dades (EDPB, per les sigles en anglès) que s'inclogués el servei ChatGPT com a tema a abordar a la reunió plenària. A la reunió d'aquest dijous, aquest comitè va decidir llançar un grup de treball per fomentar la cooperació i intercanviar informació sobre les accions dutes a terme per les autoritats de protecció de dades.

Bloqueig a Itàlia

El 31 de març passat Itàlia va anunciar el bloqueig de l'ús de l'eina ChatGPT, acusant-la de no respectar la llei de protecció de dades dels consumidors. El fiador italià per a la Protecció de Dades Personals va assegurar que havia obert una investigació i que, mentrestant, el bloqueig es mantindrà fins que ChatGPT "no respecti la disciplina de la privadesa".

Va afirmar que aquest xat, capaç de simular converses humanes o crear textos, va patir el 20 de març passat una pèrdua de dades sobre els seus usuaris i les dades de pagament dels seus abonats. Ahir, Itàlia va donar de termini fins al 30 d'abril a OpenAI perquè adapti la gestió de dades de ChatGPT a la normativa italiana. A més, va sol·licitar un sistema de verificació d'edat que sigui capaç d'evitar l'accés als menors de 13 anys, i que la companyia iniciï abans del 15 de maig una campanya pels mitjans de comunicació per informar sobre l'ús que fa de les dades personals dels usuaris.

L'Organització Europea de Consumidors (BEUC) va instar el mes passat les autoritats de la Unió Europea i dels Vint-i-set que obrissin una investigació sobre ChatGPT i chatbots similars, davant del "risc" que corren els usuaris de "patir danys" a causa d'una tecnologia sense regular. L'associació que representa els consumidors de la UE va fer aquesta petició després de la denúncia presentada pel grup de la societat civil Centre d'IA i Política Digital davant la Comissió Federal de Comerç dels Estats Units, plantejant, entre d'altres, qüestions crítiques sobre el impacte de GPT-4 en la protecció dels consumidors i les seves dades.

Una carta oberta amb més de 24.700 signatures 

Una de les accions que més ressò haa tingut és una carta oberta feta pública el 22 de març passat i signada avui per més de 24.700 experts de diferents camps. Encapçalada per Yoshua Bengio, premi Turing i professor de la Universitat de Montreal, al Canadà, i Stuart Russell, de la Universitat de Califòrnia a Berkeley, EUA, els signants sol·liciten els laboratoris que suspenguin almenys durant sis mesos l'entrenament de sistemes d'IA més potents que GPT-4 (l'últim model d'IA generativa de l'empresa OpenAI). Afirma que el ritme a què avança aquesta tecnologia preocupa i que cal repensar-la.

En aquest sentit, el document, signat entre d'altres pel cofundador d'Apple Steve Wozniak, proposa que durant aquesta pausa es desenvolupin i implementin un conjunt de protocols de seguretat compartits per al disseny i desenvolupament avançats d'IA que siguin rigorosament auditats i supervisats per experts externs independents". Demanen que la investigació i el desenvolupament d'aquesta tecnologia s'enfoqui en fer que "els sistemes potents i d'última generació siguin més precisos, segurs, interpretables, transparents, robustos, alineats, fiables i lleials".

Entre els signants hi ha diversos espanyols, com Carles Sierra, director de l'Institut de Recerca en Intel·ligència Artificial del Consell Superior d'Investigacions Científiques (CSIC), i Pablo Jarillo-Herrero, de l'Institut Tecnològic de Massachusetts (MIT). Segons van indicar a EFE, no s'han pres "les precaucions necessàries" abans de traslladar massivament aquesta IA a la ciutadania.

Tots dos experts van coincidir que l'IA, també la generativa, pot proporcionar beneficis, però aquests sistemes busquen que el resultat sigui versemblant i no necessàriament cert, que sembli que ho ha dit un humà, i afirmen que és aquí on és troba el risc. Basats en l'aprenentatge automàtic, aprenen dels milions de textos, imatges o vídeos publicats a Internet, i els desenvolupadors es queden amb les dades dels milers de "converses" dels usuaris per millorar els models següents. Per això, entre altres motius, preocupa la privadesa i l'ús de dades personals.

— El més vist —
— Hi té a veure —
- Etiquetes -
- Comentaris -
— El més vist —