La Unió Europea ultima una nova llei per regular l’IA: podrà esquivar la pressió dels lobbies tecnològics?

Queden poc més de vint dies perquè la nova presidenta de la Comissió Europea (CE), Ursula von der Leyen, compleixi una de les grans promeses: una regulació més dura per a l’ús de la Intel·ligència Artificial (IA) abans dels cent primers dies de mandat. Segons Bloomberg, que va tenir accés a un esborrany de la normativa, el braç executiu de la Unió Europea (UE) estudia noves obligacions per a les autoritats públiques amb relació a l’IA i, entre altres mesures, es planteja la prohibició del reconeixement facial durant cinc anys amb la finalitat de buscar solucions que rebaixin els riscos que comporta aquesta tecnologia.

Segons Bloomberg, un portaveu de la CE va dir que la UE vol definir ara un projecte legislatiu propi, amb “perspectiva europea” i “humana”. O sigui, allunyada del camí que han seguit els Estats Units, la Xina o el Japó; els seus grans competidors en la cursa de les superpotències per liderar el camp de la Intel·ligència Artificial. Una regulació on l’ètica, la confiança i la seguretat dels ciutadans siguin al centre de l’estratègia.

Però aquesta proposta normativa no és el primer que veurà la llum. A l’octubre del 2018, es va aprovar la Declaració sobre Ètica i Protecció de Dades en Intel·ligència Artificial, i a l’abril del 2019, un grup d’experts d’alt nivell de la Comissió Europea va fer públiques les seves Directrius Ètiques per a una IA Confiable (Ethics Guidelines for Trustworthy AI). Aquest projecte, però, no va convèncer a tothom. Ni tan sols a tots els experts que van firmar el document.

Veus crítiques

El 8 d’abril del 2019, un dels 52 membres de la comissió d’experts va denunciar en un article allò que considerava un “blanquejament ètic” de les directrius que, en un principi, havien d’establir unes línies roges per a la Intel·ligència Artificial al vell continent. Així, Thomas Metzinger, professor de filosofia de la Universitat de Mainz, Alemanya, assegura a Der Tagesspiegel que “la història de la Intel·ligència Artificial confiable és una narrativa publicitària inventada per la indústria, un conte per anar a dormir per als clients del futur”.

“El relat de la Intel·ligència Artificial de confiança pretén eixamplar els mercats futurs i utilitzar els debats sobre Ètica com un bell decorat públic per a una estratègia d’inversió a gran escala”, prosegueix Metzinger. Explica, a més, que la seva tasca a la comissió passava per desenvolupar els principis ètics no negociables sobre els usos de la IA a Europa -per exemple, l’ús d’armes automàtiques letals o la puntuació social de ciutadans per part de l’Estat-, fins que l’expresident de Nokia i també membre del grup d’experts, Pekka Ala-Pietilä, li va demanar educadament que retirés l’expressió “no negociable” del document. Més tard, altres membres de la comissió i representants de la indústria, van insistir amb vehemència que s’eliminés del text el concepte de “línies roges” i que, com a molt, es parlés de “preocupacions crítiques”. I així s’hi va reflectir.

“La indústria organitza i conrea debats ètics per adquirir temps, distreure el públic i evitar o endarrerir la regulació”, conclou Metzinger. Afegeix, en aquest sentit, que als polítics també solen constituir comitès d’ètica perquè “els dona un curs d’acció quan, en realitat, no saben què fer”. De la mateixa manera, el professor assenyala que Facebook va finançar un institut per formar ètics de l’IA, mentre Google va intentar constituir un marc ètic contractant els filòsofs Joanna Bryson i Luciano Floridi, essent aquest darrer membre del grup d’experts. Un fet que hauria pogut donar a Google la possibilitat de conèixer de primera mà les restriccions per a l’IA que es gestaven a la comissió.

Tanmateix, la de Metzinger no va ser l’única veu que es va alçar. El desembre de l’any passat, un exinvestigador del Massachusetts Institute of Technology (MIT), Rodrigo Ochigame, denunciava a The Intercept que Silicon Valley pagava estudis sobre ètica de la Intel·ligència Artificial per impedir la seva regulació i que, per tant, la recerca esdevenia una “tapadora” destinada a “blanquejar” aquesta tecnologia.

La intrusió dels gegants

Ochigame assegura que la majoria dels treballs finançats al voltant de la recerca en Intel·ligència Artificial Ètica “està aliniada estratègicament amb el lobby tecnològic que busca evitar restriccions per al desplegament de tecnologies controvertides”. En aquest sentit, l’exinvestigador esmenta les grans empreses que han abanderat uns principis ètics basats en estudis desenvolupats i finançats pel MIT i altres universitats punteres que van rebre diners de la indústria de la tecnologia per treballar en aquest camp.

L’exestudiant també revela els vincles entre les grans tecnològiques i els instituts de recerca en l’àmbit de l’Ètica. Així, per exemple, Ochigame escriu que “el Data & Society Research Institute està dirigit per un investigador de Microsoft i finançat inicialment per una subvenció Microsoft; l’AI Institute de la Universitat de Nova York va ser cofundat per un altre investigador de Microsoft i parcialment finançat per Microsoft, Google i DeepMind; l’Stanford Institute for Human-Centered AI està codirigit per un exvicepresident de Google; a la Universitat de Califòrnia, la divisió de Ciències de les Dades de Berkeley està encapçalada per un veterà de Microsoft; i el MIT Schwarzman College of Computing està dirigit per un membre del consell d’Amazon”.

Ochigame hi afegeix que el camp de l’Ètica també s’ha fet important per a l’exèrcit nord-americà, no només pel que fa a les preocupacions sobre les polèmiques armes autònomes letals, sinó també pel que fa a les disputes entre empreses de Silicon Valley sobre certs contractes militars altament lucratius. L’1 de novembre, el Consell d’Innovació del Departament de Defensa va publicar les seves recomanacions sobre Principis Ètics de l’IA. L’exinvestigador assenyala que el consell està dirigit per Eric Schmidt, que era el president executiu d’Alphabet, la matriu de Google.

Preguntes sense resposta

Qui decideix quan s’ha d’utilitzar IA, amb quines finalitats, i qui i com la desenvolupa? Aquestes són les preguntes que han de marcar una via ètica independent, segons l’informe Automating Society d’Algorithm Watch, i que el Parlament Europeu va recolzar quan subratllava la importància d’una mirada social, moral i responsable en el desplegament de la Intel·ligència Artificial. I aquesta és la línia pròpia que la Comissió Europea s’ha plantejat empènyer. Però… es prendrà l’ètica seriosament, Europa? O caldrà esperar més per a això (quan potser sigui massa tard)?

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *

Aquest lloc utilitza Akismet per reduir els comentaris brossa. Apreneu com es processen les dades dels comentaris.