El meteòric ascens de la Intel·ligència Artificial (IA) durant el 2019 és fruit del seu enorme potencial per a fer-nos, teòricament, l’existència més fàcil. Ja és normal desbloquejar el mòbil amb reconeixement facial, deixar-se guiar per un assistent virtual, veure anuncis personalitzats i escoltar música seguint els consells d’un algoritme. Acaba la dècada amb la certesa que la nostra vida quotidiana està cada cop més vinculada a l’aprenentatge de les màquines que, dia a dia, minut a minut, penetra als àmbits més sensibles com les relacions humanes, la salut, la criminalitat, la sexualitat, l’educació i fins i tot els conflictes armats. On ens durà enguany, la Intel·ligència Artificial? Ningú en sap del cert la resposta, però tenim clars els interrogants.
La guerra intel·ligent
Fa dos anys, 116 experts en el camp de la Intel·ligència Artificial reclamaven a les Nacions Unides que prohibís l’ús de robots soldat. En una carta advertien que “les armes autònomes letals -o sigui, armes que es disparen soles- fan possible que un conflicte armat es lliuri a una escala més gran que mai, i a intervals de temps tan ràpids que ni els humans podran comprendre”. La majoria d’Estats membres han recolzat públicament la prohibició del robot assassí. Tot i així, actualment s’oposen a vetar-los el Regne Unit, Israel, Austràlia, Rússia, Corea del Sud o els Estats Units. Dotzenes de startups privades venen el mite de la guerra intel·ligent i als seus laboratoris s’inventen noves formes més netes i eficaces de matar. L’assassinat, aquest divendres, del general iranià Soleimani, amb quatre míssils disparats des d’un dron nord-americà, és una prova més d’aquest procés.
Actualment, el cap d’Intel·ligència Artificial del Pentàgon, Jack Shanahan, descarta per ara l’ús de soldats robot. Tot i així, Shanahan vol que l’IA ocupi un paper central en la lluita bèl·lica i l’Exèrcit ha estat provant el desembre una torreta automatitzada. Mentrestant, la Marina planeja fer servir vaixells no tripulats. Abans d’assumir el seu càrrec actual, Shahanan dirigia el Projecte Maven, que té com a objectiu desenvolupar drons intel·ligents per detectar les forces enemigues. Segons la revista Wired, el Pentàgon vol gastar-s’hi al voltant de 4.000 milions de dòlars durant l’exercici del 2020.
Una cosa queda clara: el govern nord-americà somia amb un exèrcit que utilitzi l’IA per moure’s més ràpid al camp de batalla. Però la integració militar de l’aprenentatge automàtic (Machine Learning) planteja molts dubtes. L’armament intel·ligent permet eixamplar la distància moral amb una escena bèl·lica, fent menys incòmoda la veritat: que en una guerra s’hi maten persones.
Robots sexuals
L’IA també ha entrat per la porta gran del negoci del sexe. Els robots sexuals intel·ligents ja no són ciència ficció i Sex dolls, una empresa que distribueix nines sexuals intel·ligents, assegura que “poden calibrar-se fàcilment per fer quasi totes les funcions imaginables”. A més, explica que també disposen de sensors integrats a les seves mans, als genitals, a la cara i als pits: “Això permet que el robot pugui sentir quan el toqueu”. Fins i tot poden suar, gemegar i lubricar-se, segons l’empresa. A més, les nines poden integrar-se amb la vida quotidiana i, tal com diu la companyia, ofereixen diferents modes: familiar, romàntic o sexy.
La introducció de la tecnologia en les relacions sexuals no és cap novetat, però aquesta vegada el realisme de l’objecte marca la diferència. Alguns autors fins i tot han plantejat obrir un debat sobre els drets dels robots, com a éssers simbòlics i semblants als humans. Mentrestant, altres defensen que l’ús dels ninots sexuals intel·ligents no va més enllà d’una masturbació assistida. Ara bé, els grans problemes arriben quan aquests robots -realistes- perpetuen els estereotips de gènere: potencien els clixés? O -encara pitjor- si els robots s’assemblen a menors d’edat: afavoreixen les conductes pedòfiles? Per altra banda, poden contribuir en la cosificació de la dona i, per tant, normalitzar la cultura de la violació. Com influeix allò simbòlic, com el físic d’un androide, en el món real?
Generació d’informació massiva
Durant els darrers anys hi ha hagut una explosió de ‘papers’ sobre les Xarxes Generatives Adversàries (també anomenades GAN, segons les sigles de Generative Adversarial Network), que utilitzen l’aprenentatge profund (Deep Learning) per generar imatges, vídeos o àudios hiperrealistes de manera totalment artificial.
Els GAN, en alguns casos, persegueixen fins inofensius, com rejovenir actors de cinema o fer vídeos còmics, però també poden utilitzar-se per a generar els anomenats Deepfakes, sovint falsificacions malintencionades amb conseqüències preocupants. Artistes com Scarlett Johansson o Katy Perry foren víctimes d’una sèrie de vídeos pornogràfics falsos que circularen el 2019 per Internet. Però els Deepfakes també podrien servir per implicar algú en un crim que no ha comès, falsejar notícies o manipular l’opinió pública durant unes eleccions. La polèmica va inundar les xarxes socials quan Obama va deixar anar que “el president Trump és totalment idiota”. Una afirmació que, en realitat, mai va fer.
Més enllà de les imatges, els generadors de textos intel·ligents també penetren al mercat. El nivell de sofisticació d’alguns sistemes és tan gran que ja hi ha hagut polèmica per l’ús d’IA en la redacció d’un text presentat a un concurs de literatura. Durant la propera dècada, el futur del periodisme o la redacció de continguts -sobretot les branques menys creatives- es desdibuixa i planteja encara més dubtes.
També és possible crear Deepfakes d’àudio, que obren horitzons igual d’inquietants. A través d’aquest sistema, uns estafadors van falsificar la veu d’un executiu en una trucada de telèfon, aconseguint robar 243.000 dòlars a través d’un empleat que pensava que rebia instruccions del director de l’empresa.
Existeix algun sistema fiable per detectar els àudios, vídeos i textos manipulats? La investigació es desplega a les millors universitats i als departaments de recerca de les grans empreses tecnològiques i, tanmateix, els algoritmes de detecció encara no són capaços d’enxampar les falsificacions de manera immediata. De fet, Facebook va admetre el setembre que no era capaç d’identificar els Deepfakes més sofisticats perquè la tecnologia que els produeix millora massa ràpid. En un esforç per combatre la proliferació dels vídeos enganyosos, Facebook, Microsoft i acadèmics de les universitats més punteres, com la d’Oxford o el MIT, encapçalen el ‘Deepfake Challenge‘ per impulsar la investigació i assegurar el desenvolupament d’eines de codi obert per la detecció de vídeos sintètics. La companyia de Mark Zukerberg ha destinat més de 10 milions de dòlars per animar a la participació: un senyal del valor de l’operació.
Màquines que treballen
El 2020, hi haurà molts àmbits professionals on s’aplicarà l’IA per primer cop. Els supermercats i les petites botigues comencen a implementar sistemes de predicció de demanda, segons les dades d’allò que van vendre en determinada data. La Intel·ligència Artificial revolucionarà la logística de les empreses, i ho farà també amb l’educació, la justícia i la medicina.
Els metges s’estan bolcant en l’aprenentatge automàtic per recolzar la presa de certes decisions. Aquest nou any, ajudarà a molts professionals sanitaris a fer diagnòstics de malalties de manera automàtica. De fet, un programa informàtic ja pot diagnosticar càncer de mama de manera més acurada, eficient i ràpida que un oncòleg a partir d’una mamografia. Algunes teràpies conductuals basades en els smartphones ofereixen la promesa de tractar la depressió, els transtorns alimentaris o l’abús d’alguns fàrmacs.
Per altra banda, a les presons catalanes ja fa una dècada que es fan servir algoritmes de presa de decisions per calcular les possibilitats de reincidència dels que surten en llibertat. L’IA també pot ser utilitzada per predir crims. L’anomenada ‘policia predictiva’ és capaç d’identificar la data, l’hora i l’ubicació en què és més probable que es produeixin certs delictes, per tal que els agents prioritzin aquestes zones i franges temporals. A més, després d’unes quantes investigacions, els models analítics predictius s’han perfeccionat molt i de ben segur que seran utilitzats ben aviat a casa nostra.
En l’àmbit educatiu, algunes facultats estan començant a guardar les dades acadèmiques i no acadèmiques dels estudiants. Sistemes d’IA són utilitzats per desenvolupar un perfil d’aprenentatge personalitzat en funció de la capacitat, l’experiència i la modalitat preferida d’estudi. Els educadors comencen a utilitzar els assistents de veu com l’Amazon Alexa, Google Home o Apple Siri, que permeten als estudiants interactuar amb material educatiu sense la intervenció del professor. Utilitzar sistemes intel·ligents a escoles i instituts pot incrementar l’eficiència de moltes institucions educatives i abaixar els costos.
Biaixos i caixes negres
De moment, però, els sistemes l’IA no són perfectes i poden cometre errors. Greus. Si un ordinador s’entrena amb un conjunt de dades suficient i fiable, els resultats poden ser de gran ajuda. Però, en canvi, si s’alimenta amb informació deficient i esbiaixada, o el sistema no es programa adequadament, els resultats poden conduir a l’equívoc o, en el pitjor dels casos, a la discriminació i a la desigualtat. Algunes investigacions han destapat que certs sistemes per predir la reincidència dels presos tendien a assignar riscos molt més elevats a les persones de pell fosca que a les de pell blanca. Quin és el problema? Si les dades que alimenten un algoritme contenen una representació esbiaixada de la realitat, les prediccions de l’algoritme predictiu reproduiran el mateix biaix.
Un altre gran escull dels sistemes intel·ligents és allò que es coneix com el problema de la ‘caixa negra’: quan l’IA pren decisions que cap ésser humà pot explicar. Abans podiem rastrejar les resolucions que una màquina adoptava gràcies a un determinat codi. Però ara, els enfocaments complexos de l’aprenentatge automàtic poden fer que la presa de decisions automatitzada sigui completament inescrutable. La Intel·ligència Artificial aprèn per sí mateixa i genera respostes i decisions que l’intel·lecte humà mai podrà concebre, a velocitats fora del nostre abast.
El 2015, un grup de recerca d’un hospital de Nova York va aplicar l’aprenentatge profund a la seva base de dades (de 700.000 registres de pacients). El sistema va descobrir patrons ocults en les dades que semblaven anticipar sorprenentment bé l’aparició de trastorns psiquiàtrics com l’esquizofrènia, que és molt difícil de predir. El coordinador de l’equip mèdic es pregunta com és possible, i encara no ho sap.
El problema de la caixa negra és més perillós en l’àmbit de la Defensa, per exemple. Per això, correspon a les administracions públiques buscar assessorament expert independent i ser transparents en les seves polítiques i la presa de decisions, de manera que les comunitats puguin tenir confiança en què la tecnologia no oferirà resultats esbiaixiats o vulnerarà la sobirania dels professionals de carn i ossos.
Molt bo! Moltes incerteses en un futur ja proper…