11/08/2018

Algoritmes assassins

3 min
Algoritmes assassins

Últimament ens fa l’efecte que a tot arreu trobem avisos sobre els riscos de la intel·ligència artificial. Des d’Elon Musk fins a Henry Kissinger, són molts els que fan sonar l’alarma sobre la possibilitat que els ordinadors superintel·ligents acabin amb nosaltres, com a la pel·lícula Terminator. Si ens els creguéssim, arribaríem a la conclusió que estem al caire de la distopia: com aquell qui diu, Skynet ja és aquí.

Aquestes advertències són importants, però amaguen un problema més greu: la intel·ligència artificial utilitzada com a arma ja és aquí. Mentre llegiu aquest article, poderosos interessos -des d’empreses fins a diferents cossos estatals, com ara l’exèrcit i la policia- ja estan fent servir la intel·ligència artificial per controlar i avaluar les persones, i també per prendre decisions molt rellevants sobre la seva vida. ¿Necessitem, doncs, un tractat que prohibeixi les armes autònomes? I tant que sí. Però, per fer mal, no cal prescindir dels humans: ja fa anys que els errors en el procés d’algoritmes fan mal a col·lectius pobres i vulnerables.

La primera vegada que em vaig adonar que la selecció d’objectius militars a partir de la recopilació de dades podia funcionar molt malament va ser fa cinc anys al Iemen. Vaig anar a la capital, Sanà, per entrevistar els supervivents d’un atac de drons nord-americans que s’havia cobrat vides innocents. Dos dels civils que hi van morir podien haver sigut aliats dels EUA: l’un era el policia del poble i l’altre un imam que havia predicat contra Al-Qaida dies abans de l’atemptat. Un dels supervivents, un enginyer anomenat Faissal bin Ali Jaber, em va fer una única pregunta: per què els seus familiars s’havien convertit en objectiu militar?

Faissal i jo vam recórrer més de 10.000 quilòmetres des de la península aràbiga fins a Washington a la recerca d’una resposta. Funcionaris de la Casa Blanca es van reunir amb Faissal però ningú li va explicar per què havien posat la seva família en el punt de mira. Al cap d’un temps la veritat va sortir a la llum. Els familiars de Faissal van morir perquè havien anat a parar per error en una matriu semiautomatitzada utilitzada per a la selecció d’objectius.

Ho sabem perquè els EUA han admès que els seus avions ataquen objectius amb identitats desconegudes. I aquí és on intervé la intel·ligència artificial. Els EUA no tenen bones fonts d’intel·ligència al Iemen i per això es basen en gran part en l’escombrat massiu de dades de senyal. La intel·ligència artificial processa aquestes dades i genera una sèrie de banderes vermelles per mitjà d’un algoritme destinat a la selecció d’objectius. Un humà va disparar els míssils, però podem estar gairebé segurs que ho va fer seguint les recomanacions del software.

Aquest tipus d’atacs, que s’anomenen signature st rikes (basats en característiques i patrons de comportament), es duen a terme majoritàriament amb drons. Sota la presidència de Donald Trump ha augmentat el nombre de morts de civils per atacs aeris: més de 6.000 l’any passat només a l’Iraq i Síria.

Aquesta és l’aplicació més controvertida de la intel·ligència artificial. I aquesta polèmica va esquitxar Google la primavera passada, quan milers d’empleats de l’empresa van protestar i d’altres van dimitir davant d’una iniciativa que ajudava el departament de Defensa a analitzar imatges. De tota manera, aquest no és l’únic abús de la intel·ligència artificial que hem de tenir en compte.

Els periodistes n’han començat a explorar molts usos problemàtics: els hitmaps o mapes de calor predictius de la policia han accentuat els prejudicis racials en el sistema de justícia penal nord-americà. El reconeixement facial, que la policia està provant en ciutats com Londres, s’ha equivocat fins a un 98% de vegades. ¿Les compres per internet? Potser pagues més que el teu veí per una política de preus discriminatòria. I tots sabem que diversos organismes estatals han utilitzat les dades de Facebook per publicar propaganda a les pantalles de milions d’usuaris.

Els estudiosos diuen de vegades que el camp de la intel·ligència artificial i l’aprenentatge automàtic està en la fase de l’adolescència. Si això és cert, li hem donat a un adolescent el poder d’influir en les nostres notícies, de contractar i despatxar persones i fins i tot de matar-les.

Per als defensors dels drets humans i els ciutadans afectats, investigar i controlar aquests usos de la intel·ligència artificial és un dels problemes més urgents que tenim al davant. Cada vegada que ens assabentem que s’ha pres una decisió política a partir de la recopilació de dades, ens hem de fer aquestes preguntes: qui fa servir aquest software; a qui afecta; qui hi surt guanyant i qui hi surt perdent. I com ens ho farem per demanar responsabilitats als que utilitzen aquestes eines i als que les han creat.

Copyright Project Syndicate

stats