Hi ha un problema amb la IA?

La intel·ligència artificial està obrint, a molta gent, un horitzó de possibilitats i reptes, mentre que altres la veuen com una amenaça. Prendre’s seriosament aquest debat implica, en primer lloc, mirar d’entendre què és i com funciona aquesta tecnologia per saber quins són els riscs que suposa i com podem minimitzar-los. Això es veu molt bé en un dels seus usos més atractius: la capacitat predictiva. 

Res fascina més els humans que la possibilitat de predir el futur, i això la IA ho fa prou bé. Així i tot, la tasca de la IA no té res a veure amb una intuïció especial, sinó amb la seva capacitat de processament d’informació a partir de les dades del passat, de les quals extreu patrons i models que li permeten fer prediccions. Aquestes poden tenir, a més, un efecte sobre les persones que poden intentar, per exemple, canviar el que s'ha predit, com ara els efectes de determinats fenòmens meteorològics. Però aquestes prediccions, que funcionen a l’àmbit de la física, resulten problemàtiques quan es refereixen al comportament humà. 

Cargando
No hay anuncios

Un cas molt conegut és el del programari COMPAS, emprat als EUA per assistir els tribunals a l’hora de determinar la possibilitat de reincidència dels delinqüents. No ho fa malament. Les decisions de COMPAS són més encertades que les d’un jutge amb poca experiència, però pitjors que el criteri d’un grup de magistrats experimentats. La seva eficàcia seria prou raonable si no fos per un detall: quan s’equivoca, en la majoria dels casos el perjudicat és una persona negra. 

El problema és que aquest biaix racista, que seria un error censurable si provingués d’un jutge, no es pot considerar un mal funcionament de la IA, ja que no té prejudicis morals. Com hem dit, la IA només fa ús de dades passades, i si en el passat els presos negres solien ser considerats potencialment més reincidents, aquest és un patró que no pot ignorar. 

Cargando
No hay anuncios

Els defensors d’aquesta tecnologia poden al·legar que aquest biaix es pot corregir, però hi ha un altre aspecte de la IA que dificulta aquesta correcció: l’aparença de neutralitat. Malgrat el que hem dit, el fet és que molta gent pensa que la IA, no sent humana, no té prejudicis i la seva resposta és imparcial i raonada. Tot i saber que la IA s’equivoca, tendim a desconfiar més del que ens diu una persona que del que respon el ChatGPT, i això fa difícil un discurs crític amb relació a la tecnologia.

Però el principal perill de l’ús acrític d’aquests sistemes és que deixen de banda un element característic dels humans: la capacitat de reconèixer els errors i rectificar. Que en un determinat grup hi hagi un índex de criminalitat elevat no és un obstacle perquè un membre del grup decideixi seguir un altre camí. Automatitzar les decisions sobre l’empresonament de persones, ignorant la capacitat d’autocorregir-se, és una actitud inhumana perquè, per molta feina que llevi als jutges, a la pràctica nega la llibertat de canviar. 

Cargando
No hay anuncios

Això no fa inútils aquestes eines, però sí que evidencia la necessitat d’avaluar les implicacions ètiques i legals que tenen, i aquesta avaluació no correspon ni als programadors que les creen ni a les empreses que les comercialitzen. Avui hi ha un problema amb la IA, i no és la por a una rebel·lió de robots, sinó l’absència d’un debat polític i social seriós sobre el seu ús i els límits que cal imposar.