02/06/2023

Intel·ligència artificial i tribunals: la fi de la justícia?

3 min
Instal·lació de l'artista xinès Ai Wei Wei a Nova York en què es poden veure cossos captats per videovigilància al carrer.

Fa uns anys Stephen Hawking va dir que la intel·ligència artificial (IA) podria arribar a substituir els éssers humans, però que esperava que no fóssim prou estúpids per permetre-ho. Tanmateix, en els darrers anys, i ben particularment després del ChatGPT, s’està demostrant que la gran majoria d’éssers humans estan esperant amb candeletes ser substituïts. Fa temps que regalem moltíssimes dades privades a les grans companyies tecnològiques. Si fa només vint anys ens haguessin preguntat si compartiríem voluntàriament amb una d’aquestes companyies les dades dels nostres contactes, dels nostres moviments, de les nostres cerques a internet i fins i tot de les nostres converses privades, ens hauríem espantat i ho hauríem negat rotundament. I vet aquí… 

Fa molt de temps que aquestes empreses, amb la passivitat dels governs, han ultrapassat de manera salvatge qualsevol límit ètic raonable. Però com que aparentment ens fan la vida més fàcil i divertida, molt poca gent es queixa i els polítics no s’hi interessen. Al contrari, la preocupació és que aquestes companyies deixin de funcionar i que la gent s’esvaloti i esclati el descontentament col·lectiu davant l’eventualitat de viure sense Instagram, TikTok, WhatsApp o Google. Vist amb fredor hauria de fer esfereir. La dependència d’aquestes plataformes, entre d’altres, és brutal. La intel·ligència artificial s’ha infiltrat en tots els àmbits de la nostra vida, també els més íntims, i ha fet de nosaltres els humans més manipulables de la història, si volguessin els dirigents d’alguna de les companyies propietàries d’aquestes plataformes. Les nostres opinions sobre la feina, els impostos, el sexe, la llibertat d’expressió o qualsevol dels altres àmbits de la vida marquen una tendència a les xarxes que és ben fàcil seguir sense que siguem conscients d’haver estat manipulats.

Hi ha un àmbit, però, en què la intel·ligència artificial gairebé no ha entrat: la justícia. Amb el seu habitual tradicionalisme, fins ara ha estat un sector gairebé immune a aquesta tecnologia. Tanmateix, les potencialitats de la IA en la justícia són enormes. Pensin que ja és possible que una màquina detecti el risc de violència d’un ésser humà i l’enviï a la presó per evitar que cometi un delicte. Actualment ja existeixen eines que ajuden a valorar la credibilitat d’un testimoni, o que revisen una quantitat ingent de documents en qüestió de minuts. També redacten escrits judicials, tant dels advocats com dels jutges. Donant a la màquina les dades que necessita, pot dictar una sentència perfectament redactada en processos senzills, que són l’enorme majoria. Però fins i tot en els casos més complicats pot fer projectes de resolució que el jutge ha de completar amb les dades concretes del cas. El 80% de la resolució, però, ja està feta d’antuvi amb aquestes eines de redacció de textos, que funcionen òbviament molt més de pressa que les antigues plantilles i formularis que encara es fan servir, però que consisteixen, si fa no fa, en el mateix: copia i enganxa.

La qüestió és si és aquesta la justícia que volem: una justícia de copia i enganxa. La resposta és òbvia, però prou jutges arreu del món poden sucumbir a la temptació de treballar d’aquesta manera. Fa temps que la redacció de les resolucions judicials s’hauria d’haver simplificat perquè sigui només el jutge qui parli, i no un model de resolució que aparenta una redacció que no existeix. Treballen així almenys des del segle XVI.

Les eines predictives de risc de violència són més depurades perquè fan que el judici del jutge sigui menys intuïtiu i més científic, basat en dades concretes i no en prejudicis, impressions o pressentiments. Ara bé, ¿estem preparats per admetre que una màquina, i no una persona, pugui enviar un ésser humà a la presó? ¿Ho acceptarem tan alegrement com regalem a les grans empreses les nostres dades personals?

No s’enganyin, tot el que he explicat ja és aquí, i el risc màxim és que les eines d’intel·ligència artificial que facin servir els jutges les creïn les grans companyies, i no els estats, i que després, acostumada la gent a unes respostes judicials molt ràpides i aparentment eficients, no hi hagi una manera fàcil de controlar la justícia que vulguin fer aquestes grans empreses amb les seves eines. Allò que en diem justícia reflecteix un consens social contingut en part en les lleis que fem per fixar-la, i en part en els nostres valors culturals compartits. ¿Preferim seguir confiant en humans com a jutges o volem que les sentències les facin qui dissenyen i tenen el control de les màquines?

stats