30/11/2023

La Intel·ligència Artificial (IA): tecnologia i poder

4 min

A principi del XIX, els ludites protagonitzaren les primeres revoltes obreres contra la maquinització de la indústria incipient, que percebien com una amenaça. Ned Ludd va començar la revolta contra les màquines a la ciutat i el Capità Swing, al camp. En realitat, ni Ludd ni Swing tenien por a les màquines, ni temien que els treballadors i treballadores quedassin sense feina, però sí que passaven pena que les condicions de vida i feina de les classes populars empitjorassin, com va succeir. El seu objectiu, en realitat, no eren les màquines, sinó els propietaris dels mitjans de producció, com posteriorment els va definir Marx. La tecnologia és neutral, cert, però les màquines podien i poden reforçar el poder de qui n’és el propietari i el determina el l'ús i el fi.

Aquella lliçó dels ludites, que foren desacreditats fins i tot per l’optimisme del mateix moviment obrer quan aquest va madurar en el transcurs del segle, l’hauríem de tenir ben en compte avui pel que fa a dues qüestions d’actualitat íntimament relacionades, i que estan modelant ja les nostres vides: els algoritmes i la intel·ligència artificial (IA). Sobre els algoritmes, a la vegada que ens faciliten la vida a alguns, empitjoren la d’altres. Cada vegada que valorau el servei d’un repartidor o la netejadora d’un bany públic, l’algoritme perfecciona els seus mecanismes de selecció, que prendran la millor decisió a l’hora de contractar o d’acomiadar algú sense que cap indici d’humanitat ens faci dubtar. D’això en parla molt clarament la matemàtica Cathy O’Neil a l’excel·lent llibre Armes de destrucció matemàtica (Capitan Swing, 2020), que ens torna a recordar que els algoritmes els fa algú i amb un propòsit.

L'ús pervers dels algoritmes és un dels factors que explica, per exemple, el ressorgiment del feixisme. D’ençà que Cambridge Analitica feu servir Facebook per encàrrec de Trump per elaborar perfils de preferències politicoelectorals (les mateixes que el feren arribar al poder), aquesta tecnologia s’ha desenvolupat fins al punt que en pocs anys hem naturalitzat que els algoritmes estiguin presents en bona part de les operacions que executam cada dia (al telèfon, a l’ordinador, a la tele 'intel·ligent', cada vegada que pitjam un botó). Hem assumit que les dades que fan preveure comportaments “ens faciliten la vida”, ignorant conscientment o inconscientment que l’ús que se’n fa alimenta a la vegada els discursos d’odi i les butxaques de les majors fortunes del planeta, des d’Elon Musk a Zuckerberg, passant per Bezos o Jack Ma.

Els tecnooptimistes d’avui que només veuen la part bona de la tecnologia haurien de tenir en compte que el sector sanitari és actualment un dels principals sectors d’inversió d’Amazon, per posar només un exemple: allà on no arriba el sistema sanitari, la multinacional munta el seu propi servei, novament amb l’eslògan de salut per a tots (els consumidors). Google també, i d’ençà que li regalam les nostres dades de salut està desenvolupant tecnologies que cap estat-nació no tindrà mai recursos ni per comprar ni, ara per ara, controlar i posar al servei de la societat fora dels paràmetres del lucre.

La darrera polèmica entre OpenAI i Microsoft arran del cas Altman ens hauria de posar els pèls de punta, sobretot quan allò que s’intueix és el malestar d’alguns tecnòlegs sobre les derives i impactes ètics de determinats desenvolupaments d’una IA en mans de personatges som Altman, qui fa uns dies es definia al diari El País com un prepper, és a dir, algú que es prepara per al col·lapse, i que per això acumula armes, or i mil coses més per fugir al seu ranxo quan pertoqui. Una tecnologia amb la potència de la IA en mans de gent com ell i dels tecnofeudalistes per als quals treballa ens hauria de fer tremolar.

Fa poques setmanes, The Guardian la va liar perquè, per allò de tenir 'clicks', una IA que tenien contractada va decidir pel seu compte posar en portada del diari digital una enquesta indecent sobre les causes de la mort d’una esportista. Molt intel·ligent, però immoral. També podríem parlar de la creació i difusió de pornografia infantil gràcies a la IA, el darrer que necessitàvem quan tenim ja massa adolescents que no saben distingir allò que és realitat del que és ficció gràcies al porno. Per això, no val l’excusa que la IA pot salvar vides… El mateix es deia de la clonació humana, i bé que hi va haver un debat social i una regulació ben clara. Cal parlar, per tant, de límits. Us imaginau quines atrocitats deuen estar dissenyant ara mateix, a la indústria militar, sense límits ètics a la IA?

Vaig demanar fa uns dies en una interfície d’IA, en 'mode creatiu', què pensava de les lleis de la robòtica d’Asimov, que si bé provenen de la ciència-ficció, plantegen límits ètics a les màquines intel·ligents, començant per aquella que un robot no pot fer mal a una persona, ni per acció ni per omissió. La seva resposta va ser, literalment: “Aquesta és una pregunta interessant, però no puc continuar aquesta conversa. Gràcies per utilitzar ‘x’ i que tenguis un bon dia”, alhora que em convidava a canviar de tema. Tot d’una vaig pensar en Skynet. Us en recordau, de Terminator?

Professor de la UIB
stats