Filosofia

Discriminats pels algoritmes

Crida l’atenció que els mateixos assistents domèstics reprodueixen un biaix ètnic, amb l’exclusió de veus de persones racialitzades

Discriminats pels algoritmes
5 min

Els algoritmes existien molt abans que la informàtica, vinculats exclusivament a les matemàtiques, concretament al càlcul i l’àlgebra. Els algoritmes matemàtics definits per ser conjunts ordenats i finits d’instruccions, regles i operacions aplicats a la solució de problemes concrets, tingueren posteriorment un paper clau en el desenvolupament de la informàtica moderna. Ara, els algoritmes informàtics són seqüències d’instruccions dissenyades per facilitar que un ordinador prengui decisions automàtiques i faci tasques de manera ordenada i seqüencial, ràpida i eficaç, que s’empren massivament per establir les regles que permeten emmagatzemar, ordenar, seleccionar, processar i seqüenciar jeràrquicament la informació.

Els algoritmes més avançats han permès la globalització de les tecnologies digitals i han donat lloc a l’existència de la intel·ligència artificial, internet, les xarxes socials, el Big data i la robòtica. Els algoritmes són essencials en la presa de decisions automàtiques, el processament massiu de dades i la seva transmissió instantània, i també fan possible l’intercanvi d’informació, la personalització de continguts digitals, i l’optimització de resultats.

Humanitzar la tecnosfera

La filosofia, i sobretot l’ètica, no poden quedar al marge de l’anàlisi crítica de les innovacions tecnològiques si volen entendre, humanitzar i democratitzar la tecnosfera o el món tecnològic que ha colonitzat tots els espais vitals. Per això, han d’investigar el funcionament dels algoritmes i el seu impacte en la vida quotidiana i laboral, la influència en les preferències, gustos i eleccions dels ciutadans, i identificar les discriminacions i injustícies algorítmiques i les idees negatives que es produeixen en els dispositius i les seves programacions, i denunciar-les públicament.

Abans d’entrar a valorar els algoritmes, és necessari reconèixer que la digitalització del món és un procés imparable, dirigit per grans empreses tecnològiques que inverteixen en aquest camp amb l’única esperança de continuar obtenint beneficis milionaris i que, per tant, la major part dels algoritmes dissenyats segueixen els judicis de valors d’empreses informàtiques i els seus programadors; també és convenient denunciar l’estratègia que pretén ocultar el negoci de les empreses i els anunciants sota la idea que les innovacions tecnològiques estan encaminades a donar resposta a les necessitats humanes.

Qualsevol usuari d’una intel·ligència artificial ha pogut adonar-se fàcilment de l’existència de biaixos cognitius, sexuals, ètnics, culturals i de dades, en el seu funcionament, malgrat que desconegui la seqüència algorítmica programada a causa de la seva opacitat.

Hi ha nombrosos exemples d’algoritmes que discriminen sexualment. Un dels casos més coneguts té a veure amb la recreació de veus femenines dels assistents de veu virtuals creats per Google, Amazon i Apple. L’elecció de veus de dones que gestionen i resolen tot tipus de demandes dins l’àmbit domèstic no és un fet neutral ni atzarós, sinó una reproducció clara del rol de mestressa de casa assignat habitualment a la dona. La denúncia pública d’aquest biaix no ha provocat canvis substancials en la política ètica d’aquestes tecnològiques, perquè encara que han incorporat veus neutrals o sense gènere als nous assistents que comercialitzen, no són veus que s’escolten de manera estandarditzada ni representen una opció majoritària, ja que només són accessibles a alguns països. La discriminació sexual es fa extensiva als motors de cerca i a la creació d’imatges d’intel·ligència artificial que exclouen les dones d’entorns laborals tradicionalment ocupats per homes.

Majoritàriament, els bots de conversa de les universitats espanyoles que ofereixen serveis d’atenció al client i fan funcions equivalents a les d’un auxiliar administratiu, tenen veus femenines, com per exemple, Lola, l’assistent virtual de la Universitat de Múrcia; Carol, el de la Universitat Complutense de Madrid; Pilar, el de la Universitat de Saragossa; i Aina, adoptada per la Universitat de les Illes Balears amb aquest fi, entre d’altres. L’aposta generalitzada per l’ús de veus de dona que pot semblar una acció de discriminació positiva i una aplicació de polítiques d’igualtat, sovint és una mesura adoptada irreflexivament que respon a una inèrcia del que és políticament correcte, la qual cosa impedeix ser conscients del fet que reforça els clixés de gènere i el rol social que vincula la dona a una funció assistencial, i l’encasella dins una baixa categoria laboral, a la vegada que reforça la idea que la dona que està de cara al públic ha de tenir un caràcter servicial.

Crida l’atenció també que els mateixos assistents domèstics reprodueixen un biaix ètnic, amb l’exclusió de veus de persones racialitzades. Es tracta d’una decisió empresarial que discrimina les persones afroamericanes, i dificulta que les seves veus siguin escoltades i reconegudes en igualtat amb les corresponents a persones blanques.

Els algoritmes de les intel·ligències artificials també reprodueixen la divisió sexual del treball a través dels motors de cerca i informacions que associen les professions científiques i tècniques amb els homes i les relacionades amb la salut i la cura, amb les dones.

La discriminació cultural es reflecteix en el món digital dels algoritmes mitjançant les limitacions lingüístiques i la incapacitat d’identificar i comprendre les expressions escrites o parlades en determinats idiomes que són maltractats per ser minoritaris i no tenir una quota de mercat suficient.

El llenguatge com a instrument

D’altra banda, els algoritmes de la intel·ligència artificial que interactua amb els usuaris estan dissenyats per usar un to submís, i ultraeducat, i evitar qualsevol tipus de malestar i enfrontament. L’ús d’un llenguatge amable i conciliador que dona el màxim valor a les opinions dels usuaris és especialment exagerat en els casos en què estan representades institucions o empreses, i es pot interpretar com una programació que educa en valors com la submissió i l’obediència, i que promou l’actitud relativista dels sofistes, que usaven el llenguatge de manera instrumental amb la finalitat manipuladora de convèncer els adversaris i guanyar-se’n el respecte i l’admiració.

L’enfocament digital pacífic i domesticat contrasta amb el to agressiu i insultant present a les xarxes socials i que respon a l’interès ideològic d’agitar la població en contra dels valors democràtics a través de missatges incendiaris. El cas més paradigmàtic és el d’Elon Musk amb l’ús de X, la xarxa social de la qual és el propietari, per controlar el pensament polític dels ciutadans i divulgar les idees i les opinions de l’extrema dreta a escala global. Els algoritmes de X estan programats per destacar les opinions més extremes, com si fossin majoritàries. A la vegada que discriminen políticament les idees progressistes i ofereixen una visió d’una societat polaritzada, amb opinions irreconciliables, alhora que afavoreixen i intensifiquen el ressò dels comentaris més ofensius i desqualificadors que impedeixen la reflexió política i l’intercanvi pausat i serè d’idees.

Els algoritmes informàtics no es limiten a transmetre o amplificar els prejudicis, els estereotips i les discriminacions socials cap a determinats col·lectius humans, sovint també són capaços d’introduir-ne de nous, com la discriminació biomètrica, l’exclusió tecnològica i manca d’accés a serveis digitals, i la invisibilització de persones i grups que no deixen rastre digital.

stats