Societat 31/03/2023

S’ha d’aturar la recerca en sistemes com el ChatGPT?

Més de mil investigadors i tecnòlegs, entre els quals hi ha Elon Musk i Yuval Noah Harari, signen una carta en què demanen suspendre la investigació per desenvolupar mecanismes de control

4 min
Una persona parlant amb un robot

El diari belga La Libre ha publicat aquesta setmana la història d’un home que s’ha suïcidat després de xatejar unes setmanes amb el xatbot Eliza, un sistema d’intel·ligència artificial (IA, en endavant) de conversa que utilitza una tecnologia semblant al famós ChatGPT. Segons el mateix diari, la seva dona ha dit que si no hagués mantingut aquestes converses, no s’hauria suïcidat.

Tot i que en un cas com aquest és impossible determinar el pes de cada factor en la decisió de suïcidar-se, la situació ha motivat un posicionament públic del Secretari d’Estat per a la Digitalització del Govern Belga, Mathieu Michel, que l’ha llegida com un "precedent que s’ha de considerar molt seriosament". I ha afegit que és essencial identificar clarament la naturalesa de les responsabilitats que poden haver donat lloc a aquest tipus d’esdeveniments".

El filòsof de la tecnologia de la Universitat de Viena, Mark Coeckelbergh, que forma part del grup d’experts que assessora la Comissió Europea en matèria d’IA, ha analitzat el cas en un text publicat a la plataforma Medium i ha recordat que "la IA no és èticament neutra" i que "un xatbot com aquest no és només una màquina amb la qual és divertit jugar, sinó que té implicacions ètiques importants, que van des dels biaixos i la desinformació fins a la manipulació emocional".

Pausar la recerca

Per qüestions d’aquesta naturalesa i moltes altres, més de mil investigadors i tecnòlegs de tot el món han signat una carta oberta en què demanen a tots els laboratoris d’intel·ligència artificial que aturin un mínim de sis mesos l’entrenament de sistemes més potents que el GPT-4, el sistema de l’empresa OpenAI, cofundada per Elon Musk i participada per Microsoft. El text de la carta recorda els principis d’Asilomar, segons els quals la intel·ligència artificial avançada pot representar un canvi profund en la història de la vida a la Terra, i es pregunta si hem de deixar que les màquines inundin els canals d’informació amb propaganda i mentides, o si hem de desenvolupar ments no humanes que ens podrien superar en nombre i intel·ligència i reemplaçar-nos.

Entre els signants hi ha el mateix Elon Musk, Steve Wozniak, cofundador d’Apple; el professor de la Universitat Hebrea de Jerusalem, Yuval Noah Harari; el cofundador de Skype, Jaan Tallinn; i Evan Sharp, cofundador de Pinterest. També l’han signada responsables d’institucions científiques catalanes com Carles Sierra, director de l’Institut d’Investigació en IA (IIIA); Mateo Valero, director del Barcelona Supercomputing Center; Albert Sabater, director de la Càtedra-Observatori d’Ètica en IA de Catalunya (OEIAC); i investigadors com Núria Vallès, que investiga les controvèrsies ètiques i socials de la IA a la Universitat Politècnica de Catalunya i la Universitat Autònoma de Barcelona, o Jordi Miralda-Escudé, cosmòleg de l’Institut de Ciències del Cosmos de la Universitat de Barcelona.

La pausa que es demana a la carta, que els signants equiparen a la que s’ha fet, per exemple, amb la clonació humana, s’hauria d’aprofitar, escriuen, per crear protocols de seguretat en el desenvolupament d’aquests sistemes i perquè els desenvolupadors treballin conjuntament amb els polítics per crear una governança robusta de la IA.

Problemes futurs i immediats

Segons Carles Sierra, "hem de ser conscients que aquests models són models probabilístics de continuació de frases i que tenen per objectiu generar frases que semblin humanes, però no tenen com a objectiu que les frases siguin certes". Per tant, segons l’investigador, "hem de tenir cura perquè el seu ús pot generar conseqüències negatives que no estan ben analitzades". Per il·lustrar aquesta idea, Sierra posa com a exemple els "m’agrada" de les xarxes socials: "Els enginyers van habilitar el thumbs up sense consultar experts en salut mental i això ha tingut conseqüències molt dolentes per a molts adolescents". El director de l’IIIA deixa clar que "no s’ha d’aturar la recerca en IA, que té molts avantatges, però cal estudiar quines garanties han de complir aquests sistemes, i això ho han de fer conjuntament els enginyers, els investigadors i els parlaments".

A parer de la sociòloga Núria Vallès, "és absolutament necessari que puguem reflexionar sobre els riscos i avaluar els efectes que està tenint l’aplicació de sistemes d’IA en múltiples àmbits de la nostra vida". La investigadora aposta per aplicar el principi de precaució en aquesta recerca, a partir d’"accions petites, monitoritzables i revocables, sempre acompanyades del seguiment i la responsabilitat de l’administració pública, així com integrar les opinions, preocupacions i necessitats dels col·lectius directament afectats per una determinada tecnologia o aplicació". D'altra banda, en la línia de Coeckelbergh, afegeix que la intel·ligència artificial no és neutra: "El seu principal problema no és l’arquitectura de les dades, o si serà superior a la intel·ligència humana, sinó la concentració de poder, la cada cop més gran capacitat legislativa i política de les empreses multinacionals i els magnats tecnològics, la manca de discussió sobre les miserables condicions de vida de moltes persones que treballen arreu del món per les multinacionals tecnològiques, l’extracció de minerals i el gran volum de recursos energètics necessaris per fer-la funcionar".

Albert Sabater també matisa la seva adhesió a la carta, amb l’argument que "s'hi invoquen repetidament riscos extrems o improbables mentre s’ignoren els perills reals més actuals d’utilitzar sistemes d’IA generativa com el ChatGPT, que comet errors increïbles fins i tot en qüestions òbvies". A més, "altres IA generatives d’imatges realistes també són un motiu de preocupació actualment, i a la carta tampoc s’hi fa referència malgrat que suposen un potencial de difusió de notícies falses i desinformació sense precedents". D'altra banda, "entre les conseqüències de l’actual acceleració en la IA generativa hi ha un risc real i probable i és l’afectació en l’emergència climàtica que, malauradament, tampoc s’esmenta en la carta". Sabater acaba amb una reflexió: "Soc conscient que el hype al voltant dels perills extrems o improbables pot desviar el focus tant dels perills reals més actuals com de la necessitat d’una acció legislativa, però també soc conscient que els que governen cada vegada tenen menys excuses i més pressió per a l'acció legislativa".

stats