22/02/2023

Els riscos de no controlar la intel·ligència artificial

4 min
"Els governs han de tenir capacitat de desenvolupar la IA sense dependre del sector privat".

El món tecnològic va acaparar moltes portades el 2022. A l'octubre, Elon Musk va comprar Twitter i va acomiadar la major part del personal de moderació de contingut indicant que l'empresa els substituiria per la intel·ligència artificial (IA). Al novembre, un grup d'empleats de Meta van revelar que havien dissenyat un programa d'IA capaç de vèncer la majoria dels humans en el joc de taula d'estratègia Diplomacy. A la ciutat xinesa de Shenzhen, el govern està fent servir la tecnologia de "bessons digitals" amb milers de dispositius mòbils connectats a la xarxa 5G per monitoritzar i gestionar els fluxos de persones i automòbils i el consum d'energia en temps real. I amb l’última versió del model lingüístic predictiu ChatGPT, molts han declarat la fi de la tesi estudiantil.

En definitiva, va ser un any en què les inquietuds respecte del disseny i l'ús de les tecnologies van deixar pas a dubtes encara més urgents. Qui en té el control? Qui l’hauria de tenir? Calen polítiques i institucions públiques que vetllin perquè les innovacions impliquin millores per al món; però avui moltes tecnologies es desenvolupen en un buit. I són els governs proveïts de les capacitats necessàries els que poden guiar aquesta revolució tecnològica centrada en un autèntic bé comú.

Agafem, per exemple, la IA, una disciplina que ens pot portar nombrosos beneficis: millorar la producció i la gestió dels aliments, ajudar-nos davant de desastres naturals, dissenyar edificis amb eficiència energètica, millorar l'emmagatzematge d'energia i optimitzar el desplegament de les fonts d’energia renovables. També pot incrementar l'exactitud dels diagnòstics mèdics (combinada amb l'opinió professional).

Aquestes aplicacions prometen una varietat de beneficis. Però, sense regles, correm el risc que la IA creï noves desigualtats i ampliï les que ja existeixen. No cal buscar gaire per trobar exemples de sistemes basats en IA que reprodueixen biaixos socials injustos. En un experiment recent, robots dirigits per un algorisme d'aprenentatge automàtic van mostrar un comportament obertament racista i sexista. Sense una supervisió adequada, pot passar que algorismes suposadament dissenyats per ajudar el sector públic a gestionar prestacions socials acabin discriminant famílies realment necessitades. Un altre exemple igual de preocupant és que, en alguns països, les autoritats públiques ja fan servir tecnologies de reconeixement facial basades en IA per controlar dissidents polítics i sotmetre la ciutadania a règims de vigilància massiva.

Un altre problema important és la concentració de mercats. Uns quants actors poderosos geogràficament concentrats dominen el desenvolupament de la IA (i el control de les dades subjacents). Entre el 2013 i el 2021, el 80% de la inversió mundial privada en IA es va fer a la Xina i als Estats Units. Ja hi ha un desequilibri enorme de poder entre els propietaris privats d'aquestes tecnologies i la resta de la gent.

Però la IA també rep una enorme quantitat de finançament públic, i aquests fons haurien d'estar al servei del bé comú i no pas d’uns quants. Necessitem una arquitectura digital que distribueixi de manera més equitativa els beneficis de la creació col·lectiva de valor. Ja no es pot tenir una posició no intervencionista basada en l'autoregulació. Donar via lliure al fonamentalisme de mercat és condemnar l'estat i els contribuents a reparar-ne més tard les destrosses (com hem vist amb la crisi financera del 2008 i la pandèmia de covid-19), no sense grans costos financers i cicatrius socials duradores. En el cas de la IA encara és pitjor, perquè ni tan sols sabem si amb una intervenció ex post n’hi haurà prou. Com va assenyalar fa poc The Economist, és habitual que fins i tot els desenvolupadors d'IA se sorprenguin del poder de les seves creacions.

Cal una supervisió pública eficaç perquè la digitalització i la IA generin oportunitats per a la creació de valor públic. Aquest principi és un component essencial de la Recomanació sobre l'Ètica de la IA, un marc normatiu proposat per la Unesco i aprovat per 193 estats membres el novembre del 2021. Però l'ús públic de la IA també ha d'estar establert sobre una base ètica sòlida. Davant l'avenç d'aquesta tecnologia com a eina auxiliar per a la presa de decisions, és important evitar un ús dels sistemes d'IA que siguin contraris a la democràcia o als drets humans.

Els governs han de tenir capacitat de desenvolupar la IA sense dependre del sector privat per a la provisió de sistemes de caràcter sensible. També han de poder sostenir un ús compartit de la informació i la interoperabilitat de protocols i mètriques entre els diversos departaments i els ministeris. Tot això requerirà inversió pública en les capacitats de l'estat.

Davant la concentració de coneixement i experiència que hi ha al sector privat, la creació de sinergies entre els sectors públic i privat és alhora inevitable i desitjable. Es tracta de seleccionar actors disposats a col·laborar, mitjançant la inversió conjunta amb socis que reconeguin el potencial de les missions liderades per l'estat. La clau és donar a l'estat la capacitat de gestionar el desplegament i l'ús dels sistemes d'IA, en lloc d'estar sempre corrent darrere dels esdeveniments.

El futur de les nostres societats està en joc. No només hem de corregir els problemes i controlar els riscos de la IA, sinó també influir en el rumb general de la transformació digital i de la innovació tecnològica. Quin moment millor que el començament d'un any nou per començar a establir les bases d'un procés d'innovacions il·limitades al servei de tota la humanitat?

stats