Afinen l’aplicació de la intel·ligència artificial a àmbits com la salut o el benestar per evitar problemes ètics

La Colònia de Sant Jordi acull el 22è Congrés Internacional de l’Associació Catalana d’IA

Experts reunits  a  la Colònia de Sant Jordi debaten la necessitat de millorar la gestió de la intel·ligència artificial en determinats àmbits com el benestar a la salut per tal d'evitar problemes ètics  que  la seva aplicació pugui suposar.

Així s'ha pogut constatar en la taula rodona "Intel·ligència artificial en salut, benestar i turisme. Aspectes ètics" que s'ha  celebrat  en el marc del 22è Congrés Internacional de l'Associació Catalana d'Intel·ligència Artificial, en el qual s'han presentat treballs d'investigadors de primera línia d'àmbit estatal i internacional en aquest camp. En la seva organització ha pres part el grup d'investigació  Soft   Computing , Processament d'Imatges i Agregació ( SCOPIA ), de la Universitat de les Illes Balears.

Uns dels participants, el professor de Ciències Matemàtiques i Informàtica de la UIB, Antoni Jaume Capó, explica que la intel·ligència artificial ha estat capaç de crear eines amb la capacitat de fer diagnòstics mèdics molt encertats, però que tant la llei com el codi ètic d'aquest col·lectiu no permet que els  algoritmes  siguin els que diagnostiquin una  malaltia, ja que  són els metges als qui els pertoca fer-ho.

"Per tant, el que hem de fer  és   desenvolupar  aplicacions d'intel·ligència artificial que donin un suport al metge, però sense fer un diagnòstic final. El que es fa  és  una intel·ligència artificial explicativa, es dona  un resultat, però s'ha de justificar perquè s'obté aquest resultat", explica Jaume.

Per la seva banda, el catedràtic de la UIB en Ciències Matemàtiques i Informàtica Llorenç Valverde, ha destacat la necessitat que els tècnics que gestionen projectes relacionats amb la intel·ligència artificial  tinguin  una formació adequada en matèria d'humanitats o en valors ètics.

"No vull dir que no sigui una bona cosa això de fer codis ètics, bona però sovint resulta inútil. Perquè, una vegada que tens garantit que el desenvolupador hagi observat en tot i per tot el codi, com garanteixes que també l'observi qui fa servir el sistema? Encara més, si és un sistema que aprèn, com evites els biaixos associats a les dades?", destaca el professor.

Valverde va posar l'exemple del sistema utilitzat pel servei de recursos humans d'Amazon  fins a  2017, que aprenia tant   a partir de les dades que gestionava que va aprendre a discriminar les dones. Un sistema per avaluar les possibilitats de reincidència de delinqüents també va aprendre a  partir  de les dades rebudes a discriminar les persones de color.

"Arreu  trobam  gent molt preparada tècnicament, però sense principis. I és així que surten les dades esbiaixades que fan que  els sistemes  també adquireixin el biaix, o escàndols econòmics o la corrupció, tant política com empresarial", explica Valverde.

El congrés ha tengut lloc  del 23 al 25 d'octubre amb l'objectiu principal de fomentar la discussió sobre els treballs en intel·ligència artificial, que es desenvolupen en el domini lingüístic català, així com reunir els membres d'aquesta comunitat investigadora.  Han  participat com a conferenciants en les sessions plenàries l'investigador  Javier  Fernández de la Universitat Pública de Navarra, que va pronunciar la conferència " Nuevos   métodos  de  fusión   de información   y  el  cerebro  computacional"; Anna Monreale, de la Universitat de Pisa, la conferència " Explainable   IA ", i Joan Serrà, " From   correlation  to  imagination deep   generative  models  for  artificial  intelligence ".

EDICIÓ PAPER 30/05/2020

Consultar aquesta edició en PDF