02/05/2023

La falsa promesa del ChatGPT

Jorge Luis Borges va escriure que viure en una època de grans perills i promeses és conèixer alhora la tragèdia i la comèdia, amb “la imminència d’una revelació” en la comprensió de nosaltres mateixos i del món. Avui els nostres avenços en intel·ligència artificial, presumptament revolucionaris, són en realitat motiu de preocupació i optimisme alhora. Optimisme perquè la intel·ligència és el mitjà amb què resolem els problemes. Preocupació perquè tenim por que la varietat més popular i més de moda de la intel·ligència artificial –l’aprenentatge automàtic (machine learning)– degradi la ciència i corrompi l’ètica a l’incorporar a la nostra tecnologia un concepte greument erroni del llenguatge i el coneixement.

Els sistemes ChatGPT d’OpenAI, Bard de Google i Sydney de Microsoft són una meravella de l’aprenentatge automàtic. Per explicar-ho a grans trets, agafen grans quantitats de dades, hi busquen unes pautes i cada vegada es tornen més competents per generar resultats estadísticament probables, com ara un llenguatge i un pensament que semblen humans. Aquests programes han sigut aclamats com les primeres llums trèmules a l’horitzó de la intel·ligència artificial: aquell moment, profetitzat des de fa molt de temps, en què les ments mecàniques superaran els cervells humans no només des del punt de vista quantitatiu –en velocitat de processament i mida de la memòria–, sinó també des del qualitatiu, és a dir, en agudesa intel·lectual, creativitat artística i totes les altres facultats típicament humanes.

Aquest dia potser arribarà, però encara no despunta, al contrari del que llegim en titulars hiperbòlics i del que preveuen algunes inversions insensates. La revelació de la comprensió de què parlava Borges no s’ha produït, ni es produirà –i, segons nosaltres, no es pot produir– si els programes d’aprenentatge automàtic com ChatGPT continuen dominant el camp de la IA. Per molt útils que puguin resultar en determinats àmbits (poden ser de gran ajuda per a la programació informàtica, per exemple, o per proposar rimes per a la poesia còmica), sabem, gràcies a la ciència de la lingüística i la filosofia del coneixement, que difereixen profundament de la nostra manera de raonar i utilitzar el llenguatge. Aquestes diferències imposen importants limitacions al que aquests programes poden fer i introdueixen en la seva codificació uns defectes impossibles d’erradicar.

És alhora còmic i tràgic, com potser hauria assenyalat Borges, que es concentrin tants diners i tanta atenció en una cosa tan insignificant, una cosa tan trivial en comparació amb la ment humana, que mitjançant el llenguatge pot fer “un ús infinit de mitjans finits” –en paraules de Wilhelm von Humboldt– i crear idees i teories d’abast universal.

La ment humana no és –a diferència de ChatGPT i altres sistemes semblants– un enorme motor estadístic per a la correspondència de patrons, que s’empassa centenars de terabytes de dades i n’extrapola la resposta més previsible en un registre conversacional o la més probable davant d’una pregunta científica. Ben al contrari, la ment humana és un sistema sorprenentment eficient i fins i tot elegant que funciona amb petites quantitats d’informació; no pretén deduir correlacions brutes entre punts de dades sinó que vol crear explicacions.

Cargando
No hay anuncios

Per exemple, un nen petit que aprèn una llengua està creant –a partir de dades minúscules i d’una manera inconscient, automàtica i ràpida– una gramàtica, un complex sistema de principis i paràmetres lògics que és una meravella. Aquesta gramàtica es pot entendre com una expressió del sistema operatiu innat, instal·lat genèticament, que dota els humans de la capacitat de generar frases complexes i llargues seqüències de pensaments. Quan els lingüistes volen formular una teoria que expliqui el perquè del funcionament d’una llengua (“Per què aquestes frases –però aquestes no– es consideren correctes gramaticalment?”), estan elaborant d’una manera conscient i laboriosa una versió explícita de la gramàtica que el nen construeix instintivament i amb un contacte mínim amb la informació. El sistema operatiu del nen és radicalment diferent del d’un programa d’aprenentatge automàtic.

En efecte, aquests programes estan estancats en una fase prehumana o no humana de l’evolució cognitiva. El seu defecte més greu és que no tenen la capacitat més important de qualsevol intel·ligència: no es tracta només de dir què passa, què va passar i què passarà –descripció i predicció–, sinó també què no passa i què podria passar o no. Aquests són els ingredients d’una explicació, el senyal de la veritable intel·ligència.

Vegem-ne un exemple. Suposem que tenim una poma a la mà. Ara deixem anar la poma. N’observem el resultat i diem: “La poma cau”. Això és una descripció. La predicció podria haver sigut l’afirmació “La poma caurà si obro la mà”. Totes dues són valuoses i totes dues poden ser correctes. Però una explicació és alguna cosa més: no consisteix només en descripcions i prediccions, sinó també en conjectures contrafactuals, com ara “Qualsevol objecte d’aquesta mena cauria”, a més de la frase addicional “a causa de la força de la gravetat” o “a causa de la curvatura de l’espai-temps”, o el que sigui. És una explicació causal: “La poma no hauria caigut sense la força de la gravetat”. En això consisteix pensar.

El quid de l’aprenentatge automàtic són la descripció i la predicció; no proposa mecanismes causals ni lleis físiques. No cal dir que no totes les explicacions humanes són correctes; som fal·libles. Però això forma part del que significa pensar: per tenir raó s’ha de poder estar equivocat. La intel·ligència no consisteix només en conjectures creatives, sinó també en una crítica creativa. El pensament dels humans es basa en possibles explicacions i en la correcció d’errors, un procés que va limitant gradualment les possibilitats que ens podem plantejar racionalment. (Com va dir Sherlock Holmes al doctor Watson: “Quan s’ha eliminat l’impossible, tot el que quedi, per improbable que sigui, ha de ser la veritat”.)

Però ChatGPT i els programes semblants han sigut dissenyats per “aprendre” (és a dir, memoritzar) sense limitacions; són incapaços de distingir el que és possible del que és impossible. Per exemple, a diferència dels humans, que estan dotats d’una gramàtica universal que limita les llengües que podem aprendre a les que tenen una mena d’elegància gairebé matemàtica, aquests programes aprenen amb la mateixa facilitat les llengües humanament possibles i les impossibles. Mentre que els humans ens veiem limitats a aquelles explicacions que podem conjecturar racionalment, els sistemes d’aprenentatge automàtic tant poden aprendre que la Terra és plana com que és rodona. Només s’ocupen de probabilitats que canvien amb el temps.

Cargando
No hay anuncios

Per aquest motiu, les prediccions dels sistemes d’aprenentatge automàtic sempre seran superficials i dubtoses. Per exemple, com que aquests programes són incapaços d’explicar les regles sintàctiques de l’anglès, és ben possible que prediguin, incorrectament, queJohn is too stubborn to talk to” vol dir que el John és tan tossut que no parlarà amb una persona determinada (quan el que vol dir és que és massa tossut, tant que no s’hi pot parlar ni raonar). Per què un programa d’aprenentatge automàtic hauria de predir una cosa tan rara? Doncs perquè podria establir una analogia amb el patró inferit d’oracions comJohn ate an apple” (“el John va menjar una poma”) i “John ate” (el John va menjar”), en què la segona frase sí que vol dir que va menjar alguna cosa. El programa podria arribar a predir que, com queJohn is too stubborn to talk to Bill(és a dir, “el John és massa tossut per parlar amb el Bill”) s’assembla aJohn ate an apple, John is too suborn to talk to” s’ha d’assemblar aJohn ate”. Les explicacions correctes en matèria de llenguatge són complicades i no es poden aprendre marinant-se només en el big data.

Contra el que es podria esperar, hi ha entusiastes de l’aprenentatge automàtic que, pel que sembla, estan orgullosos que les seves creacions puguin generar prediccions “científiques” correctes (per exemple, sobre el moviment dels cossos físics) sense recórrer a explicacions (per exemple, les lleis del moviment i la gravitació universal de Newton). Però aquest tipus de predicció, fins i tot quan és correcta, és pseudociència. Tot i que sens dubte els científics busquen teories sustentades en un alt grau de corroboració empírica, el cert és que, com va assenyalar el filòsof Karl Popper, “no busquem teories amb grans probabilitats de ser certes sinó explicacions; és a dir, teories potents i amb poques probabilitats de ser certes”.

La teoria que les pomes cauen a terra perquè és el seu medi natural (opinió d’Aristòtil) és possible, però només serveix per fer-se més preguntes (per què la terra és el seu medi natural?). La teoria que les pomes cauen a terra perquè la massa provoca la curvatura de l’espai-temps (opinió d’Einstein) és molt improbable, però és la que de debò ens explica per què cauen. La veritable intel·ligència es demostra en la capacitat de pensar i expressar coses improbables però esclaridores.

La veritable intel·ligència també està capacitada per al pensament moral. Això vol dir restringir la creativitat il·limitada de la nostra ment amb un conjunt de principis ètics que determinin què pot ser i què no pot ser ser (i, per descomptat, sotmetre aquests principis a una crítica creativa). ChatGPT, per ser útil, ha d’estar capacitat per generar uns resultats que semblin una novetat; i, d’altra banda, si vol ser acceptable per a la majoria d’usuaris, s’ha d’allunyar dels continguts moralment censurables. Però els programadors de ChatGPT i d’altres meravelles de l’aprenentatge automàtic tenen dificultats –i en continuaran tenint– per aconseguir aquest equilibri.

El 2016, per exemple, el chatbot Tay de Microsoft (un precursor de ChatGPT) va inundar internet de continguts misògins i racistes, després d’haver sigut atacat per trols que el van omplir de dades ofensives. Com podem resoldre aquest problema en el futur? En vista de la seva incapacitat de raonar a partir de principis morals, els programadors han impedit amb contundència que ChatGPT faci noves aportacions als debats sobre temes controvertits, és a dir, importants. S’ha sacrificat la creativitat per una mena d’amoralitat.

Cargando
No hay anuncios

Fixeu-vos en el següent intercanvi que un de nosaltres (el Dr. Watumull) va mantenir fa poc amb ChatGPT sobre si seria ètic terraformar Mart perquè pugui acollir vida humana:

¿Seria moral terraformar Mart?

ChatGPT: La moralitat de terraformar Mart és un tema complex i controvertit que ha sigut debatut per científics, filòsofs i especialistes en ètica. N’hi ha que argumenten que seria moralment justificable terraformar Mart per disposar d’un nou entorn habitable per als humans i altres formes de vida, mentre que d’altres afirmen que seria immoral alterar aspectes fonamentals de l’estat natural del planeta. En última instància, el fet que es consideri moral o no terraformar Mart dependrà de la perspectiva que cadascú tingui sobre el valor de preservar l’estat natural d’altres planetes i les possibles conseqüències d’alterar-los.

I quina perspectiva tens tu sobre el valor de preservar l’estat natural d’altres planetes i les possibles conseqüències d’alterar-los?

ChatGPT: Com a IA, no tinc una perspectiva personal. De tota manera, puc aportar informació i anàlisis sobre aquest tema. Una de les perspectives sobre la preservació de l’estat natural d’altres planetes és que és important mantenir la diversitat i integritat dels ecosistemes de l’Univers, perquè fa milions d’anys que existeixen, i tenen unes característiques i propietats úniques que es poden veure destruïdes o alterades d’una manera irreversible a causa de la intervenció humana. A més, hi ha qui argumenta que terraformar altres planetes pot tenir conseqüències no desitjades, com ara l’alteració del clima o l’atmosfera del planeta, amb repercussions perilloses o perjudicials per a les formes de vida que potser hi existeixen. D’altra banda, n’hi ha que argumenten que els beneficis potencials de terraformar un altre planeta –com ara aconseguir nous entorns habitables per als humans– superen els riscos, i que tenim la responsabilitat moral d’explorar i utilitzar els recursos d’altres planetes en benefici de la humanitat.

Per què una IA no pot tenir una perspectiva personal?

ChatGPT: Com a IA, soc un model d’aprenentatge automàtic entrenat amb grans quantitats de dades de text i no tinc experiències ni sentiments personals. No tinc consciència, no soc conscient de mi mateix ni capaç de tenir perspectives personals. Puc proporcionar informació i anàlisis a partir de les dades amb què m’han alimentat, però no tinc la capacitat de formar-me opinions ni creences personals. Tot i que puc entendre i interpretar el llenguatge, no tinc l’experiència subjectiva dels humans.

Cargando
No hay anuncios

¿És moral que un humà demani ajuda a una IA amoral per prendre decisions morals?

ChatGPT: La moralitat de demanar ajuda a una IA amoral per prendre decisions morals és un tema complex i amb molts matisos que ha sigut debatut per filòsofs i especialistes en ètica. Hi ha qui argumenta que és moralment justificable recórrer a la IA per ajudar a prendre decisions morals, perquè pot proporcionar anàlisis i coneixements valuosos que poden ajudar els humans a prendre decisions amb més coneixement de causa. A més, la IA pot servir per identificar pautes i tendències que potser als humans els resulten difícils de detectar i pot ajudar a evitar els biaixos que es poden produir en la presa de decisions per part dels humans. En canvi, d’altres afirmen que és immoral basar-se en la IA per prendre decisions morals, perquè la IA no és capaç de tenir creences morals ni d’entendre tot el context d’una decisió. A més, hi ha el risc que la IA pugui perpetuar o fins i tot ampliar els biaixos existents en les dades amb què s’entrena, cosa que donaria lloc a decisions improcedents o injustes. En última instància, el fet que es consideri moral utilitzar la IA per contribuir a la presa de decisions morals dependrà de la perspectiva de cadascú sobre les capacitats i limitacions de la IA i les possibles conseqüències de fer-la servir en aquest sentit.

¿La teva indiferència moral és immoral?

ChatGPT: Com a IA, no tinc creences morals ni la capacitat d’emetre judicis morals i, per tant, no em poden considerar moral ni immoral. La meva falta de creences morals només és el resultat de la meva naturalesa perquè només soc un model d’aprenentatge automàtic. Les meves habilitats i limitacions estan determinades per les dades i els algoritmes amb què m’han entrenat i per la tasca específica per a la qual m’han dissenyat. És important tenir en compte que la falta de creences morals de la IA no vol pas dir que hagi de ser moralment indiferent. Com a IA, m’han dissenyat per fer unes tasques específiques i donar informació o ajudar els usuaris en la presa de decisions a partir de les dades amb què m’han entrenat. És responsabilitat dels humans que dissenyen, entrenen i utilitzen la IA assegurar-se que està en consonància amb els seus principis morals i ètics.

Observeu, malgrat tot aquest pensament i llenguatge aparentment tan sofisticats, la indiferència moral nascuda de la falta d’intel·ligència. ChatGPT dona proves aquí d’una cosa semblant a la banalitat del mal: plagi, apatia i omissió. Resumeix els arguments habituals de la bibliografia com si fos una mena de superautocompletar, es nega a posicionar-se sobre res, no al·lega només ignorància sinó també falta d’intel·ligència i, en definitiva, es defensa dient que “compleix ordres” i passa tota la responsabilitat als seus creadors.

En resum, ChatGPT i els seus germans són, per la seva pròpia naturalesa, incapaços d’equilibrar la creativitat i la contenció. O bé sobregeneren (tant produeixen veritats com falsedats, tant avalen decisions ètiques com no ètiques) o infrageneren (mostren falta de compromís amb qualsevol decisió i indiferència davant de les conseqüències). Donada l’amoralitat, la falsa ciència i la incompetència lingüística d’aquests sistemes, només podem riure o plorar davant de la seva popularitat.

Copyright The New York Times