Els àudios de Santos Cerdán

Es fa molt estrany que Santos Cerdán, per defensar-se i evitar la seva dimissió, no hagi utilitzat el comodí de l’anomenat deepfake, que ja sovinteja als tribunals i que cada cop serà, malauradament, més freqüent. La raó pot ser que l’interessat desconegui aquesta línia de defensa, o bé que l’àudio no sigui cap deepfake i que la corrupció investigada sigui ben real i hagi optat per l’opció més intel·ligent en aquests casos: renunciar a la política i defensar-se com un ciutadà qualsevol. També és factible que no hagi volgut perjudicar políticament encara més el seu partit, sigui certa o falsa la conversa, cosa que és possible que ni el mateix Santos Cerdán recordi, perquè la suposada conversa és de fa sis anys. Sigui com sigui, s’equivoquen sovint els tribunals quan creuen, com gairebé tothom, que la memòria humana és com un enregistrament d’àudio i vídeo. En realitat és molt precària i en condicions mínimament acceptables no dura més de 48 hores. Després d’aquest temps, la psicologia del testimoni ha confirmat científicament que la memòria es reconstrueix i es va omplint de falsos records per integrar les seves llacunes, cosa que produeix memòries irreals que el subjecte creu fermament que es corresponen amb la veritat. Un desastre que fa que els interrogatoris als processos judicials, malgrat la seva teatralitat de vegades espectacular, serveixin en realitat per a ben poc més que per perdre el temps o intentar apel·lar als prejudicis socials del jutge perquè decideixi el cas, no en favor de la veritat, sinó dels interessos d’un advocat o d’un fiscal.

Però tornant al tema dels deepfakes, cal explicar que es tracta de documents, amb qualsevol contingut, que simulen la realitat sovint d’una manera tan perfecta que semblen reals les veus i les imatges que s’hi senten i veuen. La gent en general els ha vist en acudits o mems que ensenyen persones famoses dient o fent coses absurdes que mai no dirien ni farien, almenys en públic. I, a més, ja no són tan difícils de fer. Les eines més comunes d’intel·ligència artificial generativa els poden produir, alguna particularment bé, i a més hi ha molts programes a la web fàcilment localitzables que, en mans de persones un xic més expertes, els fan encara millor.

Cargando
No hay anuncios

De moment són un divertimento en la majoria dels casos, però s’estan començant ja a veure en la realitat dels tribunals. Habitualment hi han entrat mitjançant denúncies –amb un futur incert– quan han simulat que menors d’edat tenien conductes sexuals explícites que mai no van tenir, amb el consegüent dany a la seva integritat psíquica. Però començarem a veure de manera creixent documents escrits que semblaran reals, però que seran completament falsos, o àudios de converses que mai no van succeir. O imatges, en format de vídeo o fotografia, que també semblaran reals, però que no ho seran. Es pot pensar que aquestes falsificacions es poden detectar amb facilitat, i sovint és així perquè són de baixa qualitat o el que ensenyen és surrealista. Però hi ha una dada important que neguiteja molt: l’enorme majoria de les proves pericials per acreditar l’existència d’un deepfake tenen una baixa qualitat científica que minva, a més, al mateix ritme que es milloren les tècniques de producció dels deepfakes. La qual cosa fa que, actualment, al voltant del 15-20% dels deepfakes no siguin detectables. Tot un drama per al futur de la prova als processos judicials, cosa que obligarà tard o d’hora a un replantejament global de l’activitat dels tribunals. Sempre hi haurà deepfakes indetectables.

Això és el que ha fet que, fa pocs dies, l'Elisi declarés inicialment que la mà que va colpejar la cara de Macron dins d'un avió no era la de la seva dona, sinó que allò no havia passat mai perquè es tractava d’un deepfake –una versió que després van haver de corregir–. Aquest mateix pensament devia tenir el jutge del cas de Jenni Hermoso quan explícitament no va acceptar un vídeo de TikTok de la imatge que tots vam veure perquè no estava validat, sense més ni més. Com deia, en vindran molts més casos.

Cargando
No hay anuncios

No sé pas si Santos Cerdán utilitzarà també aquest argument en la seva defensa. Al cap i a la fi, l’àudio ve de mans policials que indubtablement tenen expertesa –limitada, però– en matèria de deepfakes. Si es demostrés que tot hagués estat resultat d’una manipulació, i no d’un enregistrament real del Sr. Koldo, l’impacte seria brutal. Cal no descartar aquesta línia de defensa, l’èxit de la qual, si s’utilitza, trigarem molt a saber. Malgrat tot, cal estar preparats per sentir la paraula deepfake en molts casos futurs. El món de ficció que pot sortir-ne és ara per ara inimaginable.