OPINIÓ

Paranoies d'estiu?

Un dia, a ca un bon amic, vàrem seure a l’ordinador per fer-hi una feina. Vaig veure que tenia el micròfon i la càmera de la pantalla tapats amb esparadrap. El tenc per una persona intel·ligent i formada, i amb uns nivells d’adaptació social més que acceptables. Ets un paranoic, li vaig dir. S’ho va prendre bé i va alçar les celles demanant indulgència.

Hi he pensat aquesta setmana arran de les informacions sobre l’assistent virtual de Google. Ja sabeu, aquest aparellet tan 'xistós' i de formes tan sofisticades que instal·les a casa perquè –reaccionant a la teva veu– et pugui alliberar de tasques taaaaaan terribles com regular la temperatura del termòstat, demanar una pizza, escriure recordatoris a l’agenda, enviar missatges de whatsapp, ajustar la brillantor de la pantalla del mòbil o posar 'El Larguero' a la SER.

Com que la peresa i la mossoneria ens guanyen, la cosa ha tengut molt d’èxit i ja en tenim un munt de versions: Siri (Apple), Google Assistant, Alexa (Amazon), Cortana (Microsoft)...

Idò la polèmica és que Google ha reconegut que empleats seus escolten i transcriuen algunes de les converses (0,2%) que els usuaris mantenen amb els seus dispositius. Admeten que, a través del seu dispositiu Google Home –amb una quota de mercat als EUA del 19%–, poden sentir –i escoltar– les converses de fons dels seus clients, i que de vegades són enregistrades i emmagatzemades.

L’escàndol ha esclatat quan el mitjà belga VRT News ha publicat les revelacions d’un extreballador de la casa. L’excusa que ha posat la companyia californiana ha estat absolutament entendridora: ho fa per millorar el servei que ens dona.

La cosa té un rerefons filològic interessant, perquè la tecnologia d’intel·ligència artificial basada en el reconeixement de veu topa sovint amb una trava important: la impredictibilitat i recursivitat del llenguatge natural humà. Fins i tot a Silicon Valley resulta complicat recollir, sintetitzar, sistematitzar i reproduir els mecanismes lingüístics amb totes les seves variacions i matisos.

La qüestió és que en la seva lloable pruïja de vendre trastos 'urbi et orbi' es troben l’únic aranzel que encara existeix en aquest món globalitzat i hipercolonitzat: la diversitat lingüística. I això complica la seva tasca. Tan fàcil com seria si tots parlàssim anglès...

En el cas que ens ocupa, experts lingüístics contractats per Google escolten i transcriuen una part de les converses –suposadament privades i adreçades a un robot– amb la finalitat d’entendre millor la llengua neerlandesa. Com si els experts només poguessin estudiar una llengua espiant, que ve a ser com si el 1920, a una casa del Pallars o de la Garrotxa, haguessin aglapit Mossèn Alcover escoltant d’amagat dins un armari i s’hagués excusat dient que recollia dades lingüístiques.

La feta, però, no acaba aquí, perquè la companyia s’ha disculpat “per la filtració”, que és com no disculpar-se per haver fet una cosa malament, sinó perquè s’hagi sabut.

Sembla que ni la lògica ni la moralitat són el fort d’aquest món de modernitat tecnològica. Deu ser per això que circula un mem en què Julian Assage i Mark Zuckerberg s’expliquen. El primer diu: “Jo et don gratuïtament informació privada sobre empreses i governs, i em tracten de criminal”. L’altre somrient ens conta: “Jo venc la teva informació privada a empreses i governs, i em consideren un geni”.

Ara, de l’altra part de l’Atlàntic –o del Pacífic, segons com es miri– ens arriben més notícies inquietants. En aquest cas és el ressorgiment de FaceApp –una aplicació de Wireless Lab, de Yaroslav Goncharov, amb seu a Sant Petersburg–, que en pocs dies s’ha viralitzat a Instagram i Twitter i que ja té 80 milions d’usuaris registrats. La nova jugueta serveix per crear a través de filtres una simulació d’envelliment dels rostres que s’hi pugen. Divertidíssima i molt aconseguida. Tant, que milions d’usuaris de tot el món hi han exposat alegrement la seva privacitat. Es veu que n’hi ha molts que frissen de veure’s vells...

Però els experts alerten d’una política de protecció de dades confusa, ja que FaceApp recopila la informació de l’usuari i la pot traslladar a altres països on no regeixen la mateixes lleis que en la jurisdicció originària i mantenir-la-hi indefinidament. En aquest cas, és la tecnologia de reconeixement facial la que ha posat en guàrdia l’organització britànica Big Brother Watch, que considera aquest tipus de plataformes com a perillosament autoritàries, ja que poden ser utilitzades tant amb finalitats comercials –publicitat– com de vigilància –privada o governamental.

Micròfons que ens escolten quan som a ca nostra, càmeres que ens reconeixen quan sortim al carrer. Abans n’haguéssim dit “orwellià”, ara ho trobam 'xulíssim'. Disculpau, he d’anar a cercar l’esparadrap.

EDICIÓ PAPER 28/11/2020

Consultar aquesta edició en PDF