Publicitat
Publicitat

HIROSHIMA I NAGASAKI EL DESARMAMENT NUCLEAR

De la devastació nuclear als robots assassins

Un grup de científics es mobilitzen contra els autòmats militars

Albert Einstein va enviar una carta el 2 d’agost del 1939 a Franklin D. Roosevelt, president dels Estats Units, per advertir-lo del perill que l’Alemanya nazi pogués desenvolupar una bomba atòmica. La seva missiva va ser l’origen del Projecte Manhattan, que va tenir com a objectiu la construcció de la primera arma nuclear. Poc després de la devastació nuclear d’Hiroshima i Nagasaki, el cèlebre científic va dir que si hagués sabut que els alemanys “no tindrien èxit en la producció d’una bomba no hauria mogut un dit”.

Una altra carta, 76 anys després, vol aconseguir el contrari del que va demanar Einstein. La setmana passada, a Buenos Aires, més de 2.500 investigadors d’intel·ligència artificial i robòtica van publicar una carta oberta contra el desenvolupament de robots militars autònoms que prescindeixin de la intervenció humana per al seu funcionament, coneguts com a robots assassins. El físic Stephen Hawking i el cofundador d’Apple Steve Wozniak van ser alguns dels signants del text que es va presentar a la Conferència Internacional d’Intel·ligència Artificial. “La tecnologia de la intel·ligència artificial ha arribat a un punt en el qual el desplegament d’aquest tipus d’armes serà una possibilitat tècnica d’aquí uns anys, no unes dècades. Ens hi juguem molt”, van escriure.

Aquesta mateixa preocupació va portar una coalició internacional d’associacions no governamentals (ONG) i experts d’intel·ligència artificial a impulsar la campanya Stop killer robots. “Si volem evitar un altre Hiroshima o Nagasaki, cal un tractat internacional per prohibir aquests robots de la mateixa manera que es va fer amb les armes químiques i biològiques”, diu Mary Wareham, la portaveu de la campanya i directora de la divisió d’armes de Human Rights Watch.

Wareham explica que la campanya insta a una prohibició preventiva -ja que aquests robots encara no existeixen-, però no està en contra de la tecnologia robòtica. “No volem espantar la gent dient que robots de l’estil de Terminator seran aviat un realitat”, afirma. L’activista afegeix que els països han de reconèixer el buit legal que hi ha sobre aquests futurs robots i prendre mesures per prohibir el seu desenvolupament, producció i ús.

De moment, només existeixen sistemes robotitzats -és a dir, controlats pels humans- com els drons o robots militars programats com Big Dog, de Boston Dynamics, que està dissenyat per portar càrregues.

Les Nacions Unides, gràcies a la pressió de la societat civil, fa més de dos anys que debat sobre aquestes armes dins de la Convenció sobre Certes Armes Convencionals. “Ara és l’hora de l’acció”, diu Wareham.

Qüestions legals i morals

La creació de robots capaços de matar de manera autònoma crea diverses qüestions legals i ètiques sobre la guerra: qui decideix matar? Qui és el responsable de les morts d’una màquina? “Els problemes ètics sorgeixen perquè cap sistema computacional pot discriminar entre combatents i innocents”, escriu Noel Sharkey a l’article The ethical frontiers of robotics, a la revista Science. Sharkey va ser un dels impulsors de la campanya Stop killer robots.

Altres científics, com Ronald Arkin, professor de l’Institut Tecnològic de Geòrgia, advoquen per continuar investigant aquest tipus de tecnologia militars perquè creuen que els futurs robots soldats podrien actuar amb més ètica que els soldats humans i, per tant, reduir les baixes civils i els danys col·laterals.

PUBLICITAT
PUBLICITAT
PUBLICITAT

EDICIÓ PAPER 16/12/2017

Consultar aquesta edició en PDF