You are here

Stephen Hawking advierte sobre el uso de inteligencia artificial en armas

LISBOA // Nada más empezar su ponencia, Stephen Hawking, uno de los divulgadores científicos más aclamados a nivel internacional, lanzó una dura advertencia sobre el uso negligente de tecnología de inteligencia artificial aplicada a armas y otros ámbitos. El físico teórico y cosmólogo británico apareció este lunes en videoconferencia durante la apertura del Web Summit que se celebra en Lisboa, y la que estuvo presente el secretario general de Naciones Unidas, António Guterres, entre otros altos cargos del mundo de la política y los negocios, para lanzar un llamamiento a la responsabilidad de los gobiernos y las corporaciones en el uso y desarrollo de la inteligencia artificial, subrayando que puede ser “lo mejor o lo peor para la historia de nuestra civilización” porque “implica serios peligros, como [el desarrollo de] poderosas armas autónomas”, en referencia a los conocidos como ‘robots asesinos‘, sistemas armados capaces de seleccionar y eliminar objetivos humanos en base a un algoritmo y sin requerir autorización por parte de un ser humano. Desde hace varios años la comunidad internacional ha esquivado la implementación de una moratoria para esta tecnología bélica.

Hawkings también apuntó que “las máquinas inteligentes cada vez podrán hacer más trabajo que ahora hacen los humanos, y podrían destruir rápidamente millones de empleos; la inteligencia artificial podrá desarrollar voluntad propia que entrará en conflicto con la nuestra y que podría destruirnos”, Desde 2014, el astrofísico ha sido una de las voces más destacadas a la hora de pedir compromiso por parte de gobiernos y empresas para investigar las consecuencias inmediatas de los avances en inteligencia artificial en el campo militar, educativo, sanitario y medioambiental, entre otros.

Hawkings se mostró optimista acerca del futuro y señaló que los avances en inteligencia artificial suponen una nueva revolución tecnológica, destacando su capacidad para, por ejemplo, mermar los daños causados por el ser humano a la naturaleza o reducir la pobreza y las enfermedades. No obstante, también pidió cautela y responsabilidad a las personas del mundo de la política, la investigación y la economía porque, en su opinión, “no podremos predecir los resultados de amplificar la capacidad mental humana gracias a la inteligencia artificial”, un cambio que, en su opinión, es inminente.

“Todos los aspectos de nuestra vida cambiarán (…) deberíamos parar un momento y centrarnos no solo en hacer la inteligencia artificial más exitosa y capaz, sino en maximizar la forma en que puede beneficiar a la sociedad”, dijo Hawkings ante las 15.000 personas que asistieron a la apertura del Web Summit. En el público de este macro evento tecnológico se encontraban varias figuras relevantes de la política y los negocios, entre ellas Margrethe Vestager, comisaria europea de Competencia, así como el primer ministro de Portugal, António Costa, el expresidente francés Françoise Hollande, el director de Interpol, y numerosos directivos de Intel, Amazon, Microsoft, Google, Facebook, Uber, Tesla y otras multinacionales que actualmente invierten grandes sumas el desarrollo de inteligencia artificial y que, en algunos casos, ya se han sumado a la petición internacional por la prohibición de las armas autónomas letales.

Donación a La Marea

Más en lamarea.com

Read More

Jody Williams: la nueva batalla de una premio Nobel y activista veterana

Jody Williams en la sede de Naciones Unidas en Ginebra, Suiza. Foto: José Bautista.

Esta entrevista forma parte de #LaMarea45. Consíguela aquí.

Esta semana más de cien nombres destacados del mundo de la tecnología pidieron por carta a la ONU que prohíba las armas autónomas letales, más conocidas como robots asesinos. Recuperamos esta entrevista* con la premio Nobel de la Paz Jody Williams, una de las voces más firmes en contra de esta nueva tecnología militar, realizada durante la reunión de la ONU para revisar la Convención sobre Ciertas Armas Convencionales que tuvo lugar en diciembre de 2016 en Ginebra.

GINEBRA // Mirada penetrante, voz firme, verbo conciso y gesto enérgico. “Hacen esto en nombre de los ciudadanos, pero los ciudadanos no quieren que un robot pueda apuntarles y dispararles”. Las palabras de la profesora Jody Williams caen como agua fría sobre una audiencia repleta de diplomáticos, acostumbrados a los discursos calculados de las maratonianas reuniones de Naciones Unidas.

Williams recibió el Premio Nobel de la Paz en 1997 por su trabajo contra las minas antipersona y las bombas de racimo. Ahora, además de liderar la Iniciativa de las Mujeres Nobel, Williams es una de las coordinadoras de la Campaña contra los Robots Asesinos, que agrupa a varios colectivos contrarios a esta tecnología militar.

¿Por qué cree que deberían ser prohibidos los robots asesinos?

Porque personalmente pienso que es moral y éticamente inaceptable que los seres humanos crean que está bien crear armas que pueden seleccionar a sus objetivos y matar a seres humanos.

A pesar de las pruebas, varios países siguen negando la existencia de armas autónomas letales. ¿Por que deberían ser prohibidos ahora y no después de ser desarrollados?

Porque ahora mismo, en teoría, no hay carrera armamentística ni proliferación. Es más fácil parar algo antes de que suceda que tratar de lidiar con las consecuencias posteriores.

La ONU ya habla de guerra híbrida en sus documentos, a pesar de que muchos países niegan la existencia de los robots asesinos, entre ellos Israel, que ya ha usado este tipo de tecnología, y EEUU, que la ha empleado en Afganistan e Iraq. ¿Qué sabe al respecto?

Creo que estamos más cerca de lo que dicen. Sabemos que EEUU ha invertido mucho en el cazabombardero no tripulado X-47B, capaz de despegar y aterrizar sin intervención humana en un portaaviones, la parte más difícil del vuelo. Si mal no recuerdo, puede volar durante más de 200 horas y repostar en el aire. Sabemos que esta tecnología ya existe, y aquí [en referencia a la ONU] también habría que debatir sobre lo que ya se está haciendo con ella.

¿Por qué EEUU, China, Rusia, Reino Unido y otros países que normalmente tienen diferentes puntos de vista en el ámbito internacional, en esta ocasión coinciden en posponer una decisión?

Bueno, también están de acuerdo sobre las bombas nucleares. No quieren deshacerse de ellas a pesar de que el mundo sí quiere. Creo que en este sentido son terroristas, puesto que ponen en riesgo el futuro de la humanidad en este planeta en su afán por tener armas nucleares. Los países con capacidad tecnológica para desarrollar robots asesinos, los quieren. Los EEUU tienen superioridad tecnológica y militar desde hace décadas, por lo que simplemente no quieren que nadie les diga qué pueden o no hacer. Por eso estos países se oponen juntos: porque quieren esas armas y las quieren los primeros.

Su campaña contra las minas antipersona fue un éxito y te granjeó el Nobel de la Paz. Ahora se percibe poco interés social por los robots asesinos, ¿cómo cree que será la lucha contra su desarrollo?

Creo que la mayor parte de la sociedad todavía no conoce el tema, y eso lo complica todo. Es duro decirlo, pero creo que esta lucha es mucho más difícil.

¿Por qué?

Porque es un tema desconocido, porque los cinco o seis países que los quieren están muy avanzados respecto al resto. En el caso de mi país [Estados Unidos], al Gobierno le gusta invadir otros países, por lo que quieren equipos militares más rápidos y efectivos para invadir, matar y ahorrarse la imagen de miles de americanos volviendo a casa y denunciando a las autoridades públicas, como sucedió con la guerra de Vietnam.

¿La creación de un Grupo de Expertos Gubernamentales (GEG) podría ser un intento de ganar tiempo?

Sí, pero es una moneda con dos caras. Cuando empecé la campaña contra las minas antipersona, una de las herramientas que usamos fue trabajar en el GEG para crear el Protocolo 2 y prohibir las minas antipersona, lo que dio lugar a un tratado a mitad de los 90. Pensamos que podríamos presionar para que el Protocolo 2 estableciese una moratoria contra las minas antipersona, pero no funcionó. Sin embargo, ese proceso nos dio una plataforma para unirnos, seguir presionando a los gobiernos, continuar explicándole a la sociedad este problema. Sin esa plataforma, es mucho más difícil. Es importante, pero creo que los gobiernos jugaran en contra, por supuesto. Nunca confié en los gobiernos.

¿Qué podría haberse hecho aquí?

Si hay un GEG, en el mejor de los casos, esto daría lugar a limitaciones a los robots asesinos. En el peor escenario, se seguirán diciendo tonterías y no pasará nada. Pero esto nos da tiempo para seguir atrayendo el apoyo de gobiernos, y de momento* ya hay 19. No sabíamos que serían cinco más durante este evento, pues eran 14 cuando llegamos esta semana. Sucedió lo mismo con la campaña contra las minas antipersona.

Aquí veo que la mayor parte de representantes de organizaciones contrarias a los robots asesinos son mujeres. ¿Cómo influye eso en esta batalla?

Muchos estudios demuestran que hasta que el 30% del equipo no está formado por mujeres, raramente hablan y se dedican a apoyar lo que los hombres dicen. En las campañas a favor del desarme siempre hubo un gran número de mujeres. En esta campaña todas las coordinadoras son mujeres. Creo que cuando hay un número significativo de mujeres, la conversación es distinta.

* La conveción duurante la cual se hizo esta entrevista tuvo lugar en diciembre de 2016.

Donación a La Marea

Más en lamarea.com

Read More