You are here

Stephen Hawking advierte sobre el uso de inteligencia artificial en armas

LISBOA // Nada más empezar su ponencia, Stephen Hawking, uno de los divulgadores científicos más aclamados a nivel internacional, lanzó una dura advertencia sobre el uso negligente de tecnología de inteligencia artificial aplicada a armas y otros ámbitos. El físico teórico y cosmólogo británico apareció este lunes en videoconferencia durante la apertura del Web Summit que se celebra en Lisboa, y la que estuvo presente el secretario general de Naciones Unidas, António Guterres, entre otros altos cargos del mundo de la política y los negocios, para lanzar un llamamiento a la responsabilidad de los gobiernos y las corporaciones en el uso y desarrollo de la inteligencia artificial, subrayando que puede ser “lo mejor o lo peor para la historia de nuestra civilización” porque “implica serios peligros, como [el desarrollo de] poderosas armas autónomas”, en referencia a los conocidos como ‘robots asesinos‘, sistemas armados capaces de seleccionar y eliminar objetivos humanos en base a un algoritmo y sin requerir autorización por parte de un ser humano. Desde hace varios años la comunidad internacional ha esquivado la implementación de una moratoria para esta tecnología bélica.

Hawkings también apuntó que “las máquinas inteligentes cada vez podrán hacer más trabajo que ahora hacen los humanos, y podrían destruir rápidamente millones de empleos; la inteligencia artificial podrá desarrollar voluntad propia que entrará en conflicto con la nuestra y que podría destruirnos”, Desde 2014, el astrofísico ha sido una de las voces más destacadas a la hora de pedir compromiso por parte de gobiernos y empresas para investigar las consecuencias inmediatas de los avances en inteligencia artificial en el campo militar, educativo, sanitario y medioambiental, entre otros.

Hawkings se mostró optimista acerca del futuro y señaló que los avances en inteligencia artificial suponen una nueva revolución tecnológica, destacando su capacidad para, por ejemplo, mermar los daños causados por el ser humano a la naturaleza o reducir la pobreza y las enfermedades. No obstante, también pidió cautela y responsabilidad a las personas del mundo de la política, la investigación y la economía porque, en su opinión, “no podremos predecir los resultados de amplificar la capacidad mental humana gracias a la inteligencia artificial”, un cambio que, en su opinión, es inminente.

“Todos los aspectos de nuestra vida cambiarán (…) deberíamos parar un momento y centrarnos no solo en hacer la inteligencia artificial más exitosa y capaz, sino en maximizar la forma en que puede beneficiar a la sociedad”, dijo Hawkings ante las 15.000 personas que asistieron a la apertura del Web Summit. En el público de este macro evento tecnológico se encontraban varias figuras relevantes de la política y los negocios, entre ellas Margrethe Vestager, comisaria europea de Competencia, así como el primer ministro de Portugal, António Costa, el expresidente francés Françoise Hollande, el director de Interpol, y numerosos directivos de Intel, Amazon, Microsoft, Google, Facebook, Uber, Tesla y otras multinacionales que actualmente invierten grandes sumas el desarrollo de inteligencia artificial y que, en algunos casos, ya se han sumado a la petición internacional por la prohibición de las armas autónomas letales.

Donación a La Marea

Más en lamarea.com

Read More

Jody Williams: la nueva batalla de una premio Nobel y activista veterana

Jody Williams en la sede de Naciones Unidas en Ginebra, Suiza. Foto: José Bautista.

Esta entrevista forma parte de #LaMarea45. Consíguela aquí.

Esta semana más de cien nombres destacados del mundo de la tecnología pidieron por carta a la ONU que prohíba las armas autónomas letales, más conocidas como robots asesinos. Recuperamos esta entrevista* con la premio Nobel de la Paz Jody Williams, una de las voces más firmes en contra de esta nueva tecnología militar, realizada durante la reunión de la ONU para revisar la Convención sobre Ciertas Armas Convencionales que tuvo lugar en diciembre de 2016 en Ginebra.

GINEBRA // Mirada penetrante, voz firme, verbo conciso y gesto enérgico. “Hacen esto en nombre de los ciudadanos, pero los ciudadanos no quieren que un robot pueda apuntarles y dispararles”. Las palabras de la profesora Jody Williams caen como agua fría sobre una audiencia repleta de diplomáticos, acostumbrados a los discursos calculados de las maratonianas reuniones de Naciones Unidas.

Williams recibió el Premio Nobel de la Paz en 1997 por su trabajo contra las minas antipersona y las bombas de racimo. Ahora, además de liderar la Iniciativa de las Mujeres Nobel, Williams es una de las coordinadoras de la Campaña contra los Robots Asesinos, que agrupa a varios colectivos contrarios a esta tecnología militar.

¿Por qué cree que deberían ser prohibidos los robots asesinos?

Porque personalmente pienso que es moral y éticamente inaceptable que los seres humanos crean que está bien crear armas que pueden seleccionar a sus objetivos y matar a seres humanos.

A pesar de las pruebas, varios países siguen negando la existencia de armas autónomas letales. ¿Por que deberían ser prohibidos ahora y no después de ser desarrollados?

Porque ahora mismo, en teoría, no hay carrera armamentística ni proliferación. Es más fácil parar algo antes de que suceda que tratar de lidiar con las consecuencias posteriores.

La ONU ya habla de guerra híbrida en sus documentos, a pesar de que muchos países niegan la existencia de los robots asesinos, entre ellos Israel, que ya ha usado este tipo de tecnología, y EEUU, que la ha empleado en Afganistan e Iraq. ¿Qué sabe al respecto?

Creo que estamos más cerca de lo que dicen. Sabemos que EEUU ha invertido mucho en el cazabombardero no tripulado X-47B, capaz de despegar y aterrizar sin intervención humana en un portaaviones, la parte más difícil del vuelo. Si mal no recuerdo, puede volar durante más de 200 horas y repostar en el aire. Sabemos que esta tecnología ya existe, y aquí [en referencia a la ONU] también habría que debatir sobre lo que ya se está haciendo con ella.

¿Por qué EEUU, China, Rusia, Reino Unido y otros países que normalmente tienen diferentes puntos de vista en el ámbito internacional, en esta ocasión coinciden en posponer una decisión?

Bueno, también están de acuerdo sobre las bombas nucleares. No quieren deshacerse de ellas a pesar de que el mundo sí quiere. Creo que en este sentido son terroristas, puesto que ponen en riesgo el futuro de la humanidad en este planeta en su afán por tener armas nucleares. Los países con capacidad tecnológica para desarrollar robots asesinos, los quieren. Los EEUU tienen superioridad tecnológica y militar desde hace décadas, por lo que simplemente no quieren que nadie les diga qué pueden o no hacer. Por eso estos países se oponen juntos: porque quieren esas armas y las quieren los primeros.

Su campaña contra las minas antipersona fue un éxito y te granjeó el Nobel de la Paz. Ahora se percibe poco interés social por los robots asesinos, ¿cómo cree que será la lucha contra su desarrollo?

Creo que la mayor parte de la sociedad todavía no conoce el tema, y eso lo complica todo. Es duro decirlo, pero creo que esta lucha es mucho más difícil.

¿Por qué?

Porque es un tema desconocido, porque los cinco o seis países que los quieren están muy avanzados respecto al resto. En el caso de mi país [Estados Unidos], al Gobierno le gusta invadir otros países, por lo que quieren equipos militares más rápidos y efectivos para invadir, matar y ahorrarse la imagen de miles de americanos volviendo a casa y denunciando a las autoridades públicas, como sucedió con la guerra de Vietnam.

¿La creación de un Grupo de Expertos Gubernamentales (GEG) podría ser un intento de ganar tiempo?

Sí, pero es una moneda con dos caras. Cuando empecé la campaña contra las minas antipersona, una de las herramientas que usamos fue trabajar en el GEG para crear el Protocolo 2 y prohibir las minas antipersona, lo que dio lugar a un tratado a mitad de los 90. Pensamos que podríamos presionar para que el Protocolo 2 estableciese una moratoria contra las minas antipersona, pero no funcionó. Sin embargo, ese proceso nos dio una plataforma para unirnos, seguir presionando a los gobiernos, continuar explicándole a la sociedad este problema. Sin esa plataforma, es mucho más difícil. Es importante, pero creo que los gobiernos jugaran en contra, por supuesto. Nunca confié en los gobiernos.

¿Qué podría haberse hecho aquí?

Si hay un GEG, en el mejor de los casos, esto daría lugar a limitaciones a los robots asesinos. En el peor escenario, se seguirán diciendo tonterías y no pasará nada. Pero esto nos da tiempo para seguir atrayendo el apoyo de gobiernos, y de momento* ya hay 19. No sabíamos que serían cinco más durante este evento, pues eran 14 cuando llegamos esta semana. Sucedió lo mismo con la campaña contra las minas antipersona.

Aquí veo que la mayor parte de representantes de organizaciones contrarias a los robots asesinos son mujeres. ¿Cómo influye eso en esta batalla?

Muchos estudios demuestran que hasta que el 30% del equipo no está formado por mujeres, raramente hablan y se dedican a apoyar lo que los hombres dicen. En las campañas a favor del desarme siempre hubo un gran número de mujeres. En esta campaña todas las coordinadoras son mujeres. Creo que cuando hay un número significativo de mujeres, la conversación es distinta.

* La conveción duurante la cual se hizo esta entrevista tuvo lugar en diciembre de 2016.

Donación a La Marea

Más en lamarea.com

Read More

La guerra del mañana: los enjambres de drones autónomos de Estados Unidos

Prototipo del dron Kratos Valkyrie XQ-222. Foto: US Airforce Research Labs.

Un piloto en un cazabombardero seguido por un escuadrón de decenas de drones autónomos (sin supervisión humana) capaces de liberar a su vez enjambres de drones más pequeños en plena batalla. La Fuerza Aérea de Estados Unidos está desarrollando batallones de aviones no tripulados capaces de entrar en combate de manera independiente, orientados por un solo ser humano a bordo de un avión de combate o de carga.

El Laboratorio de Investigación de la Fuerza Aérea estadounidense y la empresa de productos militares Kratos trabajan desde hace algún tiempo en esta combinación humano-robot para desplegar formaciones aéreas más baratas (no necesitan entrenamiento y no implican compensaciones familiares si caen en batalla), sin aversión al riesgo, capaces de decidir más rápido que el ser humano gracias a los avances informáticos y con un margen de maniobrabilidad en el aire muy superior al que tolera el cuerpo de una persona.

La compañía ha avanzado que estos nuevos drones autónomos, bautizados Valkyrie, se inspiran en un modelo que ya utiliza el Ejército de EEUU: el BQM-167, con una autonomía superior a los 5.500 kilómetros (la distancia de de Madrid a Nueva York) y capaz de alcanzar los 14.000 metros de altura a 1.110 kilómetros por hora. Los cambios realizados permitirán a este nuevo dron portar misiles aire-aire en sus alas, bombas convencionales, tanques de combustible e incluso “enjambres de pequeños drones”, según Seteve Fendley, director de la división de sistemas no tripulados de Kratos. De esta forma, los drones amplificarán el poder destructivo del “caza líder” que les sirva de guía. Debido a su pequeño tamaño —la mitad que un caza F-16— y su sistema de despegue vertical —tiene un motor similar al de un jet privado—, el BQM-167 puede ser lanzado desde plataformas de aproximadamente un metro cuadrado.

El proyecto cuenta con un presupuesto inicial de 100 millones de dólares. Fuentes del Departamento de Defensa han elogiado el programa y destacan que el riesgo financiero es bajo, según recoge la revista Popular Science, ya que Kratos es una empresa especializada en fabricar drones militares relativamente baratos y fáciles de reparar. Los Valkyrie estarán fabricados por piezas remplazables y también servirán para atraer ataques y evitar que impacten contra cazabombarderos pilotados por seres humanos, según Fendley. “Si un ataque con misiles destruye el ala, [el dron] abre un paracaídas, aterriza, y solo tenemos que cambiar ese ala”, explica Fendley en Popular Science.

La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA, por sus siglas en inglés) trabaja en el despliegue de “enjambres” de drones autónomos desde 2015, mismo año en que la Fuerza Aérea de EEUU empezó a exhibir drones de combate de bajo coste. Un año después, Kratos ganó el concurso del Departamento de Defensa para desarrollar el primer prototipo de Valkyrie, que ya ha sido probado con éxito con la guía de un cazabombardero Harrier y que tiene un precio 30 veces inferior al F-15, el caza táctico preferido del Pentágono. De momento existe poca información acerca de este plan (en este vídeo aparecen varios prototipos) y todavía no hay pruebas ni confirmación oficial sobre su puesta en marcha en escenarios bélicos reales, aunque esta semana Kratos mostró algunos prototipos en público en el Salón Internacional de la Aeronáutica de París.

Actualmente los aviones de combate estadounidenses dotados de tecnología autónoma requieren la autorización de un humano antes de abrir fuego, aunque fuentes diplomáticas de Afganistán y Pakistán aseguraron en diciembre a La Marea que Washington ya ha probado tecnología militar autónoma en su territorio. Entre los países que ya disponen de armas autónomas letales, popularmente conocidas como robots asesinos, figuran Israel, Rusia, China, Francia, Reino Unido y Corea del Sur. Por otro lado, en 2015 una filtración masiva (‘Drone Papers’) reveló que Estados Unidos emplea aviones no tripulados para eliminar objetivos en Afganistán, Yemen y Somalia, a menudo ocasionando numerosas bajas civiles que no son reportadas.

Una industria creativa

En 2013, el presidente Barack Obama congeló el mastodóntico presupuesto del Pentágono (representa el 38% del gasto militar mundial). Su decisión, sumada a los recortes en defensa de varias potencias militares europeas afectadas por la crisis, generó el primer parón del mercado global de armas desde la caída de la Unión Soviética. Entonces la industria de la guerra, acostumbrada a crecer incluso en momentos de paz, dio una nueva muestra de creatividad y decidió adaptar su tecnología mortífera al mercado civil y potenciar el negocio de la ciberseguridad, hoy en auge.

El viento sopla a favor de este negocio, que ya representa más del 2% del PIB mundial. Los conflictos en Oriente Próximo y Europa del Este, así como la llegada de Donald Trump a la Casa Blanca y el creciente temor a la amenaza yihadista, han servido para que la industria armamentística reciba un nuevo impulso por parte de los países de la OTAN (en 2017 el gasto militar de España crecerá un 30%) y de potencias militares como Rusia, China e incluso Japón, que en 2014 modificó su Constitución para poder inmiscuirse en guerras externas.

Una de las grandes esperanzas actuales de los fabricantes de armas es su apuesta por los sistemas autónomos letales o robots asesinos. En diciembre de 2016, la comunidad internacional decidió posponer la prohibición de esta tecnología, para la que aún no existe un marco regulatorio. Los detractores de los robots asesinos, entre ellos la premio Nobel de la Paz Jody Williams, aluden al principio de prevención para evitar su proliferación, esgrimen las limitaciones existentes por razones técnicas (el robot aún no puede discriminar objetivos civiles y militares), opinan que una máquina no debería tener capacidad para matar a un ser humano de manera independiente y preguntan quién será el responsable jurídico en caso de que el robot viole las leyes de la guerra.

Donación a La Marea

Más en lamarea.com

Read More