国产在线看片免费人成视频,国产中文三级无码,色亚洲激情蜜芽一区,欧美日韩一区二区三区自拍

Última hora:  
espa?ol>>Ciencia-Tecnología

Stephen Hawking y otros científicos piden la prohibición de los "robots asesinos"

Actualizado a las 29/07/2015 - 10:14
Palabras clave:Stephen Hawking,robots,  asesinos
Stephen Hawking y otros científicos piden la prohibición de los "robots asesinos"

Fuente:agencias

EEUU.,29/07/2015(El Pueblo en Línea)-Miles de investigadores y de personalidades del mundo científico, entre ellos el célebre astrofísico Stephen Hawking, han lanzado un llamamiento para pedir la prohibición de las armas ofensivas autónomas, los llamados "robots asesinos".

"Las armas autónomas seleccionan y atacan objetivos sin intervención humana", recuerda la carta, publicada este martes coincidiendo con la apertura de la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI, por sus siglas en inglés) en Buenos Aires (Argentina).

La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en a?os, no décadas, y hay mucho en juego", según indica un texto firmado por varios científicos del mundo.

"La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en a?os, no décadas, y hay mucho en juego", a?aden los firmantes, entre ellos investigadores y profesores de Harvard, Berkeley, Cambridge, París o Berlín. 

También figuran entre los firmantes el empresario de altas tecnologías Elon Musk, presidente de Tesla (coches eléctricos), SolarCity y SpaceX (tecnología espacial), así como el nobel de Física Frank Wilczek, el cofundador de Skype, Jaan Tallinn y el cofundador de Apple, Steve Wozniak.

Stephen Hawking y otros científicos piden la prohibición de los "robots asesinos"

A diferencia de los drones, que necesitan una intervención humana, los "robots asesinos" pueden tomar decisiones de manera autónoma y preocupan tanto a la ONU como a la comunidad científica y humanitaria, que ya han mantenido dos reuniones de expertos sobre la cuestión en Ginebra.

Los más críticos con estas armas apuntan a que no distinguen entre civiles y combatientes y podrían programar ataques con efectos desproporcionados para la población civil.

Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla pero los científicos recuerdan que eso abarataría el coste de ir a la guerra y podría provocar una nueva carrera armamentística.

"A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener (...) Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas (..) Y se?ores de la guerra que deseen perpetrar limpiezas étnica, etc." dice el texto.

La inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad" pero "el inicio de una carrera armamentista de IA militar es una mala idea".

Existe un precedente de prohibición de armas que todavía no existen, cuando en 1998 se prohibieron las armas láser cegadoras antes de que empezaran a ser producidas en masa.

PTV videoMás

Luces y sombras—Reflexiones de Alemania y Japón sobre la II Guerra Mundial

EnfoqueMás

Un matrimonio de emprendedores discapacitados logran éxito con su taller de reparación de calzado

ColumnistasMás

  1. 11