Inteligencia y Seguridad Frente Externo En Profundidad Economia y Finanzas Transparencia
  En Parrilla Medio Ambiente Sociedad High Tech Contacto
High Tech  
 
17/09/2019 | Tecnología - Una extrabajadora de Google denuncia que ¨robots asesinos¨ pueden causar atrocidades masivas

Redacción La Vanguardia (España)

Considera que se deberían prohibir por el mismo tratado internacional que veta las armas químicas. Nolan denuncia que los robots asesinos tienen el potencial de hacer calamidades por los que no fueron programados originalmente. “Podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada”.

 

Una nueva generación de armas autónomas o “robots asesinos” podría iniciar accidentalmente una guerra o causar atrocidades masivas, denuncia un ex ingeniero de software de Google. Según publica el periódico inglés The Guardian, la ingeniera Laura Nolan renunció el año pasado a su puesto en Google tras ser trasladada a un proyecto cuyo objetivo era mejorar drásticamente la tecnología de aviones militares no tripulados de EE.UU..

Nolan denuncia que este tipo de máquinas que no son guiadas por el control remoto humano deberían ser prohibidas por el mismo tipo de tratado internacional que veta las armas químicas. A diferencia de los drones –que son controlados por equipos militares a menudo a miles de kilómetros de donde se está desplegando el arma voladora– Nolan advierte que los robots asesinos tienen el potencial de hacer “calamidades para las que no fueron programados originalmente”.

Nolan, que se ha unido a una campaña para detener a los robots asesinos e informó a los diplomáticos de la ONU en Nueva York y Ginebra sobre los peligros que representan las armas autónomas. Advierte que “la probabilidad de un desastre es proporcional al número de máquinas que se encuentren a la misma área a la vez”.

Y añade: “podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada y es por esto que cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo. De lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos “.

Nolan estudiaba un graduado en ciencias de la computación del Trinity College de Dublín cuando empezó a trabajar para Google en el Proyecto Maven. Después de cuatro años implicada en el proyecto, Nolan empezó a preocuparse a nivel ético por las implicaciones que podía tener su trabajo a la hora de ayudar al Departamento de Defensa de los Estados Unidos.

El objetivo era crear sensores inteligentes que pudiesen ayudar a diferenciar a gran velocidad los objetos de las personas. Nolan explica que aunque no participó directamente en acelerar el reconocimiento de estos sensores, se dio cuenta de que el proyecto era una engranaje para mejorar el sistema militar por drones y, en última instancia, podría contribuir a que más personas fueran atacadas y asesinadas por el ejército de los EE.UU. en lugares como Afganistán. Considera que este tipo de armas son incluso más peligrosos que los drones por control remoto.

Una de las cosas más aterradoras, según señala la investigadora, es que estos sistemas autónomos solo se pueden probar si se despliegan sobre una zona de combate real. “Tal vez eso está sucediendo con los rusos actualmente en Siria, ¿quién sabe?”, se pregunta.

La Vanguardia (España)

 



Otras Notas del Autor
fecha
Título
07/03/2020|
17/02/2020|
13/11/2019|
08/11/2019|
25/10/2019|
12/10/2019|
08/10/2019|
30/08/2019|
04/08/2019|
30/06/2019|
25/06/2019|
15/10/2018|
13/10/2018|
08/09/2018|

ver + notas
 
Center for the Study of the Presidency
Freedom House