Considera que se deberían prohibir por el mismo tratado internacional que veta las armas químicas. Nolan denuncia que los robots asesinos tienen el potencial de hacer calamidades por los que no fueron programados originalmente. “Podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada”.
Una nueva generación de armas autónomas o “robots
asesinos” podría iniciar accidentalmente una guerra o causar atrocidades
masivas, denuncia un ex ingeniero de software de Google. Según publica el
periódico inglés The Guardian, la ingeniera Laura Nolan renunció el año pasado
a su puesto en Google tras ser trasladada a un proyecto cuyo objetivo era
mejorar drásticamente la tecnología de aviones militares no tripulados de EE.UU..
Nolan denuncia que este tipo de máquinas que no son
guiadas por el control remoto humano deberían ser prohibidas por el mismo tipo
de tratado internacional que veta las armas químicas. A diferencia de los
drones –que son controlados por equipos militares a menudo a miles de
kilómetros de donde se está desplegando el arma voladora– Nolan advierte que
los robots asesinos tienen el potencial de hacer “calamidades para las que no
fueron programados originalmente”.
Nolan, que se ha unido a una campaña para detener a los
robots asesinos e informó a los diplomáticos de la ONU en Nueva York y Ginebra
sobre los peligros que representan las armas autónomas. Advierte que “la
probabilidad de un desastre es proporcional al número de máquinas que se
encuentren a la misma área a la vez”.
Y añade: “podría haber accidentes a gran escala porque
estas cosas comenzarán a comportarse de manera inesperada y es por esto que
cualquier sistema de armas avanzado debería estar sujeto a un control humano
significativo. De lo contrario, deben ser prohibidos porque son demasiado
impredecibles y peligrosos “.
Nolan estudiaba un graduado en ciencias de la computación
del Trinity College de Dublín cuando empezó a trabajar para Google en el
Proyecto Maven. Después de cuatro años implicada en el proyecto, Nolan empezó a
preocuparse a nivel ético por las implicaciones que podía tener su trabajo a la
hora de ayudar al Departamento de Defensa de los Estados Unidos.
El objetivo era crear sensores inteligentes que pudiesen
ayudar a diferenciar a gran velocidad los objetos de las personas. Nolan
explica que aunque no participó directamente en acelerar el reconocimiento de
estos sensores, se dio cuenta de que el proyecto era una engranaje para mejorar
el sistema militar por drones y, en última instancia, podría contribuir a que
más personas fueran atacadas y asesinadas por el ejército de los EE.UU. en
lugares como Afganistán. Considera que este tipo de armas son incluso más
peligrosos que los drones por control remoto.
Una de las cosas más aterradoras, según señala la
investigadora, es que estos sistemas autónomos solo se pueden probar si se
despliegan sobre una zona de combate real. “Tal vez eso está sucediendo con los
rusos actualmente en Siria, ¿quién sabe?”, se pregunta.