top of page

Los científicos no quieren robots autónomos

  • Space Daily News
  • 1 feb 2016
  • 3 Min. de lectura

Científicos y expertos en armas han pedido, ante un importante número de líderes mundiales en el foro de Davos, que el mundo actúe rápidamente para evitar un futuro en el que los robots autónomos, dotados de inteligencia artificial, deambulen por los campos de batalla matando a seres humanos. Es necesario acordar reglas que prevengan el desarrollo de este tipo de armas. Angela Kane, Alto Representante de la ONU para Asuntos de Desarme de 2012-2015, dijo que el mundo había sido lento en tomar medidas preventivas para proteger a la humanidad de esta tecnología letal. "Puede que sea demasiado tarde", dijo. Continuó: "Hay muchos países y muchos representantes de la comunidad internacional, que realmente no entienden lo que esto significa, pues estos desarrollos están limitados a un cierto número de países avanzados". El despliegue de armas autónomas representaría una nueva y peligrosa era de la guerra, dijeron algunos científicos. "No estamos hablando de aviones no tripulados, en los que un piloto humano está controlando el avión", dijo en Davos Stuart Russell, profesor de ciencias informáticas en la Universidad de California, Berkeley, "estamos hablando de armas autónomas, lo que significa que no hay nadie detrás, tales como armas de inteligencia artificial". Unos 1.000 directores de ciencia y tecnología, incluyendo el físico británico Stephen Hawking, manifestaron en una carta abierta del pasado julio que el desarrollo de armas con un grado de capacidad de decisión autónoma podría ser factible dentro de años, no de décadas. Pidieron la prohibición de las armas ofensivas autónomas, que están más allá del control humano, advirtiendo que el mundo corría el riesgo de caer en una carrera armamentista de inteligencia artificial y dieron la alarma sobre los riesgos de que este tipo de armas caigan en manos de extremistas violentos. "La pregunta es si puede estas máquinas seguir las reglas de la guerra", dijo Russell. Por ejemplo, ¿podría un arma autónoma diferenciar entre civiles, soldados, combatientes de la resistencia y rebeldes? ¿Cómo podría saber que no debe matar a un piloto que ha saltado de un avión y se lanza en paracaídas a la tierra? "Estoy en contra de los robots por razones éticas, pero no creo que los argumentos ganen. Creo que los argumentos estratégicos ganarán", dijo Russell. Estados Unidos había renunciado a las armas biológicas, debido al riesgo de que algún día podrían ser desplegadas por "casi cualquiera", dijo. "Espero que esto suceda con los robots." Alan Winfield, profesor de ingeniería electrónica en la Universidad del Oeste de Inglaterra, advirtió de que la eliminación de los seres humanos del proceso de decisión en el campo de batalla tendría graves consecuencias. "Esto significa que los seres humanos se verían privados de la responsabilidad moral", dijo. Por otra parte, la reacción de los robots puede ser difícil de predecir, añadió: "Cuando pones un robot en un ambiente caótico, se comporta de forma caótica." Roger Carr, presidente del grupo industrial británico BAE, estuvo de acuerdo: "si se elimina la ética, el juicio y la moralidad del esfuerzo humano, ya sea en paz o de guerra, se llevará a la humanidad a otro nivel que está más allá de nuestra comprensión". "Igualmente no se puede poner algo en el campo que, si funciona mal, podría ser muy destructivo, al no tener ningún mecanismo de control humano. Es por esa razón, por la que el cordón umbilical hombre a máquina tiene, no sólo que decidir cuándo desplegar el arma, sino también cuándo detener el proceso. Ambos son igualmente importantes ".

Comments


bottom of page