Prohibir los robots asesinos: conclusiones de la CCW

AFP / Carl Court
Las probabilidades de contar con robots autónomos en las guerras, son reales. Es alarmante la posibilidad de que máquinas que no sean controladas por humanos vayan al campo de batalla. Este es tema de preocupación para distintas naciones y organizaciones sociales, por ello formó parte de los debates de la Convención sobre Ciertas Armas Convencionales (CCW por sus siglas en inglés) de la ONU. En el encuentro, realizado del 13 al 17 de abril, en Ginebra, convergieron expertos en Sistemas de Armas Letales Autónomos, cuyo propósito consiste en promover la creación de estatutos que prohíban este tipo de armas. Como es ya sabido, este tema plantea dilemas ético-morales de importante magnitud —¿quién es responsable de un crimen cometido por una máquina autónoma?—.

En el encuentro de la ONU, donde expertos de distintos sectores de la ciencia y organizaciones defensoras de derechos humanos debatieron extendidamente, se ofrecieron estudios, advirtiendo del peligro que podrían suponer estas armas al no ser controladas por humanos. El motivo de la discusión es que «algunos países como Estados Unidos, Rusia o China ya utilizan robots semiautónomos, donde una persona es requerida para dar la orden final. Como denuncian desde la campaña Stop Killers Robots, si estos países dan un paso más hasta la autonomía completa, "otros abandonarían las políticas de moderación, iniciándose una carrera armamentística robótica"»[1].

Aunque enviar a robots a la guerra evitaría la participación de humanos —por ende, pérdidas humanas—, además de eliminar actuaciones promovidas por rabia o ira que terminarían en violaciones de derechos humanos o crímenes de guerra—, darle total responsabilidad a una máquina sobre asuntos éticos iría en contra de todo principio ético. Las organizaciones de derechos humanos presentes resaltaron que las acciones autónomas de este tipo de armas podrían provocar que no hubiese responsable alguno de tales acciones, llevando esos casos a la impunidad, al no estar clara la autoría intelectual del hecho. «“La rendición de cuentas, el derecho internacional, obliga a que haya responsables de las acciones y a que se recompense a las víctimas. Con un robot se rompería, ya que una máquina no es responsable de matar a alguien”, sostiene Miguel Ángel Calderón, de Amnistía Internacional.»[1]


Los robots no poseen la capacidad de sentir empatía y no podrían identificar quién es realmente una amenaza y quién no lo es, y es justamente esta una de las principales críticas a este tipo de armas, que si bien aún no existen, se cuenta con la tecnología suficiente para que sí; no obstante, la conciencia es algo que no se contempla con los robots. El mayor reto al que se enfrenta la Convención sobre Ciertas Armas Convencionales es que los países y las industrias podrían hacer caso omiso a un posible rechazo por parte de la ONU e igualmente desarrollarlos. Además, todo sistema puede ser vulnerado y un error de estas máquinas podría tener consecuencias muy graves; por otra parte, nada asegura que esos robots que podrían capacitarse para atacar a un ejército enemigo no terminen atacando al mismo ejército que están defendiendo.

Amnistía Internacional presentó un documento en la reunión celebrada en Ginebra, pidiendo la prohibición preventiva del desarrollo, almacenamiento, transferencia, despliegue y uso de sistemas de armas totalmente autónomas. En el documento, la organización menciona:

«Los dilemas legales, éticos y morales del uso bélico de estos sistemas están empezando, con razón, a recibir la atención que merecen. Pero lo que aún se sigue pasando por alto en general es la probabilidad de que también se usen en operaciones policiales, y es urgente que esto se aborde ya. Depender únicamente de unas máquinas para mantener el orden público no es sólo una situación hipotética que se ha explorado en incontables películas de ciencia ficción: es una idea escalofriante que podría hacerse realidad si no se controlan los avances actuales. Este es el momento de que los Estados prohíban los robots asesinos tanto en el campo de batalla como en las funciones policiales, antes de que lleguemos al punto de no retorno.»[2]

En el documento de Amnistía Internacional se presentan las implicaciones del uso de robots asesinos dentro de cuerpos policiales, para hacer cumplir la ley. Se expone que el uso por la policía de estas armas sería incompatible con el derecho internacional de los derechos humanos, y esto traería como consecuencias homicidios ilegítimos y lesiones causadas por el uso excesivo de la fuerza. Los funcionarios policiales están adiestrados para hacer cumplir la ley, mientras que los robots no podrían dispersar enfrenamientos de la forma tradicional, o distinguir las órdenes legítimas de las ilegítimas, tomar decisiones con el propósito de reducir los daños ni rendir cuenta por errores de funcionamiento que causen consecuencias graves.

Recomendaciones
«Amnistía Internacional y sus socios en la campaña para detener a los robots asesinos piden una prohibición global preventiva del desarrollo, transferencia, despliegue y uso de sistemas de armas autónomas en conflictos armados y en la aplicación de la ley.

Mientras no se imponga dicha prohibición, los Estados deberán respaldar públicamente y cumplir el llamamiento del relator especial sobre ejecuciones extrajudiciales, sumarias o arbitrarias de que se decrete una moratoria sobre el desarrollo, transferencia, despliegue y uso de estos sistemas.

Mientras tanto, es fundamental que se preste la debida consideración a las implicaciones para los derechos humanos de los sistemas de armas autónomas, que deberán abordarse de forma efectiva y activa lo antes posible en los foros y mecanismos de la ONU y otros, incluida su consideración permanente dentro de la Convención sobre Ciertas Armas Convencionales y el Consejo de Derechos Humanos.»[2]

Las discusiones en torno al tema de los robots asesinos ha despertado el interés de muchas más organizaciones. Es imprescindible que, al menos, se determinen restricciones para el uso y funcionamiento de estas armas, antes de que empiecen a ser desarrolladas. Para más información acerca de cómo estos Sistemas de Armas Autónomas pueden incurrir en violaciones de derechos humanos, revisa el documento completo de Amnistía Internacional «Autonomous Weapons Systems: Five key human rights issues for consideration», disponible en inglés en este enlace.

Por Alexandra Perdomo (@amnistia)






[1] Travieso, J. (17 de abril de 2015). Las consecuencias de mandar a la guerra a 'robots asesinos'. El Diario. Disponible en: http://www.eldiario.es/sociedad/debate-torno-robots-asesinos_0_378312866.html

[2] Amnistía Internacional. (15 de abril de 2015) ONU: Hay que prohibir los robots asesinos antes de que su uso policial ponga vidas en peligro. Disponible en: https://www.es.amnesty.org/noticias/noticias/articulo/onu-hay-que-prohibir-los-robots-asesinos-antes-de-que-su-uso-policial-ponga-vidas-en-peligro/

No hay comentarios:

Publicar un comentario