Prohibir los robots asesinos: conclusiones de la CCW
![]() |
AFP / Carl Court |
Las probabilidades de contar con robots autónomos en las
guerras, son reales. Es alarmante la posibilidad de que máquinas que no sean
controladas por humanos vayan al campo de batalla. Este es tema de preocupación
para distintas naciones y organizaciones sociales, por ello formó parte de los
debates de la Convención sobre Ciertas Armas Convencionales (CCW por sus siglas en inglés) de la ONU. En el
encuentro, realizado del 13 al 17 de abril, en Ginebra, convergieron expertos
en Sistemas
de Armas Letales Autónomos, cuyo propósito consiste en promover la creación de
estatutos que prohíban este tipo de armas. Como es ya sabido, este tema plantea
dilemas ético-morales de importante magnitud —¿quién es responsable de un
crimen cometido por una máquina autónoma?—.
En
el encuentro de la ONU, donde expertos de distintos sectores de la ciencia y
organizaciones defensoras de derechos humanos debatieron extendidamente, se
ofrecieron estudios, advirtiendo del peligro que podrían suponer estas armas al
no ser controladas por humanos. El motivo de la discusión es que «algunos países como Estados Unidos, Rusia o China ya
utilizan robots semiautónomos, donde una persona es requerida para dar la orden
final. Como denuncian desde la campaña Stop
Killers Robots, si estos países dan un paso más hasta la autonomía
completa, "otros abandonarían las políticas de moderación, iniciándose una
carrera armamentística robótica"»[1].
Aunque enviar a robots a la guerra evitaría la
participación de humanos —por ende, pérdidas humanas—, además de eliminar
actuaciones promovidas por rabia o ira que terminarían en violaciones de
derechos humanos o crímenes de guerra—, darle total responsabilidad a una
máquina sobre asuntos éticos iría en contra de todo principio ético. Las
organizaciones de derechos humanos presentes resaltaron que las acciones
autónomas de este tipo de armas podrían provocar que no hubiese responsable
alguno de tales acciones, llevando esos casos a la impunidad, al no estar clara
la autoría intelectual del hecho. «“La rendición de cuentas, el derecho
internacional, obliga a que haya responsables de las acciones y a que se
recompense a las víctimas. Con un robot se rompería, ya que una máquina no es
responsable de matar a alguien”, sostiene Miguel Ángel Calderón, de Amnistía Internacional.»[1]
Los robots no poseen la capacidad de sentir empatía y no
podrían identificar quién es realmente una amenaza y quién no lo es, y es justamente
esta una de las principales críticas a este tipo de armas, que si bien aún no
existen, se cuenta con la tecnología suficiente para que sí; no obstante, la
conciencia es algo que no se contempla con los robots. El mayor reto al que se
enfrenta la Convención sobre Ciertas Armas Convencionales es que los países y las
industrias podrían hacer caso omiso a un posible rechazo por parte de la ONU e
igualmente desarrollarlos. Además, todo sistema puede ser vulnerado y un error
de estas máquinas podría tener consecuencias muy graves; por otra parte, nada
asegura que esos robots que podrían capacitarse para atacar a un ejército
enemigo no terminen atacando al mismo ejército que están defendiendo.
Amnistía Internacional presentó un documento en la
reunión celebrada en Ginebra, pidiendo la prohibición preventiva del
desarrollo, almacenamiento, transferencia, despliegue y uso de sistemas de
armas totalmente autónomas. En el documento, la organización menciona:
«Los dilemas legales, éticos y morales del uso bélico de
estos sistemas están empezando, con razón, a recibir la atención que merecen.
Pero lo que aún se sigue pasando por alto en general es la probabilidad de que
también se usen en operaciones policiales, y es urgente que esto se aborde ya. Depender
únicamente de unas máquinas para mantener el orden público no es sólo una
situación hipotética que se ha explorado en incontables películas de ciencia
ficción: es una idea escalofriante que podría hacerse realidad si no se
controlan los avances actuales. Este es el momento de que los Estados prohíban
los robots asesinos tanto en el campo de batalla como en las funciones
policiales, antes de que lleguemos al punto de no retorno.»[2]
En el documento de Amnistía Internacional se presentan
las implicaciones del uso de robots asesinos dentro de cuerpos policiales, para
hacer cumplir la ley. Se expone que el uso por la policía de estas armas sería
incompatible con el derecho internacional de los derechos humanos, y esto
traería como consecuencias homicidios ilegítimos y lesiones causadas por el uso
excesivo de la fuerza. Los funcionarios policiales están adiestrados para hacer
cumplir la ley, mientras que los robots no podrían dispersar enfrenamientos de
la forma tradicional, o distinguir las órdenes legítimas de las ilegítimas, tomar
decisiones con el propósito de reducir los daños ni rendir cuenta por errores
de funcionamiento que causen consecuencias graves.
Recomendaciones
«Amnistía Internacional y sus socios en la campaña para
detener a los robots asesinos piden una prohibición global preventiva del
desarrollo, transferencia, despliegue y uso de sistemas de armas autónomas en
conflictos armados y en la aplicación de la ley.
Mientras no se imponga dicha prohibición, los Estados
deberán respaldar públicamente y cumplir el llamamiento del relator especial
sobre ejecuciones extrajudiciales, sumarias o arbitrarias de que se decrete una
moratoria sobre el desarrollo, transferencia, despliegue y uso de estos
sistemas.
Mientras tanto, es fundamental que se preste la debida
consideración a las implicaciones para los derechos humanos de los sistemas de
armas autónomas, que deberán abordarse de forma efectiva y activa lo antes
posible en los foros y mecanismos de la ONU y otros, incluida su consideración
permanente dentro de la Convención sobre Ciertas Armas Convencionales y el
Consejo de Derechos Humanos.»[2]
Las discusiones en torno al tema de los robots asesinos
ha despertado el interés de muchas más organizaciones. Es imprescindible que,
al menos, se determinen restricciones para el uso y funcionamiento de estas
armas, antes de que empiecen a ser desarrolladas. Para más información acerca
de cómo estos Sistemas de Armas Autónomas pueden incurrir en violaciones de
derechos humanos, revisa el documento completo de Amnistía Internacional «Autonomous Weapons Systems: Five key human
rights issues for consideration», disponible en inglés en este enlace.
Por Alexandra Perdomo (@amnistia)
[1]
Travieso, J. (17 de abril de 2015). Las consecuencias de mandar a la guerra a
'robots asesinos'. El Diario. Disponible
en: http://www.eldiario.es/sociedad/debate-torno-robots-asesinos_0_378312866.html
[2]
Amnistía Internacional. (15 de abril de 2015) ONU: Hay que prohibir los robots asesinos antes de que su uso policial
ponga vidas en peligro. Disponible en: https://www.es.amnesty.org/noticias/noticias/articulo/onu-hay-que-prohibir-los-robots-asesinos-antes-de-que-su-uso-policial-ponga-vidas-en-peligro/
No hay comentarios:
Publicar un comentario