AFP / Carl Court |
Las probabilidades de contar con robots autónomos en las
guerras, son reales. Es alarmante la posibilidad de que máquinas que no sean
controladas por humanos vayan al campo de batalla. Este es tema de preocupación
para distintas naciones y organizaciones sociales, por ello formó parte de los
debates de la Convención sobre Ciertas Armas Convencionales (CCW por sus siglas en inglés) de la ONU. En el
encuentro, realizado del 13 al 17 de abril, en Ginebra, convergieron expertos
en Sistemas
de Armas Letales Autónomos, cuyo propósito consiste en promover la creación de
estatutos que prohíban este tipo de armas. Como es ya sabido, este tema plantea
dilemas ético-morales de importante magnitud —¿quién es responsable de un
crimen cometido por una máquina autónoma?—.
En
el encuentro de la ONU, donde expertos de distintos sectores de la ciencia y
organizaciones defensoras de derechos humanos debatieron extendidamente, se
ofrecieron estudios, advirtiendo del peligro que podrían suponer estas armas al
no ser controladas por humanos. El motivo de la discusión es que «algunos países como Estados Unidos, Rusia o China ya
utilizan robots semiautónomos, donde una persona es requerida para dar la orden
final. Como denuncian desde la campaña Stop
Killers Robots, si estos países dan un paso más hasta la autonomía
completa, "otros abandonarían las políticas de moderación, iniciándose una
carrera armamentística robótica"»[1].
Aunque enviar a robots a la guerra evitaría la
participación de humanos —por ende, pérdidas humanas—, además de eliminar
actuaciones promovidas por rabia o ira que terminarían en violaciones de
derechos humanos o crímenes de guerra—, darle total responsabilidad a una
máquina sobre asuntos éticos iría en contra de todo principio ético. Las
organizaciones de derechos humanos presentes resaltaron que las acciones
autónomas de este tipo de armas podrían provocar que no hubiese responsable
alguno de tales acciones, llevando esos casos a la impunidad, al no estar clara
la autoría intelectual del hecho. «“La rendición de cuentas, el derecho
internacional, obliga a que haya responsables de las acciones y a que se
recompense a las víctimas. Con un robot se rompería, ya que una máquina no es
responsable de matar a alguien”, sostiene Miguel Ángel Calderón, de Amnistía Internacional.»[1]
AFP / Carl Court Las probabilidades de contar con robots autónomos en las guerras, son reales. Es alarmante la posibilidad de que máqui...