Sin Acritud…
[FV] Diario El Peso (18/11/2013)Drones
En un futuro próximo, los aviones no tripulados tomarán sus propias decisiones. Teniendo en cuenta el actual desarrollo de la tecnología militar, se acerca el momento en el que las máquinas letales podrán decidir por sí mismas quién vive y quién muere en pleno combate.

La sigla LAR (por su significado en inglés) es la denominación de artefactos de nueva generación que los ingenieros militares están desarrollando y cuya característica principal radica en la posibilidad que tendrían de seleccionar con autonomía los objetivos de ataque. Es decir sin intervención humana.

Los Robots Letales Autónomos han motivado severas protestas de activistas que han lanzado una campaña internacional con el propósito de lograr una prohibición preventiva que impida fabricar estas máquinas inteligentes asesinas, que amenazan con convertir a la realidad en una película terrorífica de ciencia ficción.

Las protestas advierten que la leyes existentes son insuficientes para regular el uso de este tipo de armamento, que entre otras consecuencias jurídicas provoca la indeterminación de la responsabilidad por actos que se independizan de la cadena de mandos.

Según el premio Nobel, Jody Williams, estas armas, que podrían estar listas para su uso dentro de los próximos 20 años, “constituirían una violación de un límite moral y ético que nunca debe ser cruzado”, entre otras cosas porque esta tecnología está muy lejos de ser capaz de distinguir entre un soldado y un civil.

Hoy en día aviones no tripulados o drones teledirigidos, constituyen el nuevo “juguete mortal” de las fuerzas armadas de varios países y no hace falta mucho esfuerzo para imaginar que estos artefactos puedan encontrar e impactar objetivos de manera autónoma.

Noel Sharkey, profesor de inteligencia artificial y robótica en la Universidad de Sheffield en Yorkshire, Inglaterra, advierte que los robots que se están desarrollando actualmente bajo los auspicios de DARPA se utilizarán con el objetivo de matar.

“Como sabe cualquier persona con experiencia en computadoras, si dos o más máquinas con programas desconocidos se enfrentan entre sí, el resultado es impredecible.[…] Por supuesto, si esta tecnología se utiliza para el combate, matarán a civiles, ya que no serán capaces de discriminar entre civiles y soldados”, explicó el científico.

Las agencias de investigación tecnológica como la agencia del Pentágono DARPA desoyen los llamamientos de los activistas y sus proyectos se vuelven cada vez más temerarios. El Departamento de Defensa de los Estados Unidos podría estar en la última fase de creación de una nueva generación de robots que actuarían y pensarían como humanos.

A diferencia de los sistemas de inteligencia artificial tradicionales, que se basan en la programación de computadoras convencionales, este innovador sistema “permite que la máquina ‘piense’ como un verdadero cerebro humano”, sostiene James K. Gimzewski, profesor de química en la Universidad de California en Los Ángeles. Según el responsable del proyecto, esta tecnología será aplicada con fines militares en un futuro lejano. La novedad permitirá que un avión, por ejemplo, sea capaz de aprender y de explorar el terreno sin intervención humana.

El Pentágono, ante la creciente oposición de la opinión pública contra las nuevas armas, ha reescrito sus normas de uso: “Los sistemas de armas autónomos y semi-autónomos deberán estar diseñados para permitir a comandantes y operadores ejercer niveles adecuados de decisión sobre el uso de la fuerza”.barack-obama1

En cualquier caso, si bien aún no existen robots capaces de marchar con paso firme sobre los campos de batalla y con total libertad de decisión, los activistas más preocupados por el futuro de la humanidad coinciden en que este momento ya se vislumbra en el horizonte.

El periodista y ex-analista del pentágono, Joshua Foust, explica que el aspecto principal de este tipo de tecnología armamentística está relacionado con la protección “anti-hachkers”, ya que un drone autónomo funciona gracias a una inteligencia artificial avanzada que le permite tomar decisiones propias, sin comunicación directa vía satélite con el operador, lo que impide el control de los drones por parte de terroristas o de un potencial enemigo.

Samuel Liles, profesor de la Universidad Purdue indica que “Si el sistema de un avión no tripulado es lo suficientemente sofisticado, podría ser menos emocional, más selectivo y capaz de proporcionar la fuerza de una manera que logra un objetivo táctico con el menor daño”.

Heather Ruff, de la Universidad de Denver, advierte que los drones autónomos no son lo suficientemente sofisticados como para distinguir entre la población civil y terroristas, lo que entraña una amenaza para su uso en los conflictos no convencionales.

En mayo de 2013 uno de los relatores especiales de la ONU, Christof Heyns, propuso que se impida el desarrollo de robots de combate completamente autónomos por representar una amenaza vital para la paz. Asimismo una campaña contra los robots de combate es promovida por la organización privada “The Human Rights Watch” y apoyada por varios sectores de la sociedad civil.

N. de la R.
Este artículo se publica con la autorización de  Diario El Peso.