La ética militar en el futuro de máquinas, robots e inteligencia artificial

Versión para impresiónVersión para impresión

El paso de la humanidad a una sociedad en la que el desarrollo tecnológico sea tan amplio que máquinas y robots sean capaces de razonar, tener voluntad y emociones con plena autonomía, parece posible para muchos. Sobre todo, si partimos del hecho irrefutable de que en la historia de la humanidad los cambios tecnológicos llegaron y se quedaron. Una vez instalados los denominamos 'avances tecnológicos' y rápidamente forman parte de nuestra vida individual y social.

La tecnología ha demostrado ser imparable y los avances que se han ido produciendo no se han detenido por ningún tipo de consideración, sea política, económica, cultural o ética. Con frecuencia, ha sido a posteriori cuando se ha logrado ajustar su utilización a las consideraciones éticas.

Así, cuando aparecieron las armas de fuego, algunos las tacharon de inmorales y pidieron su prohibición. Pero la utilización de estas por el ser humano, incluyendo en guerras y conflictos, siguió adelante y si algo se modificó fueron las tácticas y procedimientos para adaptarse a ellas y sacarles el mayor partido, incluyendo el cambio en los códigos morales que tuvieron que aceptar esa realidad.[1] 

Nuestra condición humana alcanza su plenitud cuando se desarrolla bajo la inspiración y cumplimiento de principios y valores éticos, cuando intenta mantenerlos y defenderlos. Por ello, a veces, sigue siendo necesario incluso el uso de la fuerza militar. Para el profesional de las armas, también ser humano, ejercer su profesión apoyado en fundamentos éticos y códigos morales es un principio esencial y por esto tiene pleno sentido hablar de una ética aplicada como es la ética militar.

La continuidad en el avance científico sigue siendo una realidad hoy en día y hay muchas máquinas que incorporan los avances científicos y tecnológicos para ser utilizados como sistemas de armas. Se utilizan a veces para asumir posiciones de poder, en ocasiones para la defensa de pueblos y sociedades, y también, a veces, con carácter de injerencia humanitaria para evitar la comisión o continuación de graves situaciones de grupos masacrados o explotados o victimas de genocidio.

Si en general la clave está en someter a las maquinas a criterios éticos, para lo cual hay que incluirlos desde la primera fase de la concepción y programación de los sistemas tecnológicos, en los sistemas de armas letales, y precisamente por esto, la responsabilidad de un ser humano en cuanto sometida a principios éticos, exige que esos sistemas estén en todo momento bajo control responsable significativo de un ser humano.

Los cambios tecnológicos en la evolución y desarrollo de todo tipo de artefactos y sistemas han permitido plantear que, a largo plazo, el ser humano podría desaparecer o integrarse con las máquinas. En ambos casos, el resultado es el cambio de la aparente eterna e inmutable naturaleza de la especie humana.

No se trata de hacer prospectiva sobre la posibilidad de una ‘singularidad’,[2] un momento en la historia de la especie en el que el ser humano y su inteligencia sean superados por máquinas equipadas con inteligencia artificial (IA) y los humanos, dejando su soporte biológico, adopten el vivir en maquinas perfectas en todo con lo que podríamos estar hablando del fin de la especie humana. Esto se puede y debe considerar, así como el caso de una supuesta IA bajo control de uno o un grupo de humanos que la tuvieren bajo su control para someter al resto de la humanidad.

Los tres componentes de la condición humana: inteligencia, voluntad y emociones, son los que consideramos que estructuran al ser humano y le han hecho desarrollarse en este planeta, de momento el único que conocemos con una especie como la nuestra.

Uno de los elementos principales que nos ha permitido evolucionar y dominar nuestro mundo ha sido la inteligencia. Pero las maquinas ya nos superan en esta área en casi todos los aspectos y pronto lo harán en este.

Un segundo elemento esencial de la condición humana es la voluntad, la capacidad de tomar decisiones, de decidir, con más o menos apoyo en la reflexión, pero con una fuerza que elimina obstáculos y supera dificultades.

Finalmente, el tercer aspecto esencial de nuestra condición humana son las emociones, que nos limitan, pero ofrecen al tiempo sentimientos tan singular y vitalmente humanos como la empatía, la piedad y el amor. También se argumenta que, en esto, las máquinas, aunque van muy retrasadas, nos acabarán por superar y ya existen robots que empiezan a relacionarse con los humanos en el ámbito emocional.

En consecuencia, asumido ese imparable desarrollo de las máquinas y que nos superarán en inteligencia, voluntad y emociones, es preciso dotarlas de las condiciones éticas que nos han permitido llegar hasta aquí y que nos deben permitir avanzar como especie social y dotada de reflexión ética y capacidad moral. ¿Será posible que los desarrollos tecnológicos con que las máquinas se programen incorporen adecuadamente los códigos y valores morales resultado de nuestra construcción ética? ¿Si el límite de los desarrollos científicos y tecnológicos es nuestra imaginación, podría ocurrir que incluso con esa programación escaparan de sus constricciones y mandatos éticos?

Pensemos en la ciberguerra, que puede abarcar desde un ataque que causa un inconveniente menor hasta el equivalente de un ataque nuclear. El ciberespacio es uno de los global commons que cuestionan la naturaleza de la guerra como hasta ahora la entendemos. En relación con ella se ha hipotetizado incluso una guerra que comience dentro del ciberespacio sin ningún control humano. ¿podemos permitírnoslo?

Si asumimos que la ética es de y para seres humanos, un claro deber de humanidad y para la humanidad es dotar a los nuevos desarrollos tecnológicos, a las maquinas y robots, a los instrumentos y artilugios del futuro con una sólida capacidad ética.

Pero la realidad de nuestra condición humana sigue fluyendo y no es perfecta. Consecuencia es que la ética se deja de lado. O se revitaliza, o incluso se niega y mientras los conflictos entre individuos y grupos siguen teniendo lugar. Lucha de intereses, de esferas de influencia, incluso confrontaciones más primarias basadas en el instinto de supervivencia siguen teniendo lugar. También el desarrollo de los avances de la inteligencia artificial, la robótica, las biotecnologías y muchas otras ciencias sigue imparable. Y con ellas sistemas de armas letales que empiezan a pensarse como autónomas, en las que la decisión de actuar o no puede escapar al control humano.

Mas que una impresión, parece confirmarse que no lo estamos haciendo bien en lo que podemos denominar primeros pasos. Los sistemas de información y comunicación que disponemos mayoritariamente en nuestros días son utilizados y nos facilitan y hacen la vida más cómoda, pero al tiempo, ajenos a restricciones éticas intencionadamente o no, están reduciendo nuestra privacidad, permiten invadir la intimidad, reducen cuando no anulan la capacidad de discernimiento ante la toma de decisiones en cualquier esfera vital, y coartan las posibilidades y comportamientos. O sea, reducen nuestra condición humana, es decir, nuestra libertad y por esa vía también refuerzan la insociabilidad humana, contribuyendo a la posibilidad de conflictos.

Un problema del futuro será la relación con maquinas y robots que sean capaces de imitar emociones humanas. Se llegue o no a este estadio, sea rápida o lenta su evolución, también presenta problemas éticos, como el priorizar la relación con el robot sobre la relación con humanos, aunque estos puedan salir perjudicados por ello.

Para evitar esta “deshumanización” de nuestra condición, la ética, incluyendo la militar, debe abordar estos problemas. Como dice José Ignacio Latorre hay que ejercer un control humano total sobre todo el proceso y sus partes desde el principio, no podemos dejar que la IA considere a los humanos como irrelevantes, “la IA deberá avanzar con cautela. No tenemos prisa por dejar de ser humanos”.[3]

En el ámbito general organizaciones (The Future of Life Institute) e instituciones (Parlamento Europeo, Grupo Europeo de la Ciencia y las Nuevas Tecnologías) ya están alertando de la necesidad de dotar de principios éticos a los programas de IA que controlan a máquinas y robots.

Respecto a los sistemas con capacidad letal es necesario implementar ciertas condiciones desde el principio de sus desarrollos: la supervisión ética de los programas que se han creado; la identificación de los responsables; y la posibilidad de trazabilidad y control total, incluyendo la supresión, por parte de instituciones supranacionales de los algoritmos bajo los cuales operan.

La seguridad y la defensa deben asumir en su propia parcela el dar respuestas al futuro que ya casi está aquí y la ética abordar los problemas que presentan maquinas y robots dirigidos por IA y utilizados como sistemas de armas. Es necesario que la ética militar amplié su campo de acción y que se den respuestas a las importantes cuestiones planteadas para que la decisión en el uso de la fuerza siga siendo humana, a través del “control humano significativo”, sobre todo sistema de armas.

Juan A. Moliner González es General de División del Ejército del Aire (Rva.) y Subdirector del Instituto Universitario “General Gutiérrez Mellado”. Es también profesor en el Máster on-line en Estudios Estratégicos y Seguridad Internacional de la Universidad de Granada.


[1] WILKES, G.R. (2017). When International Dialogue about Military Ethics confronts diverse Cultural and Political practices: ´Guilt and Confession` as a case in Point, en OLSTHOORN, P. Military Ethics and Leadership, Leiden/Boston: Brill/Nijhoff, p. 212.

[2] CORTINA, A. y SIERRA, M.A. (Coords.) (2015). ¿Humanos o posthumanos? Singularidad tecnológica y mejoramiento humano, Barcelona: Fragmenta Ed.

[3] LATORRE, J.I. (2019). Ética para máquinas, Barcelona: Ariel, p. 252.