Naturaleza de los conflictos e inteligencia artificial: ¿ruptura de una continuidad?

JULES PALAYER

King’s College London, Reino Unido

Title: Nature of Conflicts and Artificial Intelligence: A Continuity Break?

Resumen: Los ejércitos son permeables a cambios que ocurren en las sociedades en las que se insertan, de este modo, todo lo revolucionario que pueda ser la inteligencia artificial (IA) para las sociedades podrá serlo para los militares. Debido a la profundidad de los cambios en ciernes, cabe preguntarse, ¿de qué manera cambiará la naturaleza de los conflictos futuros? El objetivo del presente documento es responder a esta incógnita enmarcando los efectos de la IA en uno de sus tres posibles impactos en la naturaleza del conflicto: el impacto mínimo, el evolucionario y el revolucionario. Para determinar cuál de ellos se ajusta más a la realidad examinaremos la introducción de la IA en el mundo militar como una revolución en los asuntos militares (RMA) cuyo telón de fondo es la revolución socio militar (RSM) post-moderna. Veremos cuestiones tecnológicas, doctrinales y organizativas entorno a la IA para arrojar luz sobre su impacto en la naturaleza del conflicto futuro.

Palabras clave: Naturaleza del conflicto, Tecnología, Inteligencia Artificial, Revoluciones Militares, RMA.

Abstract: Armies are perceptible to changes that occur in societies in which they are established, hence, the revolutionary impact of AI on society may have the same groundbreaking effects on the military. How will AI change the nature of conflict in the future? The objective of this paper is to answer this question framing the effects of AI in one of the three possible impacts it may have in the nature of conflict: a minimal impact, an evolutionary impact or a revolutionary one. In order to determine which is more in line with reality, the introduction of AI into the military world will be examined as a revolution in military affairs (RMA) with the post-modern socio-military revolution (RSM) as backdrop. Technological, doctrinal, and organizational issues around AI will be examined to shed light on its impact on the nature of conflict in the future.

Keywords: Nature of Conflicts, Technology, Artificial Intelligence, Military Revolutions, RMA.

Recibido: 15 de octubre de 2020. Aceptado: 20 de octubre de 2020.

Para citar este artículo/To cite this article: Jules Palayer, «Naturaleza de los conflictos e inteligencia artificial: ¿ruptura de una continuidad?», Revista de Estudios en Seguridad Internacional, Vol. 6, No. 2, (2020), pp. 63-79. DOI: http://dx.doi.org/10.18847/1.12.4

Introducción

La inteligencia artificial (IA) ha pasado de las pantallas de cine y los libros de ciencia ficción a las revistas académicas y de investigación más importantes del mundo. Los recientes avances en materia de “big-data”, las mejoras de los algoritmos de aprendizaje autónomo y los progresos en la capacidad de computación han renovado el interés en este campo (Shkurti, 2019: 9).

Recientemente, líderes de grandes potencias como Obama, Macron, Trump, Xi o Putin han hablado de la importancia de la IA. Como botón de muestra, Putin declaró en septiembre de 2017 que quienquiera que se vuelva líder en IA dominaría el mundo (Horowitz, 2018: 38; Shkurti, 2019: 7). Lo cierto es que numerosos Estados están o han desarrollado estrategias nacionales sobre IA (Shkurti, 2019: 13). En el corazón de estos documentos aparecen varios ámbitos en los que la irrupción de la IA tendrá significativos efectos. De la sanidad a la economía pasando por la defensa no hay sector que vaya a librarse de la penetración de esta tecnología. Los desafíos son enormes, los países que se queden al margen de este desarrollo tecnológico temen perder autonomía, o incluso, algunos perder espacios de su soberanía. Tal es el caso de la UE y de sus Estados miembros que se ven cada vez más atrapados en la competencia por el liderazgo en este ámbito entre China y los EEUU.

Los ejércitos son permeables a cambios que ocurren en las sociedades en las que se insertan. De este modo, todo lo revolucionaria que pueda ser la IA para las sociedades podrá serlo para los militares. En este artículo veremos cómo afectará la IA a las fuerzas armadas (FFAA) y al conflicto futuro. Debido a la profundidad de los cambios en ciernes, algunos se han llegado a preguntar si, ahora, lo que sabemos sobre la naturaleza de los conflictos está en entredicho. Dicho de otro modo, la incógnita entorno a la cual gira este documento es: ¿de qué manera la IA cambiará la naturaleza de los conflictos futuros?

Para responder a ello, se han seleccionado una serie de artículos, declaraciones políticas e informes oficiales que permiten captar una imagen clara de la situación de la introducción de la IA en las FFAA en varios países. Se escogieron los EEUU y China por su liderazgo mundial en esta temática. También se analizaron documentos de Francia puesto que, en 2019, su Ministra de Defensa hizo público que “el desarrollo de la IA es una competición estratégica” estableciéndolo como una prioridad de la defensa nacional gala. Del mismo modo, se seleccionaron algunos textos producidos en España que versan sobre el impacto de la IA en el ámbito de la Defensa.

Las diferentes posiciones presentes en la literatura especializada sobre esta materia pueden agruparse en tres categorías (Sayler, 2020: 34-37): el impacto mínimo, el impacto evolucionario y el impacto revolucionario. Resumidamente, el primero sostiene que el efecto de la IA en el conflicto será mínimo puesto que no seremos capaces de superar los retos tecnológicos que suponen conseguir una IA segura y fiable para su aplicación en el ámbito militar. Segundo, el impacto evolucionario, considera que la IA es una tecnología potencialmente disruptiva, pero advierte que en un futuro próximo la IA no desarrollará tareas sin supervisión humana. Tercero, el enfoque revolucionario, insinúa que los efectos de la IA serán tan inmensos que supondrán un cambio de la naturaleza misma de la guerra.

Tratar de predecir el futuro es un asunto complejo e incierto. Sin embargo, la teoría y la historia contribuyen de forma significativa a una mejor comprensión de las dinámicas estratégicas futuras. Entender las lecciones de revoluciones tecnológicas previas ayudará a prepararse para las futuras (Sechser, Narang & Talmadge, 2019: 731-732). En consecuencia, examinaremos la introducción de la IA en el mundo militar como una RMA cuyo telón de fondo es la RSM post-moderna. Las lecciones de la RSM post-moderna nos ofrecen el “por qué” se ha llegado al punto en el que estamos; la RMA nos invita a mirar qué está cambiando en materia doctrinal, tecnológica y organizativa para explicar cómo serán las transformaciones que la IA introducirá en el conflicto futuro.

Dicho lo cual, se está vislumbrando una modificación de las formas de hacer la guerra, sin llegar a cambiar su naturaleza. Asistiremos a un incremento de usos de la IA en las FFAA, pero la acción bélica seguirá definiéndose como un enfrentamiento humano incierto y complejo que persigue un propósito político (Roldán, 2019: 99). Por lo tanto, veremos que en base a la trilogía de opciones desarrolladas por Sayler (2020), la introducción de la IA en el mundo militar está impactando de forma evolucionaria sobre la naturaleza de los conflictos.

En el primer apartado, dedicado a los aspectos más teóricos, veremos cómo se han explicado y enmarcado las transformaciones en las FFAA. A continuación, definiremos los conceptos IA y naturaleza de la guerra basándonos en la literatura existente sobre estos temas. De estas explicaciones se deduce que la IA debería cambiar el carácter de la guerra, pero no modificará su naturaleza como un enfrentamiento humano incierto cuyo objetivo es político. En el segundo bloque del artículo, analizaremos la tecnología disponible, las doctrinas en uso y los cambios en la organización militar con el objetivo de determinar de forma razonada cómo serán los cambios que provocará la IA en los conflictos futuros. Y, finalmente, terminaremos con un breve apartado de conclusiones.

Precisiones teóricas

Sobre Revolución Socio-Militar y Revolución en los Asuntos Militares

Murray (1997: 70) explicó que había dos fenómenos históricos diferentes para entender los cambios e innovaciones en el ámbito militar y, en definitiva, en la forma de llevar a cabo el conflicto. Por un lado, las revoluciones militares, y por otro las revoluciones en los asuntos militares (RMA). A continuación, nos detendremos en ambos conceptos con el objetivo de enfocar la problemática que nos ocupa – la introducción de la IA y su efecto en la naturaleza del conflicto – a la luz de las precisiones teóricas que aportan estos enfoques.

Las revoluciones militares, fueron definidas por Rogers (2000: 32) como “un cambio en la naturaleza de la guerra, con consecuencias que se extienden a las estructuras sociales y al modo en que los Estados ponderan, adquieren y emplean el poder”. Existen varias teorías que desarrollaron esta idea, sin embargo, para este trabajo nos centraremos en la propuesta de Jordán y Baqués (2014) de Revolución Socio-Militar (RSM). Porque añade el componente “social” a la teoría existente sobre Revoluciones Militares, lo que permite una comprensión más profunda de las implicaciones de lo social sobre el cambio en las FFAA. La idea subyacente a la noción de la RSM es que hubo dos grandes revoluciones que cambiaron completamente la forma de entender el conflicto: la RSM moderna y la RSM post-moderna.

La RSM moderna abarca desde las guerras napoleónicas hasta la IIGM y tiene cuatro características clave: la consolidación del Estado moderno, la aparición del nacionalismo, la revolución industrial y la revolución demográfica (Baqués, 2013: 129-130). Todos esos ingredientes combinados dieron lugar al servicio militar universal masculino, a dos guerras mundiales y al uso de armas nucleares. En definitiva, el abono perfecto para la Guerra Total, un tipo de conflicto en el que se involucran en el esfuerzo bélico todos los medios económicos, políticos y humanos de un Estado (Colom, 2008: 90).

La RSM post-moderna arrancó con el final de la IIGM y se prolonga hasta la actualidad. La forma más sencilla de concebirla es viéndola como una contra-revolución de la RSM moderna (Baqués, 2013: 137). Así las cosas, Jordán y Baqués (2014: 66-69) establecen las siguientes características: erosión del Estado, cotización a la baja del nacionalismo (de Estado), consolidación de los valores post-materialistas y crisis demográfica en occidente.

Respecto a las RMA, también existen numerosas definiciones. Es un concepto que vio la luz en los noventa en los EEUU de la mano de Andrew Marshall (1993) y sus acólitos de la Office of Net Assessment. Ellos fueron los primeros en “reflexionar sobre el impacto que podrían tener las tecnologías de la información y las comunicaciones en las FFAA” (Colom, 2008: 41). De estos estudios iniciales y de las diversas aportaciones posteriores como la de Cohen (2005) o incluso Colom (2008), cabe destacar que la tecnología en sí importa poco si no viene acompañada de innovaciones paralelas en el campo de la doctrina y la organización militar.

Colom (2008: 47) explica que “las RMA resultan de transformaciones militares que emprende un actor para hacer frente a un problema estratégico”. Siguiendo esta lógica y basándose en la propuesta de Cohen (2005: 236) sobre cómo se producen cambios en materia de tecnología militar, Jordán y Baqués (2014: 58-59) proponen una clasificación de las diversas posibilidades que pueden conducir a una RMA.

Primero, las RMA reactivas, consistentes en una respuesta a una nueva amenaza. Segundo, las RMA proactivas, que consisten en reajustes que el Estado debe llevar a cabo en su estructura defensiva para mantener su credibilidad internacional. Y, tercero, las RMA ofensivas pensadas para cambiar el statu quo del orden mundial. Estas categorías se pueden aplicar à la lettre a las posturas de las grandes potencias hoy en día. Los EEUU adoptando una actitud proactiva para mantener su liderazgo en el campo de la IA frente a China con una filosofía claramente ofensiva cuyo objetivo es volverse líder mundial de la IA de aquí a 2030 (Shkurti, 2019: 8). Y entre estas dos potencias, podemos ubicar los reactivos intentos de países europeos como Francia para no quedarse completamente atrás en este campo.

En última instancia, lo más relevante para este documento es lo que Baqués (2013: 125) expresa acerca de la interacción entre RSM y RMA:

Lo importante es constatar la coherencia última entre la RSM y sus RMA. Las conexiones no son casuales, sino causales. Cada RSM sería la impulsora de ciertas novedades, pero del mismo modo también podría inhabilitar otras opciones. Todo ello en función de circunstancias éticas, sociológicas o ideológicas propias de cada etapa histórica que, en principio, poco o nada tiene que ver con la tecnología real o potencialmente disponible en esos momentos. Cada RSM ofrece un abanico o una horquilla de posibilidades, dentro de las cuales se van a dar sucesivas RMA. O, dicho al revés, este esquema de trabajo sugiere que las RMA adquieren sentido como derivaciones de esas RSM, que en última instancia serían sus matrices.

Para ilustrar aún mejor esto último, varios autores se refieren a la interacción entre RSM y RMA con una metáfora geológica. En base a ese símil, las RMAs serían los avisos y las réplicas de las RSM que serían los terremotos (Colom, 2008: 48; Jordán y Baqués, 2014: 60; Murray, 1997: 70).

Estamos inmersos en la RSM post-moderna, caracterizada por la erosión del Estado, la cotización a la baja del nacionalismo (de Estado), la consolidación de los valores post-materialistas y crisis demográfica en occidente (Jordán y Baqués, 2014: 66-69). Un caldo de cultivo idóneo para la introducción de tecnologías que alejan los combatientes del campo de batalla. Así las cosas, la denominada RMA de la información (un producto de la RSM post-moderna) contribuyó a la proliferación de los sistemas de mando, control, comunicaciones, ordenadores, inteligencia, vigilancia, adquisición de objetivo y reconocimiento (C4ISTAR). De este modo se eliminan dos problemas estratégicos clásicos, por una parte, conocer en tiempo real lo que está ocurriendo en el campo de batalla, y por otra, ser capaz de actuar con velocidad y precisión sobre los puntos vitales del enemigo, anticipándose a sus acciones (Calvo, 2001: 102).

La IA sigue en una lógica similar, en el sentido que aleja los humanos cada vez más del peligro y permite que un mayor abanico de tareas puedan ser ejecutadas por robots de forma más eficaz y eficiente que los humanos. De hecho, la doctrina estadounidense de uso de robots en el ámbito militar suele hacer referencia a los espacios en los que su usan como 3D (Dirty, Dull, Dangerous).

En este sentido, la introducción de la IA se puede considerar una evolución lógica de la RMA de la información (Noël, 2018: 32) o una nueva RMA aparte. Incluso, pueden verse varias RMA de la IA según estemos hablando de sistemas terrestres, aéreos, navales de superficie o submarinos, cibernéticos o espaciales. Pero quizás ese debate no sea el más relevante. Lo clave es ver la IA como una RMA y analizarla en sus tres pilares tecnológico, doctrinal y organizacional para poder comprender en profundidad cómo afectará al conflicto futuro.

Sobre la naturaleza del conflicto

La piedra angular entorno a la cual analizamos el impacto de la IA en la guerra es la famosa trinidad de Clausewitz. Es decir, entendemos el conflicto como el resultado de la imbricación entre la sociedad, los gobernantes y las fuerzas armadas. De forma muy esquemática: la sociedad designa los gobernantes y se establece como recurso humano para nutrir y/o apoyar las FFAA; los gobernantes fijan los objetivos estratégicos de las FFAA y rinden cuentas a la sociedad; y, las FFAA siguiendo las directrices estratégicas de los gobernantes defienden a la sociedad y al Estado (Erbland, 2018: 36).

La guerra siempre incluye, de alguna forma, violencia motivada por objetivos políticos (Gray, 2010: 6). Asimismo, por mucha tecnología que se haya introducido en las FFAA no se ha podido eliminar la fricción en la guerra y niebla del conflicto. Ideas que apelan a la imprevisibilidad de la acción militar, la imposibilidad de planificar con todo detalle una operación y la dificultad de saber qué puede hacer el otro o cómo este reaccionará a las acciones que uno emprenda.

Se pueden añadir elementos a la definición de la naturaleza del conflicto señalando tres ideas que mantienen su validez con el paso de los años. En primer lugar, la guerra tiene una naturaleza inmutable y un carácter en constante cambio (Gray, 2010: 6). De acuerdo con ello, Roldán (2017: 122) añade:

La naturaleza de la guerra contiene su esencia como fenómeno humano y social y es lo que la diferencia de otro tipo de fenómenos. El carácter de la guerra define cómo se dirige y evoluciona en el tiempo, de acuerdo con factores externos: tecnología, leyes, fuerzas morales y cultura. Por tanto, cada época y cada pueblo tienen su propio tipo de guerra.

En segundo lugar, las guerras deben entenderse en sus contextos. Gray (2010: 7-8) establece que son siete los contextos en los que se puede enmarcar los conflictos. Estos son: el político, socio-cultural, económico, tecnológico, militar-estratégico, geopolítico e histórico. En tercer lugar, la guerra guarda una estrecha relación con la estrategia (Gray, 2010: 9). La clave de una estrategia bien planteada es transformar el esfuerzo militar en beneficio político. He aquí una razón por la que, al fin y al cabo, sigue vigente el famoso aforismo de Clausewitz, la guerra es la continuación de la política por otros medios. Uno de los nexos entre ambas es la estrategia.

En definitiva, la naturaleza de la guerra sigue y seguirá siendo un enfrentamiento humano incierto y complejo que busca un fin político (Roldán, 2017: 99). Resulta de la interacción de la sociedad, sus gobernantes y las fuerzas armadas (Erbland, 2018: 36). A pesar de ello, la naturaleza de la guerra tiene un carácter en constante cambio (Gray, 2010: 6) y la IA podría modificará dicho carácter. Investigar de qué manera será el objeto de los siguientes apartados.

Sobre la inteligencia artificial

Suele haber consenso respecto a la definición de este concepto. Cummings (2017: 2) lo define como “la capacidad de algunos sistemas informáticos de llevar a cabo tareas que normalmente requieren inteligencia humana”. Si bien es una descripción sencilla, es muy útil y muchos ingenieros y expertos en IA la siguen usando hoy en día. Además, gracias a su simplicidad consigue captar el amplio campo que supone la IA (JAIC, 2020: 5). Más que profundizar en su definición, en este apartado centraremos la mirada en una característica fundamental de la IA y veremos las principales controversias en torno a este concepto.

A diferencia de otros grandes avances tecnológicos – como internet – que vieron la luz en las entrañas de agencias de investigación gubernamentales, la IA se desarrolla mayoritariamente en el sector privado (Shkurti, 2019: 14). Empresas como Google, Tencent, Baidu, Amazon o Facebook son pioneras en investigación y desarrollo, llegando a superar el presupuesto de algunos Estados en esta materia. A este respecto, Jeff Bezos declaró en una entrevista para el medio digital Wired en noviembre 2018: “si las grandes compañías tecnológicas le van a dar la espalda al Departamento de Defensa, este país va a tener problemas”. Paralelamente, Horowitz (2018: 40) señala que la fuerte presencia del sector privado tiene efectos en la proliferación de los avances tecnológicos dificultando o impidiendo la exclusividad de una determinada tecnología por parte de un Estado. Por ello, la cooperación publico privada en el ámbito de la IA tiene una particular importancia. Más adelante veremos las implicaciones de esta particularidad de la IA.

Las controversias en torno al concepto de IA vienen dadas por descuidos analíticos que restan racionalidad al estudio del impacto de la IA en la política internacional y en los estudios estratégicos (Nocetti, 2019: 9-11). Primero, se suele aludir a la IA como un todo, mientras que la IA consiste en aplicaciones muy concretas. Desde el reconocimiento facial a las traducciones instantáneas pasando por los coches autónomos, la IA no supone la alternativa al ser humano de forma genérica en todos los ámbitos, sino que se trata de tecnologías para usos muy concretos y definidos.

Segundo, se tiende a caricaturar el debate de forma angustiosa entre los defensores de la tecnología y aquellos que ven en su introducción peligros dignos de películas de ciencia ficción. Dos cuestiones suelen dividir mucho: por un lado, el riesgo de pérdida de empleo derivado de la introducción de la IA en la realización de tareas antaño ejecutadas por humanos; y, por otro lado, la proliferación de “robots asesinos” en los campos de batalla del futuro. Dicho esto, polarizar estos debates sobre IA deforma la realidad tecnológica y aleja los análisis del estado actual de la cuestión (Nocetti, 2019: 10). En palabras de Jordán y Baqués (2014: 171):

No es conveniente afrontar el debate que llega ni mediante una apología tecnocéntrica que eclipse la reflexión de fondo acerca de las consecuencias de este proceso en marcha, ni tampoco a través de la demagogia fácil de quien no asume el peso de los factores estructurales que impulsan estos cambios.

Tercero, no se suele ver la IA en toda su complejidad tecnológica (Nocetti, 2019: 10). Muchos análisis explican la IA como un producto final, obviando el conjunto de tecnologías o requisitos para hacerla viable. Entre otras cosas cabe citar la centralidad de los datos para el desarrollo de sistemas de aprendizaje autónomo, la dependencia de los desarrollos algorítmicos y la capacidad de computación o incluso, el enlace con la tecnología 5G que permitirá más conexiones entre los datos y los sistemas inteligentes. Centrar la mirada en la IA sin tener en cuenta los avances en los campos mencionados es padecer de miopía.

Con el propósito de evitar los errores señalados por Nocetti (2019), se debe analizar la introducción de la IA de forma sistematizada. He aquí la idoneidad de la estructura teórica ofrecida por la RSM y RMA. Permiten analizar los pormenores del fenómeno señalando sus orígenes y los pilares de su introducción – la tecnología, la doctrina y la organización. Tres pilares sin los cuales, en última instancia, no podríamos entender el fenómeno de la introducción de la IA en la FFAA ni seríamos capaces de ver su alcance en los conflictos futuros.

Sobre inteligencia artificial y naturaleza del conflicto

Sayler (2020) agrupa en tres categorías los potenciales efectos de la IA en el conflicto futuro: el impacto mínimo, el impacto evolucionario y el impacto revolucionario. Primero, el impacto mínimo supondría que la IA no cambiará nada significativo en el combate. Básicamente, por dificultades técnicas insuperables a corto y medio plazo y por reticencias de militares opuestos a su utilización (Sayler, 2020: 34).

Segundo, el impacto evolucionario se caracteriza por la consideración de la IA como una tecnología potencialmente disruptiva, a pesar de ello, en el corto y medio plazo no iría más allá de una aplicación en tareas concretas y bajo supervisión humana (Sayler, 2020: 35). Lo cual implica una evolución de los dispositivos existentes y un incremento del uso de la IA en el ámbito militar, pero, en ningún caso una mutación de la naturaleza del conflicto.

Tercero y último, el impacto revolucionario define la introducción de la IA como un seísmo en la forma de llevar a cabo los conflictos (Sayler, 2020: 36). La metáfora sísmica no es en vano. Tal y como vimos unas líneas más arriba, los teóricos de las revoluciones militares suelen referirse a la relación entre RMA y RSM con un símil geológico. Asumir que la introducción de la IA supone un terremoto, significa calificarla como RSM. Pero, dada la profundidad de este concepto, quizá sea una aspiración exagerada y, en todo caso, se trata de un debate que extrapola los objetivos del análisis en curso.

Tecnología e inteligencia artificial

La tecnología no lo es todo, ya lo vimos en el apartado dedicado a las RSM y RMA. Sin embargo, al interesarnos el papel de la IA en los conflictos conviene ver dónde estamos a nivel tecnológico. Además, en este apartado repasaremos los retos a la implantación de los sistemas inteligentes en las FFAA. Unos constreñimientos que demasiadas veces se olvidan y a los que no se les atribuye un peso adecuado.

Antes vimos la definición que ofrece Cummings (2017: 2) de IA como “la capacidad de algunos sistemas informáticos de llevar a cabo tareas que normalmente requieren inteligencia humana”. Muchos sistemas incluyen algoritmos que les permiten llevar a cabo tareas que solían requerir inteligencia humana. Sin embargo, el concepto de autonomía no depende tanto de la “inteligencia” de la máquina sino de su relación con el ser humano (Scharre & Horowitz, 2015: 8). En este sentido, podemos encontrar en la literatura muchas formas de clasificar los sistemas en base a su relación con el ser humano. La más famosa de ellas, es la clasificación que realizó Human Rights Watch (2012: 2) en un informe sobre armas autónomas. No es una clasificación perfecta, pero es didáctica y sirve para ubicar el ser humano en su relación con las máquinas.

El primer grupo lo forman los sistemas in the loop. El ser humano está en el corazón de la elección del objetivo, activa el sistema y este puede usar su autonomía para alcanzar su objetivo con precisión. La autonomía de esos sistemas radica en elecciones de navegación o en la detección de señales determinadas para dirigirse a ellas para su neutralización. Existen dos tipos de sistemas en esta categoría los go onto location in space y los go onto target (Scharre & Horowitz, 2015: 9). Las municiones guiadas son el ejemplo paradigmático de esta categoría. Pero esta categoría no genera cuestiones nuevas puesto que es una continuación de las formas en las que la autonomía se ha ido usando desde hace setenta años, desde que los alemanes empezaron a usar el torpedo Wren (Scharre & Horowitz, 2015: 12).

La segunda categoría está formada por los sistemas on the loop. Es característico de sistemas defensivos que necesitan una velocidad de reacción y una precisión que supera las capacidades humanas. Los sistemas son programados para responder a estímulos concretos, por ejemplo, neutralizar un misil, en este proceso los seres humanos supervisan y pueden intervenir, pero la decisión de disparo no depende de su visto bueno. Según Scharre & Horowitz (2015: 12), hoy en día unas 30 naciones usan estos sistemas, de forma muy específica para tareas de defensa.

El tercer y último grupo es el de los sistemas out of the loop. Es una categoría difícil de definir puesto que hay pocos ejemplos obvios de esta categoría (Scharre & Horowitz, 2015: 4). En este caso, el objetivo es seleccionado por el sistema y el ser humano no media en ningún momento de la selección ni de la decisión de neutralizar dicho objetivo. A diferencia de los sistemas in the loop (go-onto-target), estos sistemas se activan sin objetivos determinados. Sus acciones se circunscriben a un área determinada (que puede ser muy extensa) y con unos parámetros definidos para la selección de objetivos. A día de hoy, el sistema que más se acerca a la definición es el Harpy israelí, un dron que busca señales radar que coincida con sus parámetros de engagement, y una vez detectados, neutraliza la fuente de esas señales (Scharre & Horowitz, 2015: 14).

La clasificación en sistemas in/on/out of the loop es inteligible y permite discriminar entre varios tipos de sistemas autónomos. Aun así, cabe remarcar que, las categorías expuestas no suponen compartimentos estancos, la práctica es más compleja. En realidad, los sistemas existentes se encuentran en algún punto del amplio espectro de posibilidades que dibuja esta categorización (Jeangène, 2014: 154; Cummings, 2017: 2). También vale decir que es una clasificación útil para sistemas de armados, pero tal y como veremos en el próximo apartado dedicado a la doctrina: la IA implica mucho más que cambios en los sistemas de armas. Y, finalmente, debemos ser lúcidos en cuanto a esta tecnología. Incluso para sistemas out of the loop las tareas que los sistemas realizan nos permiten comprobar que hoy en día, la IA sigue siendo más artificial que inteligente (DSI, 2019: 12). A continuación, veremos, desde una perspectiva tecnológica los retos a los que enfrenta la introducción de la IA.

Retos a la introducción de la IA en las FFAA

Más arriba vimos los errores que Nocetti (2019) identifica en los textos que versan sobre IA en estudios estratégicos. Dos de ellos tienen directamente que ver con interpretaciones erróneas de la IA como innovación. Hemos seleccionado tres retos que frenan la integración de la IA en las FFAA y departamentos de defensa en la actualidad. Esta selección no es exhaustiva, pero tiene en común que se repiten en RAND (2020), Roldán (2019), JAIC (2020) y Noël (2018).

En primer lugar, la calidad de los datos con los que se entrena y programa la IA es fundamental, puesto que unos “sesgos cognitivos en la selección de los datos puede alterar la pertinencia de las respuestas ofrecidas por la IA” (Noël, 2018: 48). Hay que recordar que la IA y particularmente el aprendizaje autónomo se hacen en base a datos con los que el sistema practica antes de ser implementado en la realidad (JAIC, 2020: 7). Por otro lado, en esta fase, “una incorrecta especificación de su objetivo puede conducir a un resultado negativo” (Roldán, 2019: 104). En algunos casos, una mala base de datos inicial ha dado lugar a algoritmos que nada tenían que ver con aquello que se pretendía en un principio (Scharre & Horowitz, 2018).

En segundo lugar, el inconveniente de la confianza y fiabilidad de los sistemas que implica una falta de confianza en los sistemas o un exceso de ella (RAND, 2020: 36). Por un lado, la IA puede fallar de forma incomprensible, dando lugar al fenómeno que algunos llaman el problema de la caja negra (Noël, 2018: 48). Es decir, procesos completamente ajenos a la manera de la que los humanos razonan o identifican las cosas (Roldán, 2019: 106). Este fenómeno mengua la fiabilidad de los sistemas e implica que parte de los expertos en IA se dediquen específicamente a crear IA explicable, dicho de otro modo, una IA que como seres humanos podamos comprender (RAND, 2020: 25). Por otro lado, el exceso de confianza en los sistemas también es negativo para su introducción. El hecho de que algunos operadores califiquen de correcta una determinada solución simplemente por el hecho de que venga de la máquina puede llevar a muchos errores.

En tercer lugar, las innovaciones que incorporan IA son vulnerables a ciber ataques de varios tipos (Noël, 2018: 46). Ya sea “envenenando” los datos con los que la IA se entrena, alterando sus comunicaciones o incluso los datos que analiza (RAND, 2020: 37), las formas de alterar el buen funcionamiento de los sistemas inteligentes son variadas. Asegurar la integridad de estos sistemas será clave para la implementación en los escenarios bélicos futuros. Las capacidades de acción en el campo cibernético están proliferando y posibilidades antaño reservadas a Estados únicamente están traspasando a actores no estatales. Frente a ese incremento de capacidades, la integridad de los sistemas en uso se antoja más necesaria que nunca.

En definitiva, los avances que se están dando en IA en sí mismo considerados no siempre tienen repercusión en el campo de batalla. En el próximo apartado nos centraremos en las doctrinas de uso de estos nuevos artilugios, algo que, sin duda arrojará más luz sobre los cambios que están por venir. Por el momento, cabe tener presente que la tecnología potencialmente disponible siempre se enfrenta a tres imponentes retos: la calidad de los datos, la confianza y fiabilidad de los sistemas y, la integridad de los algoritmos. Estos tres desafíos constriñen la penetración de la IA en los ejércitos y deben tenerse en cuenta a la hora de pensar el futuro de los enfrentamientos. Son retos superables, pero establecer una agenda exacta para la superación de estos es una tarea compleja e imprecisa. En este sentido, Noël (2018: 67) nos recuerda que la ley de Moore parece estar frenando su ritmo y señala que la IA ya ha pasado por dos “inviernos” (períodos de evoluciones muy lentas después de expectativas elevadas) a principios de los años 1970 y a finales de los 1980.

Doctrina e inteligencia artificial

Murray (1997: 76) afirmó que “a pesar de que la tecnología es importante, no deja de ser sólo una herramienta”. Cualquier avance tecnológico implica un cambio en los procedimientos y técnicas (Roldán, 2019: 115). Además, lo revolucionario de una tecnología no se debe tanto a la velocidad a la que es introducida sino a la profundidad del cambio que implica (Colom, 2008: 46; Jordán y Baqués, 2014: 52). Por ejemplo, “desde que aparecieron los tanques hasta que se generalizaron las tácticas de empleo de unidades acorazadas pasaron más de treinta años” (Roldán, 2019: 115). En este sentido, veremos de qué forma los avances en IA se están integrando en las FFAA analizando los usos de estos y aquello que se espera que aporten en el combate futuro.

Hoy en día sólo hay unos pocos sistemas, si los hay, que puedan ser considerados sistemas de armas autónomos (Scharre & Horowitz, 2015: 4). Aún menos sistemas pueden ser calificados de “letales” puesto que aquellos más autónomos en uso están principalmente diseñados para detectar y destruir objetos tales como misiles, minas o aeronaves (Scharre & Horowitz, 2015: 12). El hecho de que esos sistemas no estén diseñados para apuntar y disparar directamente a individuos es relevante: por un lado, muestra las reticencias morales y los límites jurídicos que ello conlleva; y, por otro lado, recuerda que neutralizar un aparato detectado por radar es un objetivo militar más relevante que un soldado o pequeño grupo de soldados.

Sin embargo, debido a la ciencia ficción y una falta de conocimiento general sobre IA, en los últimos años ha proliferado la idea del “robot asesino” o SALA. Para conseguir una imagen realista del estado de la cuestión de la IA en las FFAA, se debe actuar con cautela y no pensar que todo lo que tenga que ver con IA en lo militar contribuirá forzosamente a la creación de robots armados. La IA implica una infinidad más de aplicaciones que poco o nada tienen que ver con SALA, en el presente apartado veremos algunas de ellas.  Es importante que el árbol (los sistemas autónomos armados), no nos impida ver el bosque (la multitud de aplicaciones de la IA).

Uno de los temores clásicos relacionados con la IA en el mundo militar es el escenario de la pérdida de control del sistema. Supondría que los seres humanos se vean superados por las máquinas y no puedan controlar las acciones y decisiones que estas tomen, o incluso, que los sistemas se rebelen contra sus creadores humanos. Este tipo de discurso suele obviar que la autonomía de los sistemas no es un objetivo en sí, sino que es una característica de unos sistemas en desarrollo para un fin determinado. Además, etimológicamente, autonomía significa algo así como: “propias normas”, lo que implicaría que un sistema completamente autónomo podría llegar a desobedecer una orden directa, un escenario que no desean los militares que tendrán que trabajar junto a esos sistemas (DSI, 2019: 13).

En este contexto, aparece la idea de mantener el control humano significativo en los sistemas en desarrollo y en aquellos que se despliegan en el campo de batalla. Hoy en día, la mayoría de sistemas en desarrollo son on the loop, puesto que es la categoría que permite mantener un control humano significativo sacando un máximo provecho de la autonomía de los sistemas. De este modo, la autonomía completa de los sistemas no es un objetivo per se, sino que es una herramienta para mejorar el rendimiento de los sistemas.

Así es como el Department of Defense (DoD, en adelante) de los EEUU establece en su Directiva 3000.09 que “los sistemas autónomos y semi-autónomos deben estar diseñados para permitir a sus operadores tener un control humano suficiente sobre el uso de la fuerza”. De la misma manera, Florence Parly, Ministra de las Fuerzas Armadas galas, declaró en un discurso en Saclay en 2019 que el segundo principio rector de la estrategia sobre IA de Francia es “mantener un control humano suficiente”. Y añadió: “Francia se opone a confiar la decisión de vida o muerte a una máquina que actuaría de forma autónoma, escapándose a todo control humano”. Por su parte China, hizo pocas declaraciones al respecto. Ha pedido la prohibición de SALA pero ha dado una definición tan estricta que muy pocos sistemas, si es que algunos, se verían afectados (RAND, 2020: 74). Dicho de otro modo, al igual que el resto de potencias, China no busca la autonomía completa de los sistemas que integran IA.

Una de las características de la RSM post-moderna es la recesión demográfica en occidente, algo que se ha traducido, en la RMA de la información, en la doctrina de las cero bajas (Baqués, 2013: 137). Una noción que responde a la repugnancia cada vez mayor que los individuos sienten a las bajas – tanto propias como ajenas – en la guerra (Jordán y Baqués, 2014: 68-69). La IA se establece como la herramienta perfecta para seguir en esta dirección. Permite el desarrollo de sistemas que alejen a los soldados de tareas 3D (Dirty, Dull and Dangerous). La IA ofrece soluciones para la sustitución del ser humano en intervenciones en espacios contaminados NBQR, el análisis y la vigilancia de imágenes durante largos períodos de tiempo o la desactivación de artefactos explosivos improvisados.

Otra doctrina de uso de la IA que poco tiene que ver con SALA, es la optimización de recursos y el mantenimiento preventivo de sistemas. Gracias a sus capacidades de análisis y simulación, los algoritmos son capaces de prever con antelación las averías de cualquier equipamiento militar (DSI, 2019: 20). En esta óptica, actualmente, la U.S. Air Force usa para el mantenimiento de sus F-35 el Autonomic Logistics Information System que extrae datos sobre el motor y guía la inspección de los técnicos indicando cuando cambiar piezas desgastadas (Sayler, 2020: 10). Por su lado, según lo declarado por la Ministra Parly en Saclay en 2019, Francia también trabaja en un sistema similar para el mantenimiento de sus Rafale.  

Además de los campos mencionados más arriba, la IA contribuirá a la aceleración de la toma de decisiones. Tanto en el ámbito táctico con la aceleración del bucle OODA (observación, orientación, decisión y acción) como en los enfrentamientos en el ciberespacio. Se espera que los sistemas inteligentes permitan mejorar la toma de decisiones aportando más velocidad y más acierto en este proceso.  A este respecto, la naturaleza de las misiones y los objetivos no cambian, pero, la forma de llevarlos a cabo es diferente debido a la introducción de nuevos medios y de una nueva organización para el combate (Roldán, 2019: 115).

La estrategia francesa para la IA en defensa ubica como prioridad la inversión en IA para las operaciones en el ciberespacio. Del mismo modo, DARPA está organizando concursos en los que los competidores deben “desarrollar algoritmos que detecten, evalúen y creen parches para las vulnerabilidades que encuentren antes que otros competidores las exploten” (RAND, 2020: 19; Sayler, 2020: 11). Además, la ciberdefensa requiere una gran cantidad de recursos humanos muy especializados, el uso de la IA aumentará la productividad del personal dedicado a tareas en el ciberespacio (Roldán, 2019: 120).

La ventaja para las FFAA más citada por expertos en materia de IA es el incremento de velocidad en la toma de decisiones (RAND, 2020: 16). Los sistemas inteligentes permiten cumplir con el bucle OODA de forma más rápida, sobre todo en las dos primeras fases (Noël, 2018: 36). Al respecto, Roldán (2019: 117) establece que “el proceso es, en esencia, el mismo, pero la IA proporciona un análisis más profundo y exhaustivo y una rapidez que añade una ventaja estratégica en la resolución de la crisis.

El breve repaso de algunos de los usos de sistemas inteligentes nos permite ver que los SALA ocupan, en realidad, una parte pequeña de las investigaciones en materia de IA. Los avances más importantes se aplican al campo ISR y a la aceleración de la toma de decisiones. También, en el ámbito de la logística los sistemas inteligentes aportarán más eficiencia y eficacia. Del mismo modo que en el sector de la ciberdefensa en el que permitirán una mayor productividad de los operadores humanos involucrados en estas tareas. Todo ello con una doctrina clara y transversal, mantener un control humano significativo. En definitiva, tratando la IA como es: una herramienta más. A continuación veremos cómo se reorganizan las instituciones para acoger estas innovaciones y aplicar las doctrinas que acabamos de enumerar.

Organización e inteligencia artificial

Como cualquier avance tecnológico, la introducción de la IA implica algunos cambios en la organización de ministerios y departamentos de defensa e incluso en el seno de algunas FFAA. A pesar de ello, como veremos no suponen cambios organizativos muy profundos. Lo llamativo es que las modificaciones en estas instituciones no se dan tanto por las características técnicas de la IA en sí, sino más bien por el hecho de que su desarrollo se haga mayoritariamente en el sector privado. Por este motivo, los ministerios de defensa y ejércitos se reorganizan para confrontar dos retos básicos: por una parte, adaptar los avances del sector privado al ámbito militar; y, por otra, crear las condiciones idóneas para retener los talentos en el sector militar.

Del sector privado al ámbito militar

Los EEUU crearon a finales de julio 2018 el Joint Artificial Intelligence Center (JAIC) para confrontarse al primer reto ut supra mencionado. El propósito principal de este nuevo órgano es asegurar la coordinación de los esfuerzos innovadores del sector privado, el mundo académico y del ámbito de la defensa. Dotado de un contundente presupuesto que pretende llegar a 1,7 billones de dólares en cinco años, este centro está a cargo de varios proyectos en los que se aplican avances conseguido en el ámbito civil a un uso militar. Además, contribuye a la divulgación en la materia con la publicación de documentos cortos dirigidos a personal del DoD que pretenden explicar qué es y cómo funciona la IA.

La puesta en marcha de un organismo de este tipo no es exclusivamente americana, Francia, también ha creado un ente similar. En el punto 38 de su estrategia sobre IA en el mundo de la defensa crea la Oficina de Coordinación de la IA de Defensa (CCIAD de sus siglas en francés). Integrada en su Agencia de Innovación en Defensa (AID) el presupuesto de la oficina está muy por debajo del JAIC americano, siendo este de 100 millones al año durante cinco años. Su rol es facilitar la implementación de la IA y la coordinación de los diferentes proyectos en el ámbito de la defensa.

La dificultad de coordinar el sector privado y el sector militar radica en dos desafíos. Primero, aplicar avances civiles a un escenario bélico. Las necesidades específicas del espectro castrense no suelen ser conocidas por los ingenieros del ámbito civil. Por ejemplo, las necesidades de los coches autónomos no son las mismas que las de los UGV. En este aspecto, los UGV necesitan, entre otras características, capacidades de navegación fuera de carreteras ya trazadas y la posibilidad de circular en todos los terrenos, algo que los coches autónomos de uso civil no deben cumplir forzosamente.

Segundo, puede haber grandes reticencias por parte de los investigadores civiles a la hora de trabajar para aplicaciones militares. Un buen ejemplo de ello fue lo que ocurrió con el proyecto Maven. Un proyecto en el que el Departamento de Defensa de los EEUU trabajaba con ingenieros de Google para aplicar los avances en análisis de imagen a la lucha contra Estado Islámico. Los drones americanos captaban cantidad de imágenes que eran analizadas por los algoritmos desarrollados por Google, con el objetivo de ayudar a determinar coordenadas y facilitar el tratamiento de objetivos. En mayo 2018, los empleados de Google, obligaron la compañía a retirarse del proyecto por motivos éticos (Sayler, 2020: 19). Además, consiguieron impedir futuras colaboraciones de Google con el DoD, provocando la cancelación de contratos que el DoD tenía con dos empresas que Google adquirió – Boston Dynamics y Shaft.

Por su lado, China, no padece el problema de la adaptación de los avances del sector privado al ámbito militar. Los chinos han establecido una estrategia llamada “fusión civil-militar” que permite la estrecha colaboración del sector privado y el aparato gubernamental (Shkurti, 2019: 19).  Dicha fusión hace muy improbable una situación similar a la del proyecto Maven en China. Por lo tanto, aquello que supone un desafío organizativo en occidente se puede considerar una ventaja estratégica en China (Shkurti, 2019: 18).

La retención de talentos en el ámbito de la defensa

El segundo reto básico a nivel organizativo es crear las condiciones salariales adecuadas para evitar que se vayan los ingenieros y expertos en IA al sector privado (Horowitz, 2018: 50). El desarrollo de la IA en las FFAA implica reclutar jóvenes titulados en este ámbito (Noël, 2018: 69). Los sueldos y las condiciones de empleo de muchas compañías privadas superan las ofertas de los Estados. La incapacidad de los ministerios de defensa y de las empresas de defensa de contratar y retener los talentos de la IA podría retrasar su aplicación en el campo militar pero no anulará su penetración progresiva.

Como solución a este problema, la administración Obama puso en marcha en 2015 el Defense Digital Service, como un medio para reclutar trabajadores del sector probado para misiones de uno o dos años en el DoD (Sayler, 2020: 18). El antiguo subsecretario de defensa Robert Work propuso una suerte de becas para la IA mediante las cuales financiaban estudios avanzados en IA a cambio de trabajar para el DoD unos días a la semana. Actualmente en EEUU, también se plantean la atribución de becas y la aceleración de promociones para premiar aquellos ingenieros más talentosos (Sayler, 2020: 18). Por su lado, la ministra de Defensa gala Florence Parly, anunció en 2019 la creación de 200 puestos de trabajo para especialistas en IA de aquí a 2023.

Efectos de la introducción de la IA sobre la organización

En términos generales, la IA y sus tecnologías derivadas se adaptan bien a la organización de las FFAA y ministerios de defensa actuales. Sayler (2020: 19) señala las posibles reticencias de oficiales veteranos a su introducción en las FFAA. Podría ser. Pero, recordemos que desde el prisma de Noël (2018: 32) la IA es la evolución lógica de la misma RMA de la información. Desde esta perspectiva, los oficiales que contribuyeron a la implantación de la RMA de la información difícilmente se opondrán a su evolución lógica. Dicho esto, los retos que supone la IA se derivan de la fuerte presencia de las empresas privadas en este sector. Por este motivo, la cooperación pública privada se configura como un elemento estratégico en este ámbito.

Conclusión

Analizar la IA como una RMA permite dar sentido y ponderar los avances que se están dando en este campo. También, contribuye a enmarcar esos cambios en una matriz mayor, la RSM post-moderna añadiendo profundidad a la comprensión del fenómeno de la introducción de la IA en las FFAA. En definitiva, el enfoque de este trabajo sigue la lógica de un célebre aforismo de Churchill: “cuanto más lejos hacia atrás mires, más lejos hacia delante verás”. Estudiar las revoluciones pasadas permite una alta comprensión de las revoluciones actuales.

La IA no está cambiando la naturaleza de la guerra como fenómeno político, incierto y complejo. Aun así, sí cambia la forma en la que se llevan a cabo los enfrentamientos. El análisis pormenorizado de los pilares de la RMA permite ver de qué manera la IA está modificando el carácter de la guerra. En pocas palabras, la segunda categoría de Sayler (2020) es la que más se ajusta a la realidad que se ha estudiado para este artículo. La IA tiene un impacto evolucionario sobre el conflicto.

Tecnológicamente, la IA se enfrenta a tres dificultades importantes: la calidad de los datos, la confianza en los sistemas y su fiabilidad y, por último, su vulnerabilidad. No son retos insuperables, sin embargo, dada su magnitud deben tenerse muy presentes en la evolución de los sistemas actuales. Además, la IA debe verse como un compendio de muchas tecnologías que necesitan avanzar a la par. Por ejemplo, la red 5G o la capacidad de computación y cálculo de microprocesadores. Por lo tanto, a nivel tecnológico no todo depende de la evolución de los algoritmos. Finalmente, cabe destacar que la autonomía de los sistemas no depende directamente de su “inteligencia”, sino que estriba en la relación que el dispositivo tenga con su operador humano. De ahí que, realmente, el potencial disruptivo de la IA radica más en sus aplicaciones (doctrina) que en la tecnología en sí.

A nivel doctrinal, los Estados no buscan la autonomía completa de los sistemas, sino que se plantean una complementariedad cada vez mayor entre algoritmos y humanos. Dicha cooperación humano-máquina no sólo está centrada en SALA, todo lo contrario, la IA ofrece una multitud de aplicaciones que van más allá que los sistemas armados; por ejemplo, en el ámbito del mantenimiento preventivo, la logística o la ciberdefensa. El mantenimiento de un control humano significativo está en el corazón de las estrategias de las grandes potencias en materia de IA.

De hecho, disponer de sistemas que se rijan por sus propias normas supone un sinsentido, puesto que, en esencia, el objetivo de la guerra es transformar un esfuerzo militar en beneficio político. Por lo que crear sistemas que puedan desobedecer órdenes y, en definitiva, generar sus propios objetivos no es la meta de ningún Estado. Tal y como lo describe Clausewitz, la victoria en el campo de batalla tiene sentido si y sólo si se consigue transformar en ventaja política. De este punto de vista, por el momento, la IA es incapaz de entender el sentido y el contexto en el que está actuando. Si se preguntara a Alpha Go que explique porque juega o cual es la parte hermosa del Go no sería capaz de contestar, algo que Lee Sedol podría responder sin problemas.

La IA como cualquier otra innovación tecnológica necesita unos cambios en las instituciones en las que se inserta para desplegar todos sus efectos. Concretamente, los cambios organizativos entorno a la IA no son drásticos, puesto que en definitiva muchos sistemas inteligentes son la evolución de dispositivos que aparecieron en la RMA de la información. Por el momento, no se están creando unidades robotizadas, la acción de soldados humanos se complementa con sistemas cada vez más autónomos. Por ejemplo, en tareas de desactivación de minas o artefactos explosivos improvisados se han banalizado el uso de UGV.

Dicho esto, la IA supone transformaciones organizativas más importantes en los ministerios de defensa y en los departamentos encargados de investigar sus posibilidades. Los Estados intentan mantener sus talentos en este ámbito en el espectro nacional. La lucha por los mejores ingenieros no solo es internacional, sino que también existe entre la administración estatal y el sector privado. Por lo tanto, la creación de puestos de trabajo lo suficientemente llamativos para atraer talento y mantener al servicio público es un reto considerable para los Estados.

Repasando cada uno de los pilares de la RMA podemos ver que los cambios que implica la IA son una suerte de continuación de la RMA de la información. Las nuevas tecnologías permiten continuar separando los soldados del peligro y ganar en precisión en diversas tareas. El aumento de la velocidad de toma de decisiones es un requerimiento estratégico y la IA permite satisfacer esa necesidad.

Los seres humanos han creado máquinas y objetos desde la noche de los tiempos. Dichos artefactos siempre han sido mejores que los seres humanos para las tareas para las cuales fueron diseñados, la IA sigue esa misma lógica. No debe sorprendernos que inventemos dispositivos con mejores resultados que los seres humanos: ¡por eso se inventan!. Harari (2018) deplora que “los humanos hayan sido siempre mejores inventando artefactos que usándolos sabiamente”. Ese es uno de los mayores retos de la IA en el mundo militar: el desarrollo de unas doctrinas adecuadas para un uso apropiado al marco legal vigente y que reduzca al máximo el recurso a la fuerza.

Nota sobre el autor:

Jules Palayer. Graduado en seguridad internacional por la Universidad de Barcelona. Máster en estudios estratégicos y seguridad internacional por la Universidad de Granada. Actualmente, MA Science and International Security en King’s College London. Correo electrónico: jules.palayer@kcl.ac.uk

Referencias

Baqués, Josep (2013), “Revoluciones militares y revoluciones en los asuntos militares”, en Jordán, Javier (Coord.), Manual de estudios estratégicos y seguridad internacional, Madrid: Plaza y Valdés, pp. 117-145.

Calvo, José-Luis (2001), “La revolución en los asuntos militares”, en de Cueto, Carlos y Jordán, Javier (Coord.), Introducción a los estudios de seguridad y defensa, Madrid: Editorial Comares, pp. 100-119.

Clausewitz, Karl von (1832), De la guerra, (versión íntegra, traducción de Carlos Fortea, 2005), Madrid: La esfera de los Libros.

Cohen, Éliot (2005), “Technology and Warfare”, in Baylis, John; Wirtz, James J. & Gray, Colin S. (2005), Strategy in the Contemporary World, Oxford: Oxford university Press, pp. 235-253.

Colom, Guillem. (2008), Entre Ares y Atenea. El debate sobre la Revolución en los Asuntos Militares, Madrid: Instituto Universitario General Gutiérrez Mellado – UNED.

Cummings, Missy L. (2017), “Artificial Intelligence and the Future of Warfare”, Chatham House. https://www.chathamhouse.org/sites/default/files/publications/research/2017-01-26-artificial-intelligence-future-warfare-cummings-final.pdf

DSI (2019), “Intelligence artificielle: Vers une revolution militaire?”, Hors-série 65, Avril-Mai, Défense & sécurité internationale.

Erbland, Brice (2018), Robots tueurs: Que seront les soldats de demain?, Malakoff: Armand Colin.

Harari, Yuval N. (2018), 21 Lessons for the 21st Century, London: Penguin Random House UK.

Horowitz, Michael C. (2018), “Artificial Intelligence, International Competition, and the Balance of Power”, Texas National Security Review, Vol. 1, No. 3, pp. 37-57.  

Human Rights Watch (2012), Losing Humanity: The Case against Killer Robots, Human Rights Watch & International Human Rights Clinic.

JAIC (2020), “Understanding AI Technology”, Joint Artificial Intelligence Center

Jeangène, Jean-Baptiste (2014), “Terminator Ethics: faut-il interdire les robots tueurs?”, Politique étrangère, hiver, No. 4, pp. 151-167.

Jordán, Javier y Baqués, Josep (2014), Guerra de drones. Política, tecnología y cambio social en los nuevos conflictos, Madrid: Biblioteca Nueva.

Marshall, Andrew (1993), “Some Thoughts on Military Revolution”, ONA Memorandum for Record, July 27, 1993.

Murray, Williamson (1997), “Thinking about Revolutions in Military Affairs”, Joint Force Quarterly, No. 16, pp. 69-76.

Nocetti, Julien (2019), “Intelligence artificielle et politique Internationale: les impacts d’une ruptura technologique”, Institut français des relations internationales (IFRI).

Noël, Jean-Christophe (2018), Intelligence artificielle : vers une nouvelle révolution militaire ?, Focus stratégique, No. 84.

RAND (2020), “Military Applications of Artificial Intelligence: Ethical Concerns in an Uncertain World”, Santa Monica, California: RAND Corporation,

Rogers, Clifford (2000), “Military Revolutions in Military Affairs: A Historian’s Perspective”, in Gongora, Thierry & Von Riekhoff, Harald (Eds.), Towards a Revolution in Military Affairs? Defense Security at the Dawn of the 21st Century, Westport, Greewood Press, pp. 21-36.

Roldán, José M. (2019), “La inteligencia artificial y la fricción en la Guerra”, Documento de Seguridad y Defensa 79: La inteligencia artificial, aplicada a la defensa: pp. 99-124.

Scharre, Paul & Horowitz, Michael C. (2015), “An Introduction to Autonomy in Weapons Systems”, Center for a New American Security.

  • (2018), “Artificial Intelligence: What every policymaker needs to know”, CNAS, Washington D.C

Sechser, Todd S; Narang, Neil & Talmadge, Caitlin (2019), “Emerging Technologies and Strategic Stability in Peacetime, Crisis, and War”, Journal of Strategic Studies, Vol. 42, No. 6, pp. 727-735. https://doi.org/10.1080/01402390.2019.1626725

Sayler, Kelley M. (2020), “Artificial Intelligence and National Security”, Congressional Research Service Report (R45178).

Shkurti, Gloria (2019), “Artificial Intelligence Application in the Military: The Case of United States and China”, SETA Analysis, June 20,No. 51. https://www.setav.org/en/analysis-artificial-intelligence-application-in-the-military-the-case-of-united-states-and-china/

Wired (2018), “Amazon’s Jeff Bezos says tech compagnies should work with the Pentagon”, November 15. https://www.wired.com/story/amazons-jeff-bezos-says-tech-companies-should-work-with-the-pentagon/#:~:text=Amazon’s%20Jeff%20Bezos%20Says%20Tech%20Companies%20Should%20Work%20With%20the%20Pentagon,-%22This%20is%20a&text=%E2%80%9CIf%20big%20tech%20companies%20are,a%20wave%20of%20employee%20protests.