Inteligencia Artificial en el Contexto de Competencia entre Superpotencias Internacionales

Versión para impresiónVersión para impresión

Análisis GESI, 20/2019

Resumen: La inteligencia artificial (IA) es actualmente la tecnología con mayor potencial de cambio y disrupción social. Este trabajo analiza y evalúa las implicaciones estratégicas de la IA para la seguridad y estabilidad de nuestra civilización global, de naturaleza interna competitiva y conflictiva. La automatización de un número creciente de sistemas y funciones sociales, delegados en sistemas IA interconectados, conlleva grandes riesgos, aumento de la complejidad e imprevisibilidad sistémica.

*****

Introducción

A medida que las tecnologías de inteligencia artificial (IA) avanzan, estas se asocian a un número creciente de sistemas informáticos, que finalmente afectan al mundo físico que habitamos. La competencia y conflictos entre los grandes poderes sociales de cada época son recurrentes en la Historia, y han sido inevitables. El desarrollo de la IA conlleva: (a) la automatización de acciones asociadas al proceso de resolución, independientemente de que sea pacífica o no, de los conflictos entre facciones con intenciones enfrentadas o irreconciliables; (b) la automatización de sistemas organizativos sociales de naturaleza competitiva dentro de un marco cooperativo regulado, como el económico, ya sea legalmente o éticamente.

La combinación de la realidad del problema social que suponen los recursos limitados del planeta, el problema de diferencias fundamentales en intenciones entre facciones, así como la automatización de estos objetivos una vez programados en software, conlleva riesgos asociados que son nuevos para la sociedad; de manera similar a como la tecnología nuclear modificó las relaciones y estrategias internacionales, y con ello la consciencia colectiva de la Humanidad.

Los sistemas de IA son tecnologías con un potencial de disrupción y proliferación enorme. Existe un gran riesgo de que las superpotencias internacionales en IA, entre las que se deben incluir las corporaciones tecnológicas y grupos no gubernamentales poderosos y bien organizados, actúen irresponsable o maliciosamente en el desarrollo y puesta en funcionamiento de estos sistemas. Ello es debido a las dinámicas y paradigmas sociales actuales, pero también es debido a nuestra propia evolución biológica y cultural, así como por motivos históricos.

Las fuerzas puestas en marcha en este proceso de automatización de la sociedad tendrán un componente darwinista, y pueden ser propensas a resultados tan indeseables como: no responder a consideraciones éticas e intenciones originales; aumentar la complejidad de sistemas críticos hasta ser incomprensibles; provocar fallos incomprensibles o, en el peor de los casos, llevar una inestabilidad, inconsistencia o paradoja autodestructiva, inherentes a nuestra condición humana y realidades sociales, a sus últimas consecuencias.

El cuerpo teórico del trabajo se ha estructurado en los siguientes apartados:

  • El orden mundial en la primera mitad del siglo XXI.
  • El problema del control.
  • La militarización de la inteligencia artificial.
  • Darwinismo tecnológico: Competitividad y cooperación.
  • La resolución al conflicto de la inteligencia como recurso natural.
  • Conclusiones.

Esta investigación se encuadra dentro de una rama nueva y creciente de estudios en riesgos existenciales. Estos estudios pretenden entender y modelar situaciones que suponen un riesgo para la civilización de dimensiones catastróficas. Un riesgo catastrófico es aquel que supone una pérdida parcial o total del nivel de civilización actual que hemos alcanzado.

A lo largo de este trabajo, en ningún caso se evalúan las implicaciones estratégicas de lo que se denomina Artificial General Intelligence (AGI) (Shane Legg, 2002). AGI supondría un punto de inflexión, comúnmente denominado como singularidad tecnológica (Vernor Vinge, 1993). El análisis estratégico no es posible tras ese umbral. Tampoco se entra en valoraciones cualitativas sobre lo que es o no es inteligencia o consciencia. Se habla de intención como el motor de un sistema en la búsqueda de la consecución de un objetivo. La definición de inteligencia utilizada será la de: capacidad de un sistema, dotado de intención, para lograr un objetivo.

 

El orden mundial en la primera mitad del siglo XXI

El gran conflicto del siglo XX

El orden mundial durante la Guerra Fría se caracterizó por una división de las sociedades humanas, de manera mayoritaria, en dos bloques ideológicos. Estos dos bloques poseían características ideológicas incompatibles. A grandes rasgos: el liberalismo occidental propone un sistema de libertades individuales y económicas; el comunismo propone el colectivismo social y el control económico.

Extrañamente, el factor que imposibilitó la coexistencia entre ambos bloques, y los convierte en mutualmente excluyentes, es la universalidad de sus preceptos. Al tener dos posiciones confrontadas y un objetivo expansivo, se dieron las circunstancias para un conflicto competitivo que estuvo al borde de barrer ambos modelos de civilización. No se hubiesen dado estas circunstancias si cada bloque decidiese desarmarse y vivir pacíficamente dentro de sus dominios; lo cual hubiese sido apropiado, ya que en teoría ambos modelos sociales proclaman el desarrollo del hombre como justificación de su propia existencia. ¿Por qué no se produce un desarme, entonces? Es fácil llegar a la conclusión por simple lógica militar: el primero en desarmarse será más vulnerable. En cualquier caso, es la falta de confianza en la otra parte la que impide una relajación en el ámbito militar. Los líderes y generales de los dos bloques entenderán intuitivamente que esto es así. No sólo ello, sino que entenderán también que la otra parte piensa lógicamente de la misma manera.

Las diferencias fundamentales en objetivos para la población humana, que es el recurso inteligencia y medio de propagación de la proyección ideológica, impide en estos casos la aplicación de una solución que maximice el bienestar humano mediante la cooperación entre naciones y una dedicación de recursos que priorice tal fin (este último factor fue más acentuado en el caso de la URSS). No obstante, a pesar del conflicto, el hecho de existir un equilibrio económico, científico y militar en dos gigantescos bloques funcionó, en cierto sentido, como factor estabilizante en la primera era nuclear.

 

El fin de la Historia

La etapa posterior a la Guerra Fría fue nombrada por algunos analistas como el fin de la Historia. Las democracias occidentales habían ganado la batalla ideológica. Los intelectuales liberales asumieron que el mundo tendería a una democratización progresiva a medida que los países adquirían niveles de riqueza occidentales. Por ello, la deslocalización de manufacturas a los países en desarrollo se produjo con sorprendente facilidad durante esta época, sin un rechazo determinante por parte de los líderes norteamericanos y europeos.

Los sectores de la economía que se mantuvieron en esta etapa fueron las industrias de media-alta y alta tecnología, el sistema científico y los servicios. Los servicios financieros crecieron hasta el punto de expandir gran parte de las economías de la OCDE por encima de sus posibilidades. La crisis financiera de 2007-2008, y sus sacudidas, supusieron un reajuste del orden mundial. La pérdida de confianza liberal dejó verse en todo el mundo. Los propios ciudadanos de los países más afectados cuestionaron sus sistemas económicos. El vacío de poder está dando lugar a la formación de nuevos bloques. Tras décadas de localización industrial y una larga crisis financiera y de deuda, China tiene ya un PIB ajustado superior al de EE.UU (The World Bank, 2018). En términos globales, la OCDE está reduciendo su participación en la economía global rápidamente. Hay que añadir a ello que los niveles de deuda de los países emergentes y Rusia son muy inferiores a los occidentales. Por otro lado, la demografía de la OCDE lleva varios lustros siendo recesiva. Lo que se denominó el fin de la Historia parece ahora un período de 20 a 30 años de reajuste, aun inconcluso, del orden mundial.

 

La vuelta a la Historia

Los analistas comienzan ahora a ver la emergencia de un orden mundial multipolar. En este nuevo orden mundial China y Rusia son más asertivas. Ambos países tienen capacidades tecnológicas avanzadas. De hecho, el Sudeste asiático apunta a la posibilidad de superar la capacidad tecnológica occidental durante este siglo (National Intelligence Council of the United States of America, 2012). Otros países emergentes como India, Brasil, Sudáfrica, Nigeria, Indonesia, etcétera, pueden conformar bloques bien organizados que busquen con mayor determinación sus propios objetivos nacionales, apoyándose en su probable proyección demográfica y económica al alza.

De distinta manera, el islamismo político está también avanzando, apoyándose en una demografía explosiva y emigrante. El islamismo político está incrementando su control en muchas sociedades a través de la diáspora, cuyos valores y objetivos sociales son conflictivos o directamente opuestos a los de la población nativa, tales como: la no separación entre Estado y religión, la condena a la homosexualidad, la penalización de la libertad de expresión, la no concesión de libertad de conciencia o una educación basada en dogma religioso frente a la evidencia científica. Su financiación proviene principalmente de los países del Golfo Pérsico. El movimiento islamista internacional está bien organizado, muy interconectado, y presenta un amplio y fervoroso respaldo popular.

Además, cuando se trata el tema de la inteligencia artificial, deben introducirse entre los actores estratégicos una categoría especial para los gigantes tecnológicos. La economía moderna está acostumbrada a corporaciones con capacidad para afectar la vida de millones de personas; factor este que se verá acrecentado en un mundo dominado por la IA. Empresas como Google, IBM, Apple, DJI, Amazon, etcétera, son los creadores de una gran cantidad de contenido software y principales adquisidores de empresas que trabajan IA (tanto compañías previamente asentadas como start-ups).

Otros grupos no estatales, como: la extrema izquierda, la extrema derecha o el terrorismo de base activista ambiental, pueden suponer fuerzas ideológicas relevantes a lo largo del este siglo.

 

El teatro del siglo XXI

La tendencia es la de un mundo crecientemente multipolar, globalizado y más complejo. Presentará una variedad de actores con intenciones fundamentales ampliamente variadas, así como la determinación para llevarlas a cabo. Estos actores tendrán la organización interna y las capacidades tecnológicas para ser relevantes, y son lo que se denominan IA superpowers (Lee, 2018). La globalización tiene la cualidad de hacer chocar visiones opuestas de la realidad de una manera que resulta imposible de obviar o negar, creando auténticas paradojas sociales (las cuales se acaban resolviendo bien mediante acuerdos o como conflictos). Lo que Carles G. Jung describía para el individuo bien puede aplicarse a una única sociedad global con conflictos filosóficos internos irresolubles: “The psychological rule says that when an inner situation is not made conscious, it happens outside, as fate. That is to say, when the individual remains undivided and does not become conscious of his inner contradictions, the world must perforce act out the conflict and be torn into opposite halves.” Es en este contexto en el que ha arrancado el desarrollo de la IA. Y este será el ambiente en el que la tecnología evolucione.

A lo largo de la Historia, los conflictos se producen por diferencias de objetivos entre facciones, y se han resuelto en gran medida mediante mecanismos de suma cero (donde hay un perdedor y un ganador). El conflicto ideológico se recrudece en la búsqueda del poder; y este se asegura principalmente mediante la adquisición de recursos naturales, infraestructura ciudades, canales, fortalezas, etcétera, y a través del control de la población. La población de una facción es la que finalmente asegurará la perpetuidad de un determinado sistema, cultura, nación, religión, etcétera. Este es el recurso inteligencia, y producirá tecnología acorde a sus objetivos, tanto a nivel individual como colectivamente.

La inteligencia artificial proporciona una expansión de las capacidades de un grupo para lograr sus objetivos. De esta manera, incluso un pequeño laboratorio computacional puede alcanzar relevancia internacional si consigue desarrollar el software adecuado para la tarea. El recurso inteligencia es contraintuitivo al análisis estratégico clásico. Reside en gran parte oculto, en el plano de lo que se denomina la infoesfera, entendida como la red de sustratos que conforman los sistemas de información, comunicación y organización social (R.Z. Sheppard, 1971; posteriormente desarrollado por Alvin Toffler, 1980). Un superordenador puede contener información irrelevante o un software capaz de provocar una crisis financiera global, pero desde el exterior dicha información es inaccesible. La inteligencia es un patrón de organización interna de un sistema que permite la extracción y el procesado de información para entender qué es relevante para conseguir un objetivo. Es por ello que la inteligencia artificial nos obliga a examinar tanto nuestros objetivos como los de las otras partes del ecosistema de la infoesfera. Analizar nuestra “propia programación”, en su sentido más lógico fundamental (Bertrand Russell, 1910; Kurt Gödel, 1931).

 

El problema del control

El desarrollo de IA

Actualmente, el campo de la investigación en inteligencia artificial está en pleno auge. No es la primera vez que esto ocurre. En dos períodos anteriores, bien identificados, la investigación, financiación y desarrollo de IA prosperó; seguidos por sendos períodos de estancamiento consecuencia de límites en las capacidades tecnológicas y teóricas. Algunos tecnólogos apuntan a que el momento actual se encuentra en esta misma fase de optimismo infundado, pero a día de hoy suponen una minoría. La IA es ahora económicamente competitiva y estratégicamente prioritaria. Los gastos de desarrollo superan en grados de magnitud los costes asociados a la producción de este producto de alta tecnificación. La financiación ha desbordado la investigación en todos los campos de estudio. No menos importante, otra cosa ha cambiado… La percepción pública sobre la materia ha aumentado exponencialmente, dando lugar a que profesionales de todos los campos del saber humano analicen la tecnología dentro de sus especialidades: antropología, física, economía, psicología, sociología, filosofía, matemáticas, salud, lenguaje, ingeniería, etcétera.

Hace tan sólo dos décadas que la computación doméstica ha entrado en los hogares de familias de todo el mundo. Previo a este fenómeno, no existe por parte del ciudadano un conocimiento sobre lo que supone para la sociedad el desarrollo último de las Máquinas de Turing[1]. Es ahora cuando la opinión pública comienza a entrever el poder real de esta tecnología tal y como los expertos lo veían hace 40 o 50 años; o Alan Turing cuando definió el concepto; y aquellos autores clásicos que escribieron literatura y mitología sobre autómatas, ya intuyendo una idea que subyace a una realidad posible. Algunos logros importantes han conseguido captar la atención del mundo, pero también sus temores. Logros tecnológicos como Watson de IBM, Alpha Go y Alpha Zero de Alphabet Inc. o Google DeepMind; así como el avance del software aplicado a robótica de aplicación militar de compañías como Lockheed Martin o Boston Dynamics.

 

Velocidad

El filósofo de biología evolucionista Daniel C. Dennet acuñó el concepto de grúas (cranes en inglés) para explicar aquellos desarrollos evolutivos que suponían un cambio de las reglas del juego. Aquellos que habilitan todo un nuevo espectro de posibilidades. En este sentido, el desarrollo humano del lenguaje sería una de estas grúas, ya que permitió la difusión de conocimiento y cultura de una manera mucho más efectiva. De este modo, el aprendizaje sociocultural (la difusión de patrones cerebrales eficaces para el éxito de una sociedad) creó la miríada de sistemas de organización humana que tenemos y hemos tenido a lo largo de nuestra Historia, desde la civilización egipcia hasta la ingeniería aeroespacial.

La inteligencia artificial entra en la misma categoría de dinámica de cambio de reglas del juego por dos motivos principales: (a) la transversalidad de la IA es un catalizador que permite el desarrollo de otras tecnologías de vanguardia (nanotecnología, el control de la fusión nuclear, tecnologías espacial y oceánica de profundidad, bioingeniería, etcétera); (b) su efecto catalizador retroalimenta su propio desarrollo. Es decir, es una tecnología que posibilita mejoras en su propia naturaleza; e incluso es capaz de programar mejoras en su propio código de manera autónoma mediante estrategias de evolución computacional.

Todo esto provoca un progreso exponencial, que podrá adquirir velocidad electrónica, en una fase avanzada de este proceso que ya ha comenzado. Es lo que el filósofo Nick Bostrom denominó una explosión de inteligencia, estudiando su dinámica y riesgos asociados desde un enfoque basado en la lógica y los estudios estratégicos. Este enfoque académico basado en lógica puede ser criticado como ciencia ficción por falta de datos previos que lo avalen. La defensa del Dr. Bostrom  al respecto es, no obstante, el hecho de que no se puede esperar a una situación posterior a la explosión de inteligencia para analizar su dinámica y riesgos. De igual manera que el estudio de los efectos de una guerra termonuclear no debe ser pospuesto hasta la aparición de evidencia científica.

 

Inercia

Además de la rápida velocidad de desarrollo, hay que tener en cuenta la inercia que esta tecnología está adquiriendo. Si las herramientas para la creación de IA de manera simple y sin barreras proliferan, con unos costes computacionales que ya a día de hoy son bajos para máquinas de relativa potencia, se llega a la conclusión de que la inercia del desarrollo de IA ilimitada será demasiado grande como para permitir los controles deseables (superado cierto umbral).

La combinación de gran velocidad de desarrollo e inercia social constriñe el tiempo de investigación y actuación sobre los múltiples usos cuestionables de las tecnologías de IA, incluyendo los que ya están disponibles hoy en día: la primera generación de armas autónomas, tecnologías de control social, los denominados deep fakes (que permiten la creación de material audiovisual indistinguible de uno original), los algoritmos asociados a campañas de propaganda política y religiosa, etcétera.

Los sistemas de gobierno actuales son demasiado lentos como para gestionar el desarrollo tecnológico exponencial, por lo que es de vital importancia la creación de nuevas instituciones dedicadas a tal aspecto. Algunas de las cuales deberán ser globales si se quiere tener algún tipo de posibilidad de regular el sector. Si se fracasa en esta tarea, la situación global que se entrevé es altamente caótica e insegura.

 

Inestabilidad

Existe un riesgo añadido particular en la gestión de la gobernanza de un mundo que avance exponencialmente en el desarrollo tecnológico: la gestión de la complejidad y el caos. La problemática del caos es inherente a la naturaleza, desde el clima hasta la economía mundial. Fue descubierto casualmente a partir del estudio físico de la meteorología (Edward N. Lorenz, 1963). El caos se presenta en sistemas naturales con retroalimentación interna: es un desarrollo de eventos, que se ha iniciado por cambios menores en un sistema, los cuales se magnifican consecuencialmente y terminan alterando el resultado final a gran escala, de manera imprevisible. El aumento de complejidad aumenta la tendencia al caos al aumentar el potencial del sistema; es decir, el aumento del número de enlaces causales. Aumento de la complejidad y caos son dos factores que dificultan o imposibilitan el problema del control. Este problema se ve acentuado al reducirse el tiempo de reacción.

En economía y otras ciencias sociales, se puede decir que una situación pasa de un momento de estabilidad a uno de inestabilidad, de un cierto orden estructural y previsibilidad a una situación caótica, cuando alcanza un punto crítico a partir del cual no hay un retorno (una corrección posible que permita devolver el sistema a una fase de control anterior). La situación entonces se vuelve imprevisible. Por ello las crisis económicas suelen tener un momento definitorio como el Black Thursday de 1929, el Black Monday de 1987 o la caída de Lehman Brothers de 2007. No obstante, el hecho de que exista un punto crítico no quiere decir que el sistema en sí mismo fuese previamente estable, sino que el sistema era ya estructuralmente inestable previo al colapso (James E. Lovelock, 2007).

Un sistema inestable se caracteriza por su sensibilidad a condiciones iniciales, lo cual quiere decir que pequeños cambios iniciales desencadenan cambios completamente imprevisibles en magnitud y dirección. Cuanto más complejo es un sistema, más imprevisibles serán los resultados una vez que este se vuelva caótico (debido al aumento del número de enlaces causales). Una ilustración histórica clásica de un sistema social inestable que se volvió caótico, y de consecuencias desastrosas, fue el juego de alianzas de Europa previo a la Primera Guerra Mundial. Es lo que se conoce como un momento Franz Ferdinand (Jane Goodal, 2014), en el que un suceso previsiblemente de relevancia menor sirve, no obstante, como desencadenante desestabilizador del sistema. La magnitud del efecto no es proporcional a la magnitud de la causa.

El problema del control de la inteligencia artificial en un ambiente de hipercompetencia o conflicto internacional debe ser analizado bajo esta óptica. Hay que considerar que un sistema inestable, llegado a un punto crítico se volverá caótico. Esto ocurrirá crecientemente a velocidades propias de la electrónica y a niveles de complejidad incomprensibles para operadores humanos (a medida que más sistemas humanos se digitalizan y se vuelcan en la esfera digital). En la ingeniería, ningún sistema es calificado como infalible. Es un ámbito bien estudiado, especialmente por cierto tipo de instituciones o departamentos que requieren tasas de eficacia extremas (como la NASA) o secciones de los ejércitos más especializados (como el programa SUBSAFE para el control de submarinos nucleares del ejército de EE.UU). Estas se denominan organizaciones de alta-confiabilidad (Scharre, 2019). Sin duda sus técnicas y procedimientos tienen gran relevancia para el problema del control de la IA, pero no son totalmente eficaces. Ciertas aplicaciones requieren una garantía absoluta de eficacia, como por ejemplo sistemas de armamento nuclear autónomo.

 

La militarización de la Inteligencia Artificial

La lucha por el recurso

La problemática del recurso limitado se encuentra en la base de todo conflicto. Incluso si imaginamos un conflicto que fuese puramente ideológico o religioso, se puede determinar que el control de poblaciones y países es un recurso último en sí mismo. El control de la población servirá al liderazgo de una facción para expandir su poder y lograr sus objetivos, de igual manera que un recurso natural como el petróleo o el oro ayudarán al esfuerzo de guerra. Además de ello, una disputa de recursos es a menudo el desencadenante original de un conflicto; que a menudo conlleva una evolución cultural de confrontación o guerra histórica entre facciones, y no solamente un conflicto aislado.

 

La guerra eterna

Las sociedades sometidas a conflictos duraderos tienden a desarrollar una evolución cultural hacia la militarización y la radicalización de sus posiciones. Algunos ejemplos de ello son los conflictos de Israel-Palestina, India-Paquistán, la península de Corea, la Guerra Fría, el período de Reconquista en España, etcétera. Es por ello que los conflictos estancados tienen difícil resolución. Hay una internalización cultural del conflicto y del enemigo, que requiere una voluntad grande y honesta de todas las partes implicadas para ser superada. Esto ocurre en raras ocasiones. El proceso de formación de la Unión Europea es una de ellas, pero su validez es cuestionable sin la supervisión de la potencia liberal, en su época dorada, que supuso EE.UU. tras la Segunda Guerra Mundial. Además de las mencionadas barreras histórico-culturales, hay una serie de factores naturales a la consciencia humana, tanto individual como colectiva, que impiden la desmilitarización pactada:

  • La intuición de los riesgos que supondría una mala decisión para nuestra facción, la cual tiene una base matemático-estadística (aunque el estadista es altamente subjetivo y está culturalmente condicionado, por lo tanto es una estimación de riesgo basado en características de la personalidad de un grupo de estadistas con información y conocimiento limitados y sesgados).
  • La inercia originada por la falta de confianza causada por dinámicas competitivas o conflictos. La proyección de futuro se fundamenta en las experiencias sufridas anteriormente. Es por ello que deben existir intercambios cooperativos iniciales antes de poder alcanzar grandes pactos que cambien las reglas del juego.
  • Además, debe existir transparencia que aumente la información sobre lo que está ocurriendo en el otro bando, y que reduzca nuestra incerteza y especulación del riesgo.

 

El dilema del prisionero

El dilema del prisionero[2] es un problema fundamental de teoría de juegos. Este problema es definitorio de los sistemas de gobernanza internacionales, en cuanto a: (a) la anarquía causada por falta de un sistema central de organización que optimice la decisión más óptima para varios jugadores; (b) la desconfianza basada en la falta de información, así como su relación con el riesgo asumido. En estas condiciones, lo que se conoce como sentido común se aísla. Es un “juego” de suma no nula. El equilibrio de Nash es la situación en la que, en condiciones de información incompleta, se produce un estancamiento que desincentiva el cambio de estrategia para todos los jugadores. Esto imposibilita el desbloqueo de las carreras armamentísticas, entre otras muchas consecuencias políticas.

 

 

El dilema de seguridad

Al mismo tiempo, un incremento de la militarización sin moderación lleva asociado otro riesgo que se conoce como el dilema de seguridad (John H. Herz, 1950). Es decir, un aumento de la capacidad bélica lleva asociado una amenaza inherente al resto de poderes circundantes, que se verán obligados, estratégicamente, a equilibrar estas medidas. Este es el origen, desde el punto de vista sociopolítico, de las carreras armamentísticas. Es especialmente acuciante cuando se desarrollan innovaciones sociales o tecnológicas que suponen una ventaja estratégica decisiva, capaz de crear un hegemón.

 

La trampa de Tucídides

El dilema del prisionero es el principio que funciona como desencadenante lógico de una carrera armamentística en un ambiente hipercompetitivo o de conflicto activo. El dilema de la seguridad funciona como “combustible” para la misma. Cuando no existe un poder centralizado superior que ejerza como árbitro (escenario anárquico), o una confianza mutua debido a que las intenciones de las facciones son irreconciliables y conflictivas, entonces una carrera armamentística es inevitable; y la probabilidad de guerra aumenta.

El primer análisis histórico de estos acontecimientos fue realizado, de hecho, por el propio padre de la historia moderna. Tucídides, en el siglo V a.C., ya aventuró esta intuición en su narración de la Guerra del Peloponeso: “Fue el ascenso de Atenas y el temor que eso inculcó en Esparta lo que hizo que la guerra fuera inevitable.”

 

Carrera en el uso armamentístico de la IA

La inteligencia artificial ofrecerá sin duda una ventaja estratégica decisiva. El liderazgo mundial es consciente del poder asociado a esta tecnología. La demografía o el poder previo de una facción pierden relevancia si se expande la inteligencia por medios artificiales. Muestra de ello son las declaraciones al respecto del Presidente de Rusia, Vladimir Putin, durante una reunión con estudiantes en la ciudad de Yaroslavl: "Quién se convierta en líder en esta esfera será dueño del mundo." (CNN, 2017). Estas declaraciones de uno de los principales líderes de Rusia (país tecnológicamente avanzado, con tendencias revisionistas y con un historial de violación del derecho internacional) son definitorias de la situación actual.

¿Estamos entonces ya en una situación de carrera armamentística? Sin duda, las inversiones y el liderazgo actual apuntan a ello. Aunque, como plantea el analista militar Paul Scharre en su reciente libro Army of None (2019): If it is true, as some have suggested, that a dangerous arms race in autonomous weapons is under way, then it is a strange kind of race. Hay un claro desarrollo en el campo tecnológico y operativo, pero al mismo tiempo algunos de los gobiernos más tecnológicamente competitivos intentan materializar esfuerzos en el control ético de este tipo de armamento; principalmente en lo referente a la autonomía de las máquinas para tomar la decisión de matar. Los gobiernos de las potencias occidentales están limitados por la opinión pública, con tendencias pacifistas. Al mismo tiempo, estas naciones son las potencias económicas mundiales, y la OTAN es la principal potencia militar. Occidente aún tiene ventaja económica y militar como para permitirse límites éticos sin arriesgar su seguridad. No obstante, como ya se ha mencionado, esta diferencia se está acortando rápidamente. Si otras facciones con intenciones revisionistas fuerzan un desarrollo sin límites éticos, es previsible que se reevalúen las prioridades.

 

Militarización de la inteligencia, un paradigma del siglo XXI

Como experimento mental, imaginémonos que una nación decide implementar un sistema autónomo de gestión de defensa nuclear y balística continental de tal manera que sobrepase las capacidades de operadores humanos… Entonces, sus rivales se verán forzados a la adopción de sistemas similares para no perder la competitividad estratégica. Esta situación podría darse incluso como resultado de información poco fiable de que tal tecnología está de hecho siendo desarrollada por otra facción. Una vez ambas naciones han automatizado sus defensas, nos encontramos ante un equilibrio de Nash. Las dos han aceptado un riesgo innecesario volcando un sistema que no acepta ni un solo accidente, lo cual ha sido imposible implementar hasta ahora, y del que no se tienen precedentes. Si otros actores se suman al “juego”, como es previsible, las probabilidades de que se cree un sistema inestable aumentan al añadir complejidad. Se incurre en un dilema de seguridad de todos porque un jugador no decide aceptar el riesgo de que otras naciones desarrollen primero tal sistema. De llegarse a esta situación, una guerra termonuclear pasaría a ser una eventualidad técnica.

El anterior es una ejemplificación de IA aplicada que llevaría a una catástrofe nuclear eventualmente asegurada, basada en nuestros sistemas actuales. Ejemplos parecidos podrían establecerse para armamento basado en nanotecnología asociada a IA, propagación de virus evolutivos en Internet, algoritmos con la intención de colapsar la economía de un país, software que prediga el comportamiento humano (permitiendo la manipulación social), etcétera. Es imposible prever todas las aplicaciones de la IA con potencial para disrupciones catastróficas de la seguridad internacional. La mente militar del Homo sapiens sapiens, aquello que es en parte nuestra herencia genética y en parte cultural (cuando se automatiza y dota de poder casi ilimitado), lleva el dilema de la seguridad a sus últimas consecuencias lógicas.

De esta forma, la Humanidad sería entonces prisionera de un viejo conocido: “The oldest and strongest emotion of mankind is fear, and the oldest and strongest kind of fear is fear of the unknown.” (Howard P. Lovecraft, 1927).

 

Darwinismo tecnológico: competitividad y cooperación

Evolución tecnológica

La evolución de la tecnología es un producto de la evolución cognitiva de la especie, con tendencia al aumento de la capacidad. Cada paso de la Historia humana expone a las diferentes generaciones ante un ambiente de problemas nuevos, que requieren soluciones innovadoras. La tendencia es al aumento de la complejidad del problema. Los problemas modernos pueden tener una base natural, como enfermedades o sequías, pero esencialmente nos hemos alejado de la mayoría de estas contingencias a través del proceso civilizador. Los nuevos problemas que surgieron fueron entonces los de naturaleza civil, pero también los militares. Cuando se pone en perspectiva la Historia, se observa una tendencia a la unificación de la especie en civilizaciones mayores, las cuales se lograron a base de innovaciones sociales como los imperios, las religiones, la nación-Estado, los organismos internacionales, etcétera. No obstante, gran cantidad de estos procesos de unificación se llevaron a cabo a través de la fuerza, mediante guerras y conquista. Platón afirmaba en su diálogo República, en el siglo IV a.C.: “La necesidad es la madre de la invención. No hay mayor necesidad que aquella de la supervivencia.

 

La tecnología como arma

Las guerras y catástrofes suelen ser los ambientes en los que las innovaciones ocurren a pasos agigantados. Dos factores contribuyen a ello: (a) la dimensión de la pérdida en coste humano que supone un fracaso (evaluado mediante el cálculo estratégico y que provoca un esfuerzo humano extraordinario); (b) la limitación de recursos, que hace necesario afinar el ingenio y esfuerzo inventivo. A pesar de que una tecnología se desarrolle para la guerra, a menudo la misma, modificaciones o la teoría básica que la posibilitó, pueden aplicarse al ámbito civil. Algunos ejemplos paradigmáticos son los orígenes de la ingeniería naval, la tecnología de cohetes durante la Segunda Guerra Mundial, los submarinos, el GPS, etcétera.

 

Tecnología para la cooperación

Si bien la competencia es claramente un catalizador de innovación, la cooperación también lo es, aunque de diferente manera. La tecnología que se desarrolla con intención cooperativa es menos susceptible de ser utilizada para acaparar un recurso, aunque sí puede modificarse para tal efecto. Ejemplos de tecnologías basadas en una intención inicial cooperativa serían la escritura, las finanzas, la prensa, la democracia, el reciclaje o Internet. Para interiorizar esta idea pensemos en Internet, el cual puede ser usado para propagar ideologías extremistas, pero es fácil ver cómo la mayoría de los usos de un Internet abierto han contribuido a crear un mundo más positivamente interconectado.

La cooperación es un mecanismo natural para afrontar el problema de la limitación de recursos. Ante un ambiente de recursos limitados, la evolución darwinista o las innovaciones tecnológicas se producen para maximizar un recurso limitado de tal manera que beneficie al ecosistema en conjunto en mayor medida que al conjunto de sus partes (actuando destructivamente en un juego de suma cero). Evolutivamente, cuando la cooperación o coevolución se producen es porque estas son las soluciones más eficientes ante un problema natural dado (no quiere decir que siempre exista una alternativa en el mundo natural). La naturaleza es un juego de competición y cooperación perpetuas.

La diferencia entre la naturaleza (que encuentra soluciones cooperativas inteligentes en mutaciones aleatorias priorizadas mediante mecanismos de supervivencia) y las sociedades (que desarrollan innovaciones), es la capacidad de nuestro cerebro para modelar teorías, experimentar y aprender de los errores y accidentes. La capacidad estratégica es otra de las funciones cerebrales, como el lenguaje o la sensibilidad artística.

 

Competitividad y cooperación, dos caras de una misma moneda

La competitividad y la cooperación son pues compatibles y también complementarias. Un ejemplo es la economía capitalista. Cuando se analiza la economía capitalista es imposible negar su funcionamiento automático. Es lo que Adam Smith denominó la mano invisible, en su obra fundamental The Wealth of Nations (1776). Esto llevó a algunos economistas, principalmente liberales y neoliberales, a teorizar sobre el autoequilibrio de los mercados y la necesidad de no intervenir desde el gobierno. Es innegable que los mercados capitalistas alcanzan equilibrio, pero también es innegable que fue necesaria la intervención gubernamental para eliminar el trabajo infantil, la explotación laboral, la explotación descontrolada de recursos naturales, rescates financieros para reajustar el sistema, etcétera. Aún queda por resolver la paradoja de la sostenibilidad ambiental junto con la necesidad de crecimiento económico exponencial. Estas correcciones no dejan de ser aumentos de la cooperación; mejoras organizativas para el bien común de los miembros de una sociedad. En el proceso hemos descubierto, además, que una sociedad humana en la que se comparte más se vuelve más resistente y desarrollada. Resumiendo, se permite una competitividad enmarcada en un marco regulatorio, lo que no deja de ser un “juego”.

No es casualidad que gran parte de las innovaciones humanas en cooperación tengan que ver con la gestión de la información. La mejora en los patrones de gestión de la información o el aumento de la capacidad organizativa aporta grandes beneficios. La relación beneficio/riesgo tiende a incentivar la adopción de los mismos. Prueba de ello es el avance cultural humano, que puede experimentar retrocesos, pero tiene tendencia al aumento de complejidad y sofisticación.

 

Los fundamentos de la estrategia cooperativa

Los instintos biológicos de autopreservación y de protección de la descendencia son el origen de la militarización de nuestra mente a nivel individual, y su posterior proyección a escala social. Varios mecanismos biológicos conforman tales instintos como: el miedo al daño físico y la muerte, el impulso sexual, el instinto materno... Otros mecanismos evolutivos como la empatía, el raciocinio, la plasticidad cerebral o la memoria nos permiten sobrepasar los instintos más defensivos y depredadores de nuestra especie en pro de la cooperación social; aunque para ello deben darse condiciones sociales favorables (líderes cooperativos, cansancio de guerra, ausencia de dogmatismo y adoctrinamiento en ideologías de guerra y conquista, etcétera).

En este sentido, la mayoría de nosotros entendemos y aceptamos hoy en día que hay mucho que ganar y poco que perder en el juego de la cooperación social; incluyendo la seguridad de nuestra descendencia y la nuestra propia. Esto también se puede ilustrar con una matriz basada en el equilibrio de Nash para una situación de conflicto por un recurso:

Esta matriz es simple, pero permite entender que la pérdida de recursos derivada de un conflicto incentiva la opción cooperativa (el valor total de los recursos es mayor en términos absolutos). Este factor, de hecho, aumenta a medida que los conflictos se vuelven tecnológicamente más avanzados y presentan mayor movilización social. Es decir, el riesgo asumido en la posición de conflicto aumenta.

Si se repitiese este ejercicio con los mismos contendientes, el perdedor del conflicto se vería ahora estratégicamente presionado a defender con más esfuerzo sus intereses, ya que se encuentra en una posición en la que el oponente se ha reforzado. De lo contrario, el ganador “aprenderá” que la estrategia que maximiza su beneficio es la “posición de conflicto” (a costa de un perdedor).

El dilema del prisionero varía en función de si la “posición de conflicto” supone un riesgo existencial o solamente una ausencia de beneficio. En ausencia de beneficio es más probable que se acepte riesgo, ya que el riesgo asumido es solamente la pérdida de competitividad. En cambio, un conflicto militarizado implica siempre un riesgo de pérdida elevado.

Si nos encontramos ante un escenario con armas de destrucción masiva, entonces la “posición de conflicto” supone un riesgo existencial. Si nos encontramos ante un escenario con desarrollo de tecnologías de IA, entonces la “posición de conflicto” supone un riesgo existencial; pero la “posición de acuerdo” supone un beneficio exponencialmente creciente para todas las partes.

 

La difusión de la innovación

El modelo de difusión de la innovación es un proceso teorizado inicialmente por Everett Rogers (1962), y posteriormente estudiado por muchos profesionales de las ciencias socioeconómicas y la antropología. Aplicado a las condiciones actuales de desarrollo tecnológico exponencial, globalización e hiperconectividad, este modelo apunta a una rápida propagación de las tecnologías de IA; incluso en países y grupos aislados. La evolución tecnológica, al igual que otras innovaciones sociales, se propaga a través de la memética (Richard Dawkins, 1976), término este acuñado como analogía entre la evolución cultural y la evolución genética de la biología. Los memes se pueden crear y aprender, no requiriendo la creación de descendencia para su autopropagación. A pesar de las obvias diferencias entre ambos, se mantiene el principio de preservación de aquellos sistemas que son los más aptos a un entorno dado (Herbert Spencer, 1864).

 

Tecnología darwinista

Si bien la tecnología que hasta ahora hemos desarrollado presenta, pues, características darwinistas, algunas de las tecnologías de software informático lo son en su sentido más estricto.

Los algoritmos y software evolutivo generan copias con alteraciones aleatorias de sí mismas, que posteriormente se someten a test (resolución de un problema concreto). Sólo las simulaciones que mejor resultado obtienen son preservadas, produciendo un proceso de filtrado darwinista. Han probado ser herramientas muy potentes, que generan resultados que a menudo son contraintuitivos a la inteligencia humana o directamente incomprensibles, pero exitosos en la consecución de objetivos. Casos que han hecho titulares de prensa son los ya mencionados Alpha Go y Alpha Zero con el juego ancestral Go; pero también juegos con varios operadores autónomos mixtos (IA y humanos en un escenario de información incompleta), como casos recientes para competiciones de StarCraft II y póker. En estos casos, la IA inicialmente descubre las estrategias comúnmente utilizadas por nosotros y las perfecciona o aplica con mayor eficiencia, para posteriormente encontrar patrones de organización o ejecución diferentes y superiores a los que habitualmente encontramos los seres humanos.

En algunos experimentos con juegos simples Atari (basados en puntos de recompensa), el algoritmo no tiene programadas instrucciones sobre el juego al que se somete. Los objetivos son descubiertos mediante la interacción del algoritmo con el entorno del juego.

En un conflicto entre software evolutivo puramente encuadrado en el ámbito informático, el algoritmo evolucionará para lograr su objetivo, coevolucionando y compitiendo en un ecosistema de software, de manera análoga a la evolución biológica tal como es explicada en la Red Queen hypothesis[3] (aunque a velocidades electrónicas). Esto también será verdad para sistemas informáticos que interactúen con nuestro ámbito físico cotidiano mediante el Internet of Things (en este caso a velocidades limitadas por la mecánica y los sensores externos disponibles). Como plantea el trabajo en filosofía evolutiva Other Minds: The Octopus and the Evolution of Intelligent Life (Godfrey-Smith, 2016), las mentes con capacidad de aprendizaje evolucionan en interacción con otras mentes.

Este tipo de software suele demandar una gran cantidad de recursos computacionales, pero el abaratamiento de la supercomputación, previsible como resultado de la ley de Moore[4], nos sitúa en un escenario de proliferación de estas capacidades. Las empresas tecnológicas con base en EE.UU. se rigen por las leyes de exportación federales. Hoy en día existen bloqueos de tecnología para evitar la proliferación de ciertas capacidades informáticas. Aquí nos encontramos de nuevo con el problema derivado del cierre de la brecha tecnológica que se está produciendo a nivel global. El software evolutivo conlleva un riesgo inestimable, y va a proliferar.

 

La solución al conflicto de la inteligencia como recurso natural

Un viejo conflicto, un nuevo teatro

La evolución de un sistema internacional anárquico (con actores con intenciones competitivas carentes de regulación o en situación de conflicto abierto) generará un sistema inestable, que será susceptible de ser catastrófico si ciertos grupos de tecnologías y procesos socioeconómicos se vuelcan en sistemas autónomos. Se trata de procesos sociales que nos llevan a situaciones estructuralmente inestables asociados a conceptos ideológicos que no admiten un acuerdo de mínimos entre actores; en casos extremos, aquellos que buscan el control social absoluto o promueven la aniquilación. Por lo tanto, el problema es en raíz el que siempre ha sido. La diferencia fundamental es que los sistemas que pueden llevarlo a la práctica son más sutiles y fáciles de ocultar. Un grupo terrorista o un rogue state podrán desarrollar software inteligente con fines catastróficos o absolutistas en instalaciones pequeñas, sin levantar sospecha. Resolver el conflicto de la inteligencia como recurso natural es de vital importancia para la supervivencia de nuestra especie.

La inteligencia artificial es una herramienta ofensiva potente, porque busca activamente maneras de penetrar las defensas del adversario, pero al mismo tiempo sirve para proteger sistemas. La solución al problema del conflicto de intenciones (llevado al límite) es el del acuerdo de una ética global. Es posible que la voluntad de resolverlo sólo nazca a medida que las consecuencias de nuestras diferencias se hagan más y más evidentes, al ser automatizadas y proyectadas al límite. Al llevar nuestros conflictos a la esfera digital, creando un sistema de facto sometido a prueba, se mostrarán las inconsistencias lógicas internas y los factores desestabilizantes. Habrá que asegurarse de que este proceso no se desarrolla en el campo físico al mismo tiempo, sino como ejercicio teórico o como simulación previa. Si bien el caos social es inevitable desde una perspectiva matemática, sí puede ser gestionado y equilibrado. El clima es caótico, pero puede predecirse estadísticamente (aunque de momento no puede ser alterado). Nuestros cerebros y mecanismos sociales sí nos permiten modificar nuestro comportamiento y ajustarlo a la nueva información disponible y a los problemas identificados.

 

Huida hacia adelante

El potencial de esta tecnología nos obliga a proyectar planes detallados para el futuro, que sólo podrán ser llevados a cabo si son compartidos por una gran mayoría de la Humanidad. Deberemos someter a escrutinio las contradicciones y dogmatismos de nuestros modelos sociales porque estos incrementan el riesgo y la tendencia a la inestabilidad en una sociedad global crecientemente automatizada y dependiente de la IA. El resultado será una ética global que haya evolucionado para adaptarse a este ambiente, que es un conflicto de objetivos. Y al cambiar la ética global para ser más acorde a todos nosotros, la propia naturaleza del conflicto se minimiza, ya que la IA es un espejo de nuestras propias intenciones. La confianza, siendo la única vía real para la reducción de la intensidad de un conflicto, procede en su sentido más profundo de un entendimiento mutuo de las partes; aunque este debe también estar acompañado de empatía, que es una característica de la Humanidad (no inherente a la inteligencia).

La idea de abandonar el desarrollo tecnológico ante la posibilidad de grandes riesgos es tentadora cuando no se tienen todas las respuestas a los peligros, pero no es realista. Dejando de lado el coste humano que supondría un sistema social tan controlador y dogmático que impidiese efectivamente el desarrollo tecnológico a escala global, existen otros riesgos asociados a tal abandono. Las tormentas solares, asteroides o supervolcanes son eventualidades de la vida en la Tierra que tienen impacto de escala civilizacional. A ello hay que añadir nuestra propia capacidad de destrucción con la tecnología actual. Es evidente que nuestra civilización global es inestable. Un ejemplo: se ha evitado el abismo termonuclear, por escaso margen y en diferentes incidentes, en tan solo 75 años de Historia desde la creación de la bomba atómica; aun cuando sólo unas pocas facciones controlan esta tecnología…

 

Estrategias para la solución del problema de la competencia ilimitada

Por suerte, muchas de las estrategias de cooperación son inherentes a la naturaleza. Además, existen una gran variedad de estrategias propuestas por académicos de diversos campos para fomentar la cooperación en el ámbito humano.

El estudio de la cooperación es recurrente. Por ser un factor natural observable, ha captado la atención de intelectuales a través de la Historia. Es decir, surge de la curiosidad y de manera espontánea. En la Historia moderna es una rama más de la biología y la sociología, aunque su estudio se está volviendo más multidisciplinar y objeto de investigaciones psicológicas, filosóficas, físicas, de ciencias de la computación… La presente investigación es parte de esta tendencia.

Uno de los trabajos más significativos es el del científico en ciencias políticas Robert Axelrod. En su libro The Evolution of Cooperation (1984), investiga los fundamentos de la cooperación a través de la evolución de programas que simulaban poblaciones en ecosistemas con recursos limitados. Sus descubrimientos son extensos, pero algunas ideas sencillas subyacen: el denominado recurso lógico TIT for TAT, tan simple e intuitivo como acción inicial seguida de reciprocidad, quedó consolidado como principio básico para la construcción de la cooperación. Aunque algunos programas algo más complejos conseguían mejorar los resultados cooperativos, estos también estaban basados en configuraciones simples. Añadir complejidad y sofisticación a los algoritmos no es una cualidad inherentemente positiva en la mejora de la dinámica cooperativa.

Uno de los problemas inherentes a la cooperación natural es la aparición de jugadores no cooperativos. Un jugador no cooperativo compromete las estructuras cooperativas aprovechándose de un sistema que cede recursos (conscientemente o no, y generando una situación más beneficiosa para el conjunto de las partes). En la naturaleza, esto se resuelve por selección natural: un parásito puede matar al huésped, incluso eliminando su propio sustento, pero esto mismo puede provocar la supervivencia de la asociación parásito-huésped que no sea letal (un compromiso), que será entonces ventajosa frente a otras relaciones parásito-huésped que lleven a la muerte o estagnación de ambos organismos. Este sería sólo un ejemplo de las muy variadas situaciones que se encuentran en la naturaleza. Además, y afortunadamente, nuestras sociedades no se limitan a la supervivencia y a la lucha depredador-presa. Creamos nuestras propias grúas; como en el caso del buen arte, que transforma la consciencia colectiva de una generación.

En su libro Destined for War (2017), Graham Allison ofrecía mediante ejemplos históricos, 12 circunstancias que han ayudado a la distribución de poder entre naciones de manera pacífica; estudiando aquellas transiciones de la hegemonía mundial que se habían resuelto sin guerra. Es decir, transiciones en las que se había evitado la Trampa de Tucídides. Aquellos factores identificados como estabilizantes son:

  • Una autoridad central compartida puede ayudar a resolver el problema.
  • Los procesos de integración en grandes realidades económicas, políticas y de seguridad evitan comportamientos históricos conflictivos.
  • Aceptar las realidades políticas de la distribución de poder.
  • Aprovechar los momentos adecuados.
  • Compartir una base cultural común.
  • Aceptar los paradigmas de las nuevas tecnologías.
  • La Mutually assured destruction (MAD) es realmente disuasoria.
  • La guerra convencional ya no es una opción estratégica racional.
  • Los líderes de potencias tecnológicas deben estar dispuestos a arriesgarse a una guerra que pueden perder para que la disuasión funcione.
  • La interdependencia económica minimiza el riesgo de conflicto.
  • La interdependencia de alianzas puede ser una causa de escalada de conflicto.
  • La influencia externa tiene que ser comedida a la capacidad de la nación.

Estas circunstancias son útiles para el análisis histórico de conflictos entre naciones, aunque algunas de ellas se ven bloqueadas en un escenario de proliferación de armas de destrucción masiva donde la inestabilidad del sistema aumenta.

David E. Hoffman, en su crónica sobre la Guerra Fría titulada The Dead Hand (2009), registraba las aterradoras realidades de la carrera armamentística (con tecnología actualmente obsoleta) previa a la caída de la Unión Soviética. A pesar de todo, la Guerra Fría fue un éxito al derivar la competencia a otros campos no armamentísticos, como la pugna por la carrera espacial o el liderazgo académico. Un mundo libre de competencia es una utopía, pero no lo es, por ejemplo, la consecución de un mundo libre de armamento nuclear. Lo cual no sucederá automáticamente sin la eliminación de ciertas dinámicas sociales.

En cuanto a las reglas intrínsecas a la IA, existen muchos planteamientos para resolver el problema de alineamiento de valores de la IA. Los principios de Stuart J. Russell son básicos, y en sí mismos definen el problema. Para ser segura, cualquier IA debe ser creada, al menos, con estas tres características:

  • Ser puramente altruista, incluyendo instinto de supervivencia.
  • Operar con objetivos inciertos; con un grado de incerteza acerca de sus objetivos que le haga dudar de cada paso.
  • Que aprenda observando el comportamiento humano; aunque la imitación literal es desaconsejable, un aprendizaje basado en nuestra conducta es necesario.

Una IA potente sin estas características no es segura para ser liberada; y tampoco segura para ser contenida.

Una observación relevante acerca de la segunda de estas leyes es la similitud entre el dogmatismo humano y el “dogmatismo artificial”. Las ideologías con objetivos (como la supremacía religiosa) que se propagan meméticamente a través del adoctrinamiento dogmático (opuesto a la evidencia científica), presentan riesgos análogos a los de la IA no segura.

 

La creación de valor

Paradójicamente, la que va a ser nuestra tecnología computacional más desarrollada, tradicionalmente acusada de fría y vacía de esencia humana, devuelve la discusión al campo de las humanidades. El estudio filosófico de la creación, categorización y distribución de valor, que acaba conformando el orden de prioridades y la motivación psicológica (Jordan Peterson, 1999), se vuelve una pieza central en la estabilización de la IA aplicada.

En cualquier caso, los procesos psicológicos que bloquean la empatía, como el proceso denominado othering, son esfuerzos contrarios al proceso social de mejora de la seguridad internacional descrito en la presente investigación. Estos procesos sociales, aunque no impiden técnicamente todo esfuerzo de reciprocidad, sí impiden la confianza.

Se puede establecer que la estrategia última para abordar la cuestión pasa por el entendimiento del problema, y concluir que confrontar estas realidades y buscar soluciones realistas es inevitable. La sentencia del prisionero aun no está escrita: So, first of all, let me assert my firm belief that the only thing we have to fear is fear itself-nameless, unreasoning, unjustified terror which paralyzes needed efforts to convert retreat into advance. (Franklin D. Roosevelt, 1933).

Las instituciones públicas, los centros de educación y los comités de ética de las grandes corporaciones a nivel internacional deben comenzar ya a coordinarse y plantear un enfoque común, aunque sea un acuerdo de mínimos. Un ejemplo sería evitar que un camión dotado de conducción automática pueda ser utilizado en modo manual, con fines terroristas, contra una multitud. La diversidad humana complica la tarea, pero existen principios básicos comunes a todas las partes susceptibles de ser aceptadas en un marco amplio, aunque es imperativo estar alerta para identificar y anular a aquellos agentes no cooperativos con tendencias absolutistas.

La creación de valor es a menudo un proceso literario. Como muestra de ello propongo el recurso léxico economicom (y el dominio adquirido asociado www.economicom.org, así como la dirección de correo electrónico economicom@protonmail.com), para facilitar la comprensión, investigación y difusión pública del problema definido como: el riesgo de autodestrucción inherente a la automatización de nuestra civilización global mediante redes de inteligencias artificiales.

Figura 1: Mapa de Internet del Opte Project, creado por Barrett Lyon en 2003

Cada línea mapea una conexión entre dos direcciones IP (Internet Protocol). La distancia muestra el retraso en la conexión. Los colores muestran diferentes regiones del planeta.

 

Conclusiones

Las conclusiones de la investigación presente son las siguientes:

  • El paradigma de comienzos del siglo XXI presenta poderosas tecnologías de la información y de la comunicación (susceptibles de fácil y rápida difusión/proliferación), en combinación con un escenario global más interconectado (a la vez que más descentralizado), internacionalmente más anárquico y con tendencia al aumento del caos. Este paradigma supone un mayor riesgo de catástrofes eventuales.
  • El problema de la creación y control de la IA está lejos de ser resuelto. No lo está técnicamente ni tampoco socialmente. No obstante, el poder asociado a esta tecnología y la facilidad en su difusión, están provocando una dinámica de rápido desarrollo. Existe una carrera por el desarrollo de IA entre empresas y gobiernos, al tiempo que se ha creado una inercia que dificulta, y previsiblemente imposibilitará, la regulación de algunas de las aplicaciones más negativas y potencialmente catastróficas para la sociedad.
  • El potencial de la IA nos obliga a desarrollar sistemas infalibles en ciertas aplicaciones, como sistemas autónomos nucleares y nanotecnológicos. Todos los sistemas creados hasta la fecha incurren eventualmente en accidentes. Además, no tenemos una teoría de sistemas complejos que nos permita desarrollar sistemas demostradamente estables.
  • Los sistemas de redes IA evolutivos presentan aumento de la complejidad e imprevisibilidad, lo cual disminuye nuestra capacidad de entendimiento y control ante accidentes y problemas.
  • La lucha por el recurso, fundamento de la vida y la naturaleza, nos ha dado forma como especie. Algunos de los propios mecanismos biológicos que nos han posibilitado llegar hasta aquí nos ponen ahora, con el desarrollo de inteligencia artificial, en una situación potencialmente desastrosa para nuestra especie (y para el resto de la vida en la Tierra).
  • La competición y la cooperación son dos soluciones naturales al problema del conflicto por recursos. Nuestra civilización incorpora ambas y las lleva al ámbito tecnológico. La liberación de tecnología inteligente diseñada para ser competente sin límites en un ambiente competitivo, o directamente en un conflicto desregulado, presenta un riesgo inaceptable. Para tener alguna posibilidad de sobrevivir a la artificialización de la inteligencia debemos comprender la lógica tras la dinámica competición-cooperación, tanto en la naturaleza como en nuestros sistemas sociales.
  • Desde el punto de vista teórico y técnico, para desarrollar IA segura necesitamos un gran esfuerzo investigador permanente; y en todos los campos del saber humano, ya que la IA estará presente en todas partes. La estabilidad del sistema será función de la capacidad de adaptación y equilibrio que seamos capaces de incorporar a la red de inteligencias artificiales.
  • La investigación en materia de construcción de la cooperación apunta a la efectividad de mecanismos y acciones iniciales simples como primer paso.
  • El problema que he denominado economicom está condicionado por factores humanos, pero también naturales. El mapa conceptual es multidisciplinar e incorpora, al menos, conceptos de los siguientes campos: psicología (el papel de las emociones en la estrategia y el dilema del prisionero); realidades sociales (la trampa de Tucídides, el dilema de la seguridad, los procesos de difusión de la innovación, incerteza y riesgo); realidades políticas de tendencias globales (la globalización, el cierre de la brecha tecnológica entre países, el reequilibrio del poder mundial y el desarrollo tecnológico exponencial); realidades de sistemas naturales (recursos limitados, dinámicas competición-cooperación, evolución, aumento de la complejidad, inestabilidad, caos), realidades de sistemas IT (velocidad e inercia del desarrollo tecnológico, programación, autonomía), así como conceptos filosóficos (intencionalidad y valores).
  • Será necesario el desarrollo de una ética global si se quiere solucionar el problema de la automatización de la civilización. La creación de valor, que modifique nuestras prioridades e intenciones es el principal garante de nuestro éxito en el control de nuestra propia civilización; o de cualquier otro modelo de civilización posible que se enfrente a los retos de la IA.

Saúl Fernández Labraña es Analista de Seguridad en el Global Security & Emergency Command Center (GSECC) de Hewlett Packard Enterprise Co. e investigador independiente. E-mail: economicom@protonmail.com (relacionado con la investigación).

 

Bibliografía

Allen, Greg & Chan Taniel (2017), Artificial Intelligence and National Security, Belfer Center for Science and International Affairs, Harvard Kennedy School.

Allison, Graham T. (2017), Destined for War: can America and China escape Thucydides’s Trap? Scribe Publications (UK 2018 edition).

Arteaga, Félix & Ortega, Andrés (2019), Hacia un Ecosistema Español de Inteligencia Artificial: Una Propuesta, Real Instituto Elcano.

Axelrod, Robert (1984), The Evolution of Cooperation, Basic Books, Inc (UK 2019 edition).

Baum, Seth D. et al. (2018), A Model for the Probability of Nuclear War, Global Catastrophic Risk Institute.

Bidwell, Christopher A., JD & MacDonald, Bruce W. (2018), Emerging Disruptive Technologies and Their Potential Threat to Strategic Stability and National Security –, Federation of American Scientist.

Bostrom, Nick (2014), Superintelligence: Paths, Dangers, Strategies, Oxford University Press (UK 2017 edition, reprinted with corrections).

Bostrom Nick (2016), Strategic Implications of Openness in AI Development, Future of Humanity Institute, University of Oxford.

Bradshaw, Samantha & Howard, Philip N. (2017), Troops, Trolls and TroubleMakers: A Global Inventory of Organized Social Media Manipulation, Computational Propaganda Research Project, University of Oxford.

Brockhurst, Michael A. et al. (2014), Running with the Red Queen: The Role of Biotic Conflicts in Evolution, The Royal Society.

Chessen, Matt (2017), The MADCOM Future: How Artificial Intelligence Will Enhance Computational Propaganda, Reprogram Human Culture, and Threaten Democracy… And What Can Be Done about It, Atlantic Council.

Christianto, Victor (2013), On Gödel's Incompleteness Theorem, Artificial Intelligence & Human Mind, Scientific GOD Journal, Volume 4, Issue 8.

Conitzer, Vincent et al (2017), Moral Decision Making Frameworks for Artificial Intelligence, Duke University.

Cummings, Mary L. (2017), Artificial Intelligence and the Future of Warfare, Catham House.

Cummings, Mary L. et al. (2017), Artificial Intelligence and International Affairs: Disruption Anticipated, Catham House.

Curry, Oliver S. et al. (2019), Is It Good to Cooperate?: Testing the Theory of Morality-as-Cooperation in 60 Societies, Current Antropology, University of Chicago Press.

Danzig, Richard (2018), Technology Roulette: Managing Loss of Control as Many Militaries Pursue Technological Superiority, Center for a New American Security.

Darwin, Charles (1859, John Murray), On the Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life, Austral (Spanish title: El Origen de las Especies, Edición Conmemorativa) (Spain 2015, 16th edition).

Dennet, Daniel C. (1995), Darwin’s Dangerous Idea: Evolution and the Meanings of Life, Simon & Schuster (US, 1st edition).

Duersch, Peter & Servátka, Maroŝ (2007), Risky Punishment and Reward in the Prisioner’s Dilemma, Department of Economics, University of Heidelberg.

Farquhar, Sebastian et al. (2017), Existencial Risks: Diplomacy and Governance, Global Priorities Project, Future of Humanity Institute, University of Oxford.

Friedberg, Aaron L. (2005), The Future of U.S.-China Relations: Is Conflict Inevitable, International Security, Vol 30, Nº. 2, The MIT Press.

Geist, Edward & Lohn, Andrew J. (2018), How May Artificial Intelligence Affect the Risk of Nuclear War? Security 2040, RAND Corporation.

Godfrey-Smith, Peter (2016) Other Minds: The Octopus and the Evolution of Intelligence Life, William Collins (2017 UK, 1st edition, renamed).

Hoffman, David E. (2009), The Dead Hand: The Untold Story of the Cold War Arms Race and its Dangerous Legacy, Icon Books Ltd (UK 2018 edition).

Homayounnejad, Maziar (2017), Ensuring Lethal Autonomous Weapon Systems Comply with International Humanitarian Law, The Dickson Poon Transnational Law Institute, King´s College London.

Lee, Kai-Fu (2018), AI Superpowers: China, Silicon Valley, and the New World Order, Houghton Mifflin Harcourt (US, 1st edition).

Loss, Rafael (2018), Assessing Strategic Effects of Artificial Intelligence, Center for Global Security Research, Center for Global Security Research, Lawrence Livermore National Laboratory.

Myerson Roger B. (1991), Game Theory: Analysis of Conflict, Harvard University Press (US 1997 edition).

National Intelligence Council of the United States of America (2012), Global Trends 2030: Alternative Worlds, Public release.

Osoba, Osonde A. & Welser IV, William (2017), The Risks of Artificial Intelligence to Security and the Future of Work, RAND Corporation.

Pistono, Federico & Yampolskiy, Roman V. (2016), Unethical Research: How to Create a Malevolent Artificial Intelligence, The Workshops of the Thirtieth AAAI Conference on Artificial Intelligence AI, Ethics, and Society.

Rossi, Francesca (2016), Ethical Preference-Based Decision Support Systems, IBM T.J. Watson Research Center.

Rossi, Francesca (2016), Moral Preferences, IBM T.J. Watson Research Center.

Russel, Stuart J. & Fridman, Lex (2019), Stuart Russell: Long-Term Future of Artificial Intelligence, MIT 6.S099: Artificial General Intelligence, Massachusetts Institute of Technology.

Scharre, Paul (2019), Army of None: Autonomous Weapons and the Future of War, Norton (US, 1st edition).

Stockholm International Peace Research Institute, edited by Vincent Boulanin (2019), The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, Volume I, Euro Atlantic Perspectives.

Stenseth, Nils C. & Smith. Maynard J. (1984), Coevolution in Ecosystems: Red Queen Evolution or Stasis?, Departament of Biology, University of Oslo; School of Biological Sciences, University of Sussex.

Stenseth, Nils C. & Szathmáry Eörs, (2018), Example of an Existing Collaboration and Highlight of Recent Research Result, MTA Ecological Research Center, University of Oslo.

Sun Tzu (estimated 5th century BC), The Art of War, Ediciones Obelisco (Spanish title: El Arte de la Guerra), (Spain 2016, 6th edition).

Tegmark, Max & Fridman, Lex (2019), Max Tegmark: Life 3.0, MIT 6.S099: Artificial General Intelligence, Massachusetts Institute of Technology.

Thompson, John N. (1994), The Coevolutionary Process, University of Chicago Press (US, 1st edition).

Tomasik, Brian (2013), International Cooperation vs. AI Arms Race, Foundational Research Institute.

Weirich, Paul (2006), Computer Simulations in Game Theory, Philosophy Department, University of Missouri.

Woolley, Samuel C. & Guilbeault, Douglas R. (2017), Computational Propaganda in the United States of America: Manufacturing Consensus Online, Computational Propaganda Research Project, University of Oxford.

Woolley, Samuel C. & Howard, Philip N. (2017), Computational Propaganda Worldwide: Executive Summary, Computational Propaganda Research Project, University of Oxford.

Yampolskiy, Roman V. (2016), Taxonomy of Pathways to Dangerous Artificial Intelligence, The Workshops of the Thirtieth AAAI Conference on Artificial Intelligence AI, Ethics, and Society.


[1] Una Máquina de Turing es un modelo matemático que consiste en un autómata capaz de implementar cualquier problema matemático expresado por medio de un algoritmo. Es el origen conceptual de la computación electrónica moderna.

[2] El dilema del prisionero es un concepto teórico desarrollado por Merrill Flood y Melvin Dresher como parte de sus trabajos para la RAND Corporation, en 1950. Un ejemplo sería: dos sospechosos se encuentra en prisión preventiva por un crimen conjunto, por  el cual  han sido ya declarados culpables.  Cada uno de ellos puede elegir entre una condena de 10 años de cárcel sin confesión o 5 años si decide confesar. No obstante, si uno de los sospechosos confiesa el crimen y el otro no, el prisionero confeso cumplirá una pena de 15 años y el no confeso cumplirá solamente 1 año.

[3] La Red Queen hypothesis es una hipótesis evolutiva, desarrollada por Leigh Van Valen en 1973, que propone que los organismos, con el objetivo de sobrevivir mientras compiten y se enfrentan a otros organismos en un ambiente en constante cambio, deben adaptarse constantemente, evolucionando, proliferando y ganando ventaja reproductiva.

[4] La Ley de Moore, nombrada en honor a un artículo científico de Gordon Moore en 1965, es la observación de que el número de transistores de un circuito integrado denso se duplica aproximadamente cada dos años; lo cual implica un desarrollo computacional exponencial.

 

Editado por: Grupo de Estudios en Seguridad Internacional (GESI). Lugar de edición: Granada (España). ISSN: 2340-8421.

Licencia Creative Commons
Bajo Licencia Creative Commons Atribución-NoComercial-SinDerivadas 3.0 Unported