Domingo 18 DE Noviembre DE 2018
Ciencia

Cómo la inteligencia artificial puede llevarnos a una guerra nuclear

La inteligencia artificial tiene el potencial de comprometer hacia 2040 los cimientos de la disuasión nuclear, basados en la mutua destrucción asegurada y el temor a un ataque de respuesta.

Fecha de publicación: 25-04-18
Por: Europa Press
Más noticias que te pueden interesar
Si bien las máquinas del fin del mundo controladas por IA (Inteligencia Artificial) se consideran improbables, los riesgos para la seguridad nuclear radican en su potencial para alentar a los humanos a asumir riesgos potencialmente apocalípticos, según un nuevo estudio de la Corporación RAND.

Durante la Guerra Fría, la condición de mutua destrucción asegurada mantuvo una paz incómoda entre las superpotencias asegurando que cualquier ataque se enfrentaría con una devastadora represalia. La destrucción mutua asegurada fomentó la estabilidad estratégica al reducir los incentivos para que cualquiera de los dos bloques adoptara medidas que pudieran derivar en una guerra nuclear.

La nueva publicación RAND dice que en las próximas décadas, la inteligencia artificial tiene el potencial de erosionar la condición de destrucción mutua asegurada y socavar la estabilidad estratégica. La mejora de las tecnologías de sensores podría introducir la posibilidad de que las fuerzas de represalia, como los misiles submarinos y móviles, puedan ser atacados y destruidos.

Según los investigadores, las naciones pueden sentirse tentadas a buscar la capacidad de primer ataque como medio de ganar poder de negociación sobre sus rivales, incluso si no tienen la intención de llevar a cabo un ataque. Esto socava la estabilidad estratégica porque incluso si el estado que posee estas capacidades no tiene la intención de usarlas, el adversario no puede estar seguro de eso.

“La conexión entre la guerra nuclear y la inteligencia artificial no es nueva, de hecho ambas tienen una historia entrelazada”, dijo Edward Geist, coautor del documento e investigador de políticas asociadas en RAND Corporation, una organización de investigación no partidista sin fines de lucro. “Gran parte del desarrollo inicial de la IA se hizo en apoyo de los esfuerzos militares o con objetivos militares en mente”.

Dijo que un ejemplo de este tipo de trabajo fue el Experimento de planificación adaptativa con capacidad de supervivencia en la década de 1980, que buscaba utilizar AI para traducir los datos de reconocimiento en planes de objetivos nucleares.

En circunstancias fortuitas, la inteligencia artificial también podría mejorar la estabilidad estratégica mejorando la precisión en la recopilación y análisis de inteligencia, según el documento. Si bien la inteligencia artificial puede aumentar la vulnerabilidad de las fuerzas de segundo ataque, la mejora de los análisis para monitorear e interpretar las acciones adversas podría reducir el error de cálculo o la mala interpretación que podría llevar a una escalada involuntaria.

Los investigadores dicen que con las mejoras futuras, es posible que los sistemas de inteligencia artificial desarrollen capacidades que, aunque falibles, serían menos propensas a errores que sus alternativas humanas y, por lo tanto, se estabilizarían a largo plazo.

“Algunos expertos temen que una mayor dependencia de la inteligencia artificial pueda conducir a nuevos tipos de errores catastróficos”, dijo Andrew Lohn, coautor del trabajo e ingeniero asociado de RAND. “Puede haber presión para usar AI antes de que esté tecnológicamente madura, o puede ser susceptible de subversión adversaria. Por lo tanto, mantener la estabilidad estratégica en las próximas décadas puede ser extremadamente difícil y todas las potencias nucleares deben participar en el cultivo de instituciones para ayudar a riesgo”.

Los investigadores de RAND basaron su perspectiva en la información recopilada durante una serie de talleres con expertos en asuntos nucleares, ramas gubernamentales, investigación sobre IA, política de IA y seguridad nacional.

La perspectiva es parte de un esfuerzo más amplio para visualizar los desafíos críticos de seguridad en el mundo de 2040, considerando los efectos de las tendencias políticas, tecnológicas, sociales y demográficas que darán forma a esos desafíos de seguridad en las próximas décadas.

Etiquetas: