¿Podría la IA ayudar o perjudicar a la seguridad nacional? Informe británico advierte implicaciones
Según los expertos, los responsables de la toma de decisiones podrían no ser conscientes de los peligros de confiar en la información procedente de la inteligencia artificial
Un nuevo informe encargado por el gobierno británico advierte que la inteligencia artificial (IA) podría tener profundas implicaciones para la seguridad nacional, incluso plantear una multitud de riesgos.
El informe sostiene que la inteligencia artificial es una herramienta valiosa para ayudar a los altos cargos del gobierno y los servicios de inteligencia a tomar decisiones. Pero también advierte que podría dar lugar a imprecisiones, confusión y otros peligros.
Agrega que hay que capacitar a los altos funcionarios para que sepan detectar problemas y que es fundamental que los sistemas de inteligencia artificial se vigilen cuidadosamente y se supervisen de forma continua para garantizar que no den lugar a más sesgos y errores.
Por ejemplo, pueden surgir problemas porque algunos funcionarios crean que la IA es mucho más capaz y segura de lo que es en realidad. De hecho, también advierte que la inteligencia artificial suele trabajar con probabilidades y puede equivocarse mucho.
El informe además señala que optar por no utilizar la IA conlleva sus propios riesgos, como la pérdida de patrones en los datos que podrían ser fundamentales para proteger la seguridad de las personas.
Pero los enormes riesgos de su uso también implican que podría haber más sesgos e incertidumbre. “Existe una necesidad crítica de un diseño cuidadoso, una supervisión continua y un ajuste regular de los sistemas de IA para mitigar el riesgo de amplificar los sesgos y errores humanos en la evaluación de la inteligencia”, explica el informe.
Estas son las conclusiones del nuevo informe del Instituto Alan Turing, la organización nacional británica de investigación sobre IA. Fue encargado por agencias de inteligencia británicas, la Organización Conjunta de Inteligencia (JIO) y el Cuartel General de Comunicaciones del Gobierno (GCHQ).
El informe oficial no dio ninguna información sobre la cantidad de IA que las agencias de inteligencia utilizan actualmente, ni sobre el grado de madurez de dicha tecnología. No obstante, insta a que se empiece a trabajar de inmediato para contrarrestar los peligros potencialmente mayores, a fin de garantizar que cualquier implementación futura de la IA se haga de forma segura.
El gobierno británico afirmó que estudiaría las recomendaciones del informe y que ya estaba trabajando para combatir los posibles peligros que podría acarrear esta tecnología.
“Ya estamos tomando medidas decisivas para garantizar que aprovechemos la inteligencia artificial de forma segura y eficaz, como la celebración de la Cumbre inaugural sobre Seguridad de la Inteligencia Artificial y la reciente firma de nuestro Pacto por la Inteligencia Artificial en la Cumbre para la Democracia de Corea del Sur”, declaró Oliver Dowden, viceprimer ministro.
“Estudiaremos detenidamente las conclusiones de este informe para informar a los responsables de la seguridad nacional y que hagan el mejor uso de la IA en su labor de protección del país”.
El informe lo redactó el Centro de Tecnologías Emergentes y Seguridad (CETaS), con sede en el Instituto Alan Turing. Los funcionarios señalaron la importancia de que los responsables de la toma de decisiones se aseguren de que comprenden la naturaleza de la información obtenida mediante inteligencia artificial.
“Nuestra investigación reveló que la IA es una herramienta fundamental para la comunidad de análisis y evaluación de inteligencia. Pero también agrega nuevas dimensiones de incertidumbre, que deben comunicarse de manera eficaz a quienes toman decisiones de alto riesgo basadas en conocimientos enriquecidos por la IA”, afirmó Alexander Babuta, director del Centro de Tecnologías Emergentes y Seguridad del Instituto Alan Turing.
“Como instituto nacional de IA, seguiremos apoyando a la comunidad de inteligencia del Reino Unido con investigación independiente y basada en pruebas, para maximizar las muchas oportunidades que la IA ofrece para ayudar a mantener la seguridad del país”.
El GCHQ, que encargó conjuntamente el informe, comunicó que veía un gran potencial en la IA, pero que también era importante trabajar en usos seguros de la misma.
“La IA no es nueva para el GCHQ ni para la comunidad de evaluación de inteligencia, pero sí lo es el ritmo acelerado del cambio”, afirmó Anne Keast-Butler, directora del GCHQ. “En un mundo cada vez más conflictivo y volátil, necesitamos seguir explotando la IA para identificar amenazas y riesgos emergentes, junto a nuestra importante contribución para garantizar la seguridad de la IA”.