La Inteligencia Artificial en Defensa: ¿Una Herramienta Transformadora o un Riesgo Inminente?

La Inteligencia Artificial en Defensa: ¿Una Herramienta Transformadora o un Riesgo Inminente?

El Pentágono apuesta por la inteligencia artificial: entre oportunidades y desafíos éticos

En un mundo donde la información es poder, el Departamento de Defensa de Estados Unidos (DCSA) ha decidido innovar en la manera de gestionar los riesgos y asegurar datos confidenciales. Al frente de esta transformación, David Cattler, director de la Agencia de Contrainteligencia y Seguridad de Defensa, aplica lo que él llama “la prueba de la mamá”: antes de indagar en la vida de un ciudadano, pregunta a sus empleados si sus madres aprobarían esa decisión. Este simple criterio de sentido común simboliza el enfoque ético que busca mantener al incorporar herramientas de inteligencia artificial (IA).

Con la responsabilidad de procesar millones de autorizaciones de seguridad anualmente, la DCSA recurre a tecnologías avanzadas para organizar información. Estas herramientas, lejos de los modelos llamativos como ChatGPT, se centran en funciones prácticas como la priorización de amenazas y el mapeo de riesgos. Por ejemplo, un sistema innovador permite trazar riesgos en tiempo real, ayudando a tomar decisiones rápidas y estratégicas en la protección de instalaciones clave. Sin embargo, Cattler insiste en que estas herramientas deben ser transparentes: «No podemos trabajar con cajas negras; necesitamos entender cómo operan y garantizar su objetividad».

Pero este avance no está exento de riesgos. Los expertos advierten que, aunque la IA puede organizar datos existentes de manera eficiente, su uso en decisiones críticas podría ser problemático. Matthew Scherer, del Centro para la Democracia y la Tecnología, señala que estos sistemas aún presentan errores básicos, como confundir a personas con el mismo nombre. Además, si se confía demasiado en la automatización, podrían surgir sesgos que inclinen decisiones injustamente.

La privacidad es otra preocupación. Las empresas contratadas por el Pentágono manejan algoritmos que procesan datos sensibles, lo que podría resultar en violaciones catastróficas si no se gestionan con cuidado. Casos anteriores en la industria tecnológica muestran cómo datos privados han sido filtrados por error, un escenario que Cattler busca evitar a toda costa.

El desafío no solo radica en la tecnología, sino también en los valores que reflejan estos algoritmos. Cattler admite que los estándares sociales evolucionan, y lo que antes era considerado aceptable o inaceptable ahora puede ser cuestionado. La agencia trabaja para eliminar prejuicios históricos, como los relacionados con la orientación sexual o las adicciones, que en otro tiempo habrían afectado negativamente las decisiones sobre autorizaciones.

En este complejo panorama, el Departamento de Defensa enfrenta una paradoja: aprovechar el poder de la IA para proteger mejor a la nación, mientras navega por un terreno ético donde los errores podrían tener consecuencias profundas. A medida que las herramientas evolucionan, una cosa queda clara: la confianza en estas tecnologías no puede estar desligada de la supervisión humana constante y los valores fundamentales de justicia y transparencia.