Qué uso busca asignarle el Ejército de EE. UU. a la inteligencia artificial.

El CENTCOM ha contratado recientemente a su primer asesor de IA, el antiguo director de Google Cloud AI.

Qué uso busca asignarle el Ejército de EE. UU. a la inteligencia artificial

Imagen ilustrativa

Alexey Kotelnikov / Legion-Media

El Comando Central del Ejército de EE. UU. (CENTCOM) ve a la inteligencia artificial (AI) como una herramienta para el rápido procesamiento de los datos. Esto significa que la IA no estaría facultada para adoptar decisiones a cargo de los humanos, sino que su actividad apoyaría a los líderes en la toma de estas.

En su empeño por salvaguardar la seguridad nacional de EE. UU. en el Medio Oriente y el Sudeste Asiático, el CENTCOM ha contratado como su primer asesor de IA al Dr. Andrew Moore, exdirector de Google Cloud AI, que trabajará estrechamente con Schuyler Moore, directora de tecnología de esa entidad.

En una entrevista con Fox News, ambos acordaron este viernes que el Ejercito tiene como objetivo que los humanos sean los responsables de tomar las decisiones empleando la IA para evaluar cantidades masivas de datos que faciliten su trabajo. «Existe una gran preocupación, con razón, sobre las consecuencias de las armas autónomas», señaló Andrew. Sin embargo, «nunca escuché a nadie del Ejército de EE. UU. sugerir que sería una buena idea crear armas autónomas», subrayó.

Por su parte, Schuyler Moore manifestó que los militares estadounidenses ven a la IA como un «interruptor de luz» que ayuda a dar sentido a los datos y orientar a los decisores en la dirección correcta. Así mismo, hizo hincapié en que el Pentágono considera que «debe y siempre tendrá a un humano al tanto para tomar una decisión final». «Ayúdanos a tomar una mejor decisión, no tomes la decisión por nosotros», resumió.

Schuyler Moore puso como ejemplo de la utilidad de la IA su capacidad de analizar en un tiempo relativamente breve «toneladas» de información de inteligencia que, de otra forma, requerirían de muchas horas de trabajo de múltiples analistas. Esto podría tener su impacto en la interpretación de patrones sospechosos y amenazantes vinculados al trasiego de armas o el tráfico aéreo, ayudando a discernir más rápidamente qué tráfico es «normal» y cuál está fuera de la norma.

El Dr. Andrew Moore también insistió en que algunos países hostiles a EE. UU. se están volviendo «aterradoramente buenos» en el uso de IA para realizar vigilancias ilegales. «Tenemos que estar preparados para contrarrestar este tipo de técnicas de vigilancia agresivas contra Estados Unidos», concluyó.

Comentarios