Fue la duodécima hora del ciclo de planificación cuando nuestro oficial principal de planes se situó entre una pizarra y un mapa, se puso un auricular y comenzó a describir una operación defensiva compleja. Habló sobre el esquema de maniobra en secuencia: terreno, rutas, líneas de fase, objetivos, posiciones de apoyo de fuego, transiciones, ramas. Los oficiales de inteligencia y apoyo de fuego intervinieron con detalles donde sus funciones de combate estaban involucradas. Durante un período de veinte minutos, una herramienta de transcripción capturó cada palabra. Treinta minutos después, el personal tenía una orden de operaciones preliminar de brigada en el formato doctrinal correcto, redactado no por ningún oficial en la sala, sino por una herramienta de inteligencia artificial entrenada en la estructura de las órdenes de operaciones del Ejército, trabajando a partir de la transcripción de lo que los humanos habían dicho realmente.
Este uso de inteligencia artificial caracterizó nuestra rotación en el Centro de Entrenamiento de Listos para el Combate Conjunto en Fort Polk, Luisiana. Los tres servimos en el personal del Equipo de Combate de Brigada 3, División Aerotransportada 101, los Rakkasans. A lo largo de la rotación, integramos herramientas de inteligencia artificial en el proceso de toma de decisiones militares, la metodología de planificación de siete pasos que utiliza el Ejército para convertir la guía de los cuarteles generales superiores en una orden ejecutable. Los resultados fueron tres órdenes de operaciones de brigada completas, cada una producida en aproximadamente veintitrés horas, cumpliendo con la regla de un tercio/dos tercios que reserva dos tercios del tiempo de planificación para las unidades subordinadas, un ritmo que supera significativamente lo que logran la mayoría de los mandos de brigada bajo la presión de una rotación en un centro de entrenamiento de combate.
El resultado no es el hallazgo. Lo importante es lo que creó la línea de tiempo comprimida: tiempo cognitivo. Tiempo para que el comandante y el personal realicen el trabajo conceptual que ninguna máquina puede realizar adecuadamente: entender el problema, visualizar la lucha, aceptar el riesgo y decidir. La inteligencia artificial dentro de un puesto de mando se emplea más adecuadamente como apoyo artificial al personal, nunca como un substituto del juicio de mando. Tratarlo como algo más rompe la doctrina e invita al riesgo operativo. Nuestra rotación demostró ambas partes de ese argumento: donde la inteligencia artificial fortalece al personal, y donde, si se le permite pasar su límite adecuado, corrompería el proceso mismo que se supone que debe apoyar.
Donde la IA Ganó su Lugar
El doctrina del Ejército traza claramente la línea relevante. La Publicación de Doctrina del Ejército 5-0, “El Proceso de Operaciones”, establece que la planificación es impulsada por el comandante y respaldada por el personal. El comandante posee la dimensión conceptual: enmarcar el problema, definir el estado final, desarrollar el enfoque operativo, seleccionar la operación decisiva, aceptar el riesgo. El personal posee el trabajo de apoyo: estimaciones, sincronización, comparación de opciones, convertir la orientación del comandante en productos ejecutables. Donde pertenece la inteligencia artificial en un puesto de mando, y donde no, sigue exactamente esa línea. Tanto el Mayor Michael Zequeira como el Coronel Jason Adler, escribiendo en Military Review, han argumentado en gran medida el mismo punto: que el valor militar más inmediato de la inteligencia artificial radica en aligerar la carga de los mandos sin romper el papel humano en el juicio.
Durante nuestra rotación, la IA brindó el mayor valor en cinco funciones de planificación, cada una caracterizada por una alta labor clerical y un juicio conceptual limitado.
El primero fue durante la recepción de la misión. Después de recibir nuestra orden de operaciones a nivel de división, la introdujimos y los productos de apoyo en una herramienta de IA que mostraba tareas específicas e implícitas, restricciones, relaciones de mando y fechas límite críticas. La salida requería interpretación y validación humana, pero la extracción cruda era más rápida y menos propensa a errores que el escaneo manual. Publicamos una orden de advertencia completa para los batallones subordinados dentro de una hora de recibirla, superando el rendimiento estándar de la brigada para una orden de advertencia que las unidades subordinadas pueden ejecutar realmente.
El segundo fue durante el análisis de la misión, donde empleamos una herramienta habilitada por IA separada que procesaba documentos, extraía factores de análisis de la misión y generaba salidas estructuradas para la refinación del personal. Las tareas esenciales aún requerían validación humana. Las suposiciones aún requerían juicio humano. Los riesgos aún requerían evaluación humana. Lo que cambió fue el punto de partida: el oficial de operaciones ingresó a la reunión de análisis de la misión con un producto de trabajo en mano en lugar de una carpeta de notas marcadas. Un personal que trabaja desde un proyecto estructurado bajo un plazo se comporta fundamentalmente diferente que uno que mira párrafos vacíos en la hora cuatro de un reloj de veinticuatro horas.
El tercer caso de uso que observamos, y el que creemos más merece la atención del Ejército, fue la traducción de voz a doctrina. Los comandantes y planificadores naturalmente no piensan en prosa doctrinal de cinco párrafos terminada. El pensamiento táctico emerge verbalmente, en narrativa, corrección y refinamiento. El trabajo tradicional del personal fuerza a ese pensamiento a través de un cuello de botella: alguien debe registrarlo, interpretarlo, convertirlo en estructura doctrinal y construir la orden de operaciones, órdenes de advertencia, tareas para unidades subordinadas, matriz de sincronización y cronograma a partir de él. El proceso consume horas e introduce fricción de traducción en cada paso. La intención del comandante se pierde en la traducción. Sucede en los cuarteles generales de todo el Ejército todos los días.
Lo que hizo la IA, trabajando a partir de la transcripción del recorrido verbal del oficial de planes, fue tomar lo que habíamos dicho realmente y ponerlo en el formato requerido por el Ejército. La máquina no inventó el concepto táctico. Preservó y formalizó el pensamiento de mando, reduciendo la brecha entre cómo hablan los comandantes y cómo la doctrina exige que los cuarteles generales publiquen.
La cuarta función donde la IA demostró ser más valiosa llegaba después de que se definía el esquema de maniobra, cuando una herramienta de IA redactaba órdenes de advertencia, párrafos de órdenes estructuradas, creaba cronogramas y producía borradores iniciales de herramientas de sincronización. En la mayoría de los cuarteles generales, la creación del concepto no es donde termina el trabajo del producto, es donde se acelera la elaboración del producto. Cada refinamiento cascada en cambios en cronogramas, tareas, matrices y materiales de ensayo. Los cuarteles generales manuales dedican una energía desproporcionada a mantener sus propios productos alineados entre sí. Utilizar la IA para absorber esa agitación nos permitió dedicar nuestra energía a evaluar la calidad del plan en lugar de mantener los mecanismos del plan.
Finalmente, el caso de uso más subestimado requirió que la máquina interrogara en lugar de decidir. Nuestro oficial ejecutivo de brigada incitó a una herramienta de IA a generar preguntas puntiagudas a través de las funciones de combate, como cuál es nuestra mayor vulnerabilidad durante un paso adelante de líneas, por ejemplo, o qué sucede con el esquema de fuegos si el esfuerzo principal rompe treinta minutos antes, y llevó esas preguntas a la reunión de sincronización. La máquina mejoró el rigor sin desplazar el juicio. Funcionó como un entrenador de personal, no como un comandante de personal.
Donde la IA Se Mantuvo en Segundo Plano
Durante el desarrollo de cursos de acción, la IA se mantuvo en un segundo plano. Esto no fue un fracaso de integración, sino la relación doctrinal correcta, y fue el hallazgo más importante de la rotación. El desarrollo de cursos de acción depende de la imaginación táctica, la alfabetización doctrinal, la apreciación del terreno, la comprensión del enemigo y el sentido del riesgo aceptable del comandante. Es la etapa en la que el cuartel general decide qué es decisivo, qué es moldeador, dónde se concentra el poder de combate, cómo se crea el ritmo, qué hace la reserva. Nuestro oficial de planes no le pidió a la IA que generara cursos de acción. Se paró en el mapa con el comandante y el oficial de operaciones y construyó los conceptos a mano, contra el terreno, contra la disposición del enemigo, contra la intención del comandante. La IA estaba en la sala. La IA no fue la autora.
El mismo límite se aplicó en cada nodo de autoridad del comandante. La IA no se usó para determinar la intención del comandante, seleccionar la operación decisiva, autorizar fuegos, aceptar riesgos o firmar órdenes. Estas funciones no son delegables a máquinas, no por prohibición reglamentaria, sino porque la responsabilidad de mando no es una tarea administrativa. Es la función por la cual se comisiona a un oficial.
El Riesgo que el Entorno de Entrenamiento Ocultó
La velocidad sin gobernanza produce una confusión más rápida, no mejores planes. Incluso en una rotación disciplinada, observamos varios modos de falla. Tres merecen especial atención de cualquier brigada que esté considerando la adopción.
El más peligroso es lo que hemos llegado a llamar confianza oculta. A veces, los modelos de IA generativos producen salidas que están gramaticalmente pulidas, correctas estilísticamente y factualmente incorrectas. No alertan sobre estos errores. No saben que están equivocados. A lo largo de nuestro ciclo de planificación, observamos designaciones de unidades incorrectas, líneas de fase invertidas, nombres de medidas de control fabricados que sonaban plausibles pero no existían en la orden original, y cálculos tiempo-distancia desviados en treinta a sesenta minutos. Cualquiera de estos errores, publicados en una orden de operaciones y ejecutados por una unidad subordinada, podría resultar en fuego amigo, un encuentro perdido o una ruptura en la sincronización en un momento crítico. Nuestros jefes de sección atraparon estos errores porque se negaron a tratar las salidas de IA como validadas. Ese resultado reflejó entrenamiento y disciplina, no suerte. Un párrafo pulido no es un párrafo correcto. Una matriz limpia no es una matriz aprobada. La profesionalidad del personal en un cuartel general habilitado por IA se mide menos por la velocidad de producción que por el rigor de validación, una expectativa consistente con el marco del Departamento de Defensa para la IA responsable, que requiere que los sistemas habilitados por IA sigan siendo rastreables, confiables y gobernables, con los humanos responsables de su uso.
El segundo modo de falla es arquitectónico. Nuestras herramientas operaron en un entorno de entrenamiento benigno, conectado y no clasificado. No necesariamente son desplegables en un entorno operativo clasificado y conflictivo. Los modelos comerciales alojados en la nube requieren conectividad que el Ejército puede no tener en condiciones denegadas, degradadas, intermitentes o limitadas. También aumentan los riesgos de que información clasificada se exponga a sistemas no seguros si se usan descuidadamente. Las herramientas generativas de red segura emergentes del Ejército son un punto de partida, pero la fuerza todavía necesita modelos resistentes, desplegables en la sede o en el campo de batalla, que operen en un espectro electromagnético disputado. Un cuartel general que depende de un servicio de software comercial para producir órdenes ha introducido una dependencia logística tan crítica para las operaciones como el agua o el combustible. La pregunta de planificación en combate no es solo si la IA funciona, es si funciona cuando el enemigo está tratando activamente de evitar que funcione.
El tercer modo de falla es estratégico. Las fuerzas rusas y chinas enfrentan el mismo problema de tiempo cognitivo que las fuerzas estadounidenses. Sus cuarteles generales leen volúmenes comparables de orientación superior, construyen productos comparables, enfrentan fricciones clericales comparables. Ambos han priorizado el desarrollo de comandos y controles habilitados por IA durante varios años. Si integran la IA en sus ciclos de planificación más rápido o de manera más efectiva que nosotros, la ventaja de ritmo que observamos en Fort Polk se evaporará. La pregunta relevante no es si la IA cambiará la planificación táctica. Es cuál fuerza aprenderá a gobernarla primero, y la disciplina de gobernanza relativa, más que la velocidad relativa de adopción, influirá en qué fuerza presente problemas más rápidos y mejor sincronizados a la otra al comienzo del próximo conflicto.
Lo que Esto Significa para el Ejército
La conclusión general no es que la IA pueda reemplazar el proceso de toma de decisiones militares. Es que la IA puede hacer que ese proceso sea más ejecutable en condiciones modernas al reducir la fricción en las partes del trabajo del personal que consumen tiempo sin agregar valor conceptual proporcional. Cuatro imperativos siguen para los comandantes de brigada y los personales que adoptan estas herramientas ahora.
Primero, emplear la IA de manera agresiva en la recepción de la misión, elaboración de análisis de la misión, traducción de voz a doctrina, producción de órdenes y equipos de oposición. Estas son las etapas donde el trabajo de la máquina brinda el mayor retorno de tiempo cognitivo para los humanos, y donde la consolidación clerical se traduce más directamente en ventaja de planificación.
Segundo, prohibir la autoría IA de la intención del comandante, la operación decisiva o cualquier producto de autorización de aprobación sin validación humana explícita. Codificar estos límites en los procedimientos operativos estándar de la unidad antes de que se ponga a prueba a presión operativa. Antes, no después.
Tercero, establecer la disciplina de gobernanza de productos como requisito previo para la adopción de IA, no como un refinamiento posterior. Una única fuente de verdad, un proceso de control de versiones y validadores nombrados por clase de producto son las condiciones bajo las cuales la integración de la IA tiene éxito. Una brigada que adopta la IA sin tener estos elementos en su lugar está peor que una que no la adopta en absoluto. Gobernanza primero. Herramientas después.
Cuarto, asumir que la conectividad fallará. Identificar qué herramientas de IA funcionan en condiciones degradadas y cuáles no, y ensayar los procesos de planificación sin ellas. Un personal que no puede planificar sin sus herramientas no ha adoptado la IA. Se ha vuelto dependiente de ella.
El Ejército institucional debe avanzar en paralelo. La educación militar profesional, el Colegio de Estado Mayor y General, los cursos de carrera de capitanes, los cursos previos al mando, deben tratar la gobernanza de la IA como parte del plan de estudios central en lugar de material electivo, cubriendo la disciplina inmediata, la validación de salida y los modos de falla específicos identificados anteriormente. El Manual de Campo 5-0, “Planificación y Producción de Órdenes”, eventualmente requerirá un capítulo sobre procesos de personal habilitados por IA. El Ejército no debería esperar una década de práctica emergente antes de codificar lecciones que la fuerza operativa ya está generando.
Lo que observamos en Fort Polk no fue un mando artificial, ni el reemplazo del juicio táctico. Fue la preservación del tiempo para el juicio táctico. La IA pertenece al proceso de toma de decisiones militares si, y solo si, fortalece la capacidad de comando del comandante y la capacidad de apoyo del personal. Cuando se delimita adecuadamente, hace precisamente eso.
Capitán Chris Lajeunesse es un oficial de infantería del Ejército de los Estados Unidos que se desempeña como planificador de operaciones de brigada y oficial de innovación para la 3ra Brigada Móvil, 101 División Aerotransportada. El Capitán Lajeunesse es un gradu





