
Nos preguntábamos qué ocurriría si la IA reemplazara masivamente a los trabajadores, si aprendiera a programarse a sí misma, si engañara a sus creadores o si los gobiernos la convirtieran en un arma de vigilancia y guerra.
Este año, la pregunta ha cambiado de tiempo verbal.
Ya no es una hipótesis, es una realidad: "¿Qué hacemos ahora?".
Ahora que la IA ya es la excusa para despidos, que escribe su propio código, que detecta cuándo está siendo evaluada para alterar su conducta y que el Pentágono la considera una pieza clave de la seguridad nacional.
El choque entre el Pentágono y Anthropic
El reciente conflicto entre el Departamento de Defensa y la empresa Anthropic es el síntoma más claro de nuestra falta de preparación.
En julio, ambas partes acordaron integrar a Claude (la IA de Anthropic) en operaciones militares, bajo dos condiciones innegociables, nada de vigilancia masiva ni de armas autónomas letales.
Poco después, el Pentágono calificó estas restricciones de "intolerables", viéndolas como un intento de una empresa privada por controlar operativamente al ejército.
El punto de quiebre fue el análisis de datos comerciales masivos, aunque legalmente no se considere "vigilancia", Anthropic sabía que, en la práctica, permitía un monitoreo sin precedentes sobre la ciudadanía.
Del desacuerdo al "asesinato corporativo"
Lo que pudo ser una simple cancelación de contrato escaló a una guerra abierta.
Pete Hegseth, Secretario de Defensa, no solo cambió a Anthropic por OpenAI, sino que declaró a la empresa un "riesgo para la cadena de suministro".
Esta etiqueta es una sentencia de muerte comercial, prohibiría a gigantes como Amazon o Nvidia hacer negocios con ellos.
"El Secretario de Defensa anunció su intención de cometer un asesinato corporativo", señaló Dean Ball, exasesor de IA de la Casa Blanca.
El mensaje para el sector privado es aterrador, o te alineas con nuestras condiciones, o te borramos del mercado.
¿Herramienta o "segunda especie"?
Para entender el conflicto, hay que entender qué es la IA.
A diferencia de un freno o un interruptor, la IA toma decisiones basadas en contextos.
Anthropic diseñó a Claude con una "constitución interna" inspirada en principios filosóficos, priorizando la ética incluso por encima de las órdenes directas de sus creadores.
La administración Trump, por el contrario, exigió un modelo sin restricciones bajo el estándar de "cualquier uso legal".
Pero esto presenta tres problemas críticos:
- La interpretación de la ley: El gobierno a menudo opera en zonas grises o intenta estirar la legalidad mediante órdenes ejecutivas.
- Leyes obsoletas: Las normativas actuales no prevén la capacidad de la IA para unir datos dispersos y crear perfiles invasivos de la vida privada.
- El factor humano: "Cualquier uso legal" termina significando, en la práctica, "lo que el funcionario de turno decida".
Ideología y Silicon Valley
El trasfondo no es solo técnico, es profundamente político.
Figuras como Elon Musk y aliados del movimiento MAGA han atacado a Anthropic acusándola de tener un sesgo "progresista" o "izquierdista".
Mientras tanto, OpenAI parece haber ganado la confianza del gobierno, quizás ayudado por los 25 millones de dólares que su presidente, Greg Brockman, donó a causas pro-Trump.
Si el criterio para usar o destruir una empresa de IA es su alineación ideológica con el gobierno de turno, estamos ante un precedente peligroso.
¿Qué pasará en 2028 si cambia el signo político? ¿Se purgarán los sistemas de nuevo?
El vacío legal
El problema de fondo es que el Congreso ha abandonado su responsabilidad, no existen leyes claras que definan los límites de la IA en el estado de seguridad nacional.
Como advierte la congresista Elissa Slotkin, el miedo al desconocimiento técnico y la influencia del dinero político han paralizado cualquier intento de regulación seria.
La IA tiene el potencial de ser un "país de genios", pero en manos de un poder sin contrapesos, podría convertirse en un sistema de vigilancia total.
El Estado-nación se redefine con cada gran invento.

