Pentágono da ultimátum a estrella de IA: acepta o pierdes todo

26/02/2026 12:45 | 191 visitas
Pentágono da ultimátum a estrella de IA: acepta o pierdes todo

El ultimátum que sacude el mundo de la IA

Imagina que eres el jefe de una empresa puntera en Inteligencia Artificial y te sientas con el Secretario de Defensa de Estados Unidos. La charla es amable, pero al final te dicen: "O aceptas nuestras condiciones para el uso militar de tu tecnología, o te quedas fuera". Eso es justo lo que le pasó a Dario Amodei, CEO de Anthropic, en una reunión reciente con Pete Hegseth.

El plazo apremia: hasta las 17:01 del viernes hora de la costa este. Si no hay acuerdo, el Pentágono tirará de herramientas potentes para obligarles. Estamos hablando de un contrato militar de hasta 200 millones de dólares que podría evaporarse.

Qué hay detrás de esta tensión

Anthropic es una startup de IA respaldada por gigantes como Amazon y Google. Su modelo estrella, Claude, es de los más avanzados, lo que se llama "frontier" o de vanguardia, capaz de tareas complejas que rozan lo humano.

El contrato con el Departamento de Defensa empezó el julio pasado para desarrollar capacidades de IA en entornos clasificados, es decir, secretos militares. Anthropic era la única autorizada entonces, aunque ahora entran otros como el Grok de Elon Musk.

Pero hay un bloqueo: el gobierno quiere más acceso a Claude para seguridad nacional, y Anthropic tiene límites éticos, como no en armas autónomas ni vigilancia masiva a ciudadanos.

Las armas legales del Pentágono

Aquí entra lo heavy: la Ley de Producción para la Defensa, o DPA por sus siglas en inglés. Es una norma de la Guerra de Corea que da al presidente poderes amplios sobre empresas privadas en emergencias nacionales. Normalmente se usa para fabricar armas o material, pero ahora la quieren para forzar términos en un contrato de software.

Otra baza es declarar a Anthropic "riesgo en la cadena de suministro". Eso es como una lista negra: otras compañías no podrían trabajar con ellos por miedo a sanciones. Se ha usado contra Huawei, la china de telecomunicaciones, y cortó sus lazos con gigantes como Google.

Expertos dicen que esto es territorio inexplorado. Nunca se vio la DPA como arma de negociación, ni vetos así a empresas yankis puras.

¿Por qué ahora y qué dice Hegseth?

Pete Hegseth ve la IA como una carrera armamentística de guerra. En un discurso criticó las IAs "woke", es decir, las que priorizan diversidad o equidad por encima de la eficacia militar. Dijo claro: "No usaremos modelos que no sirvan para ganar guerras".

La reunión fue cordial, Amodei dio las gracias por el servicio del ejército. Pero el mensaje fue firme: coopera o sufre consecuencias existenciales para la empresa.

¿En qué te afecta esto a ti?

Si eres un usuario normal de apps con IA, como chatbots o asistentes, esto podría ralentizar innovaciones. Anthropic compite con OpenAI o Google; si cae su contrato, otros tomarán el relevo, pero con más control gubernamental.

Para emprendedores, es una alerta: hacer negocio con el estado puede ser riesgoso. Y globalmente, acelera la carrera IA-militar, donde China o Rusia no dudan. Tu privacidad en IA podría peligrar si gana la mano dura.

Mi opinión personal

Me parece preocupante este tira y afloja. Anthropic defiende principios éticos, y forzarles con leyes de guerra en software huele a exceso. Podría asustar a innovadores y frenar el avance libre de la IA. Pero entiendo al Pentágono: en un mundo tenso, no querrán quedarse atrás. Ojalá negocien sin dramas, que al final perdemos todos si se polariza más. ¿Tú qué piensas?

Multimedia

[

[

[

Fuente original: businessinsider.com

Comentarios