Claude, la IA que planta cara al Pentágono por vigilancia y armas letales
Claude, la IA que planta cara al Pentágono por vigilancia y armas letales
Imagina que tu asistente de IA favorita, Claude, se niega a trabajar para el ejército porque no quiere espiar a la gente ni disparar sola. Pues eso es lo que está pasando ahora mismo con Anthropic, la empresa detrás de esta tecnología puntera.
El CEO Dario Amodei ha soltado una bomba en su blog: su compañía no va a ceder ante las presiones del Departamento de Defensa de Estados Unidos, conocido como el Pentágono. Y todo por dos límites que no piensan cruzar.
Las dos líneas rojas que Anthropic no traspasa
Primero, la vigilancia masiva dentro del país. O sea, usar la IA para monitorear a millones de ciudadanos americanos sin control. Segundo, armas totalmente autónomas, esas que deciden solas a quién atacar, sin un humano al mando. Amodei lo deja claro: "No podemos en conciencia aceptarlo".
Para quien no sepa, un "frontier model" como Claude es un modelo de Inteligencia Artificial de última generación, superpotente, capaz de razonar como casi un humano. Por eso el Pentágono lo quiere para sus operaciones.
El ultimátum que encendió la mecha
El martes, el secretario de Defensa, Pete Hegseth, dio un plazo hasta el viernes por la noche: aceptad nuestros términos o os ponemos en lista negra gubernamental. La propuesta del Pentágono llegó solo 36 horas antes y permitía "cualquier uso legal" de Claude, lo que para Anthropic abre la puerta a saltarse sus reglas.
El portavoz del Pentágono, Sean Parnell, tuiteó que no buscan vigilancia masiva ni armas autónomas. Pero fuentes cercanas dicen que la letra pequeña lo permite todo.
Amenazas extremas: ¿Ley de guerra contra una empresa USA?
Aquí viene lo heavy. Un alto cargo del Pentágono amenaza con invocar la Defense Production Act, una ley de tiempos de guerra que deja al presidente controlar recursos privados por seguridad nacional. También podrían declarar a Anthropic un "riesgo en la cadena de suministro".
Expertos flipan: nunca se ha usado así contra una empresa americana en una negociación. Dario Amodei responde que son contradicciones: o somos riesgo o somos esenciales.
Anthropic prefiere seguir colaborando, pero si no, ayudarán a cambiar a otro proveedor sin líos.
Mi opinión como quien sigue estos líos geopolíticos
En mi experiencia, esto es un pulso fascinante entre ética tecnológica y seguridad nacional. Anthropic marca un precedente valioso: la IA no es solo herramienta militar. Pero el Pentágono tiene razón en querer lo mejor para defenderse. Ojalá negocien sin extremos, porque perder Claude sería un palo para todos.
¿Cómo te toca esto en el bolsillo y la vida diaria?
Si usas IA como ChatGPT o Claude, esto afecta tu privacidad. Si el gobierno fuerza a empresas a ceder, tus datos podrían usarse para vigilancia. Además, sube precios si hay menos competencia por miedos regulatorios. Y en Europa, ojo, porque regulaciones como el AI Act podrían inspirarse aquí y limitar apps que tanto nos gustan.
Multimedia
[
[
[