OpenAI pacta con el Pentágono: ¿Mejor que su rival vetada?
OpenAI pacta con el Pentágono: ¿Mejor que su rival vetada?
Imagina dos gigantes de la IA peleando por no cruzar líneas rojas con el ejército de EE.UU.. OpenAI dice que su nuevo acuerdo con el Departamento de Defensa es el más seguro hasta la fecha, mientras Anthropic acaba de ser puesta en la lista negra por decir que no.
Esto no es una película de espías, es real. El sábado, OpenAI sacó pecho en su blog mostrando cláusulas del contrato. Nada de vigilancia masiva doméstica ni armas autónomas –esos robots asesinos que deciden solos. Tampoco sistemas de puntuación social, como esos controvertidos "scores" que puntúan tu vida en algunos países.
La rivalidad entre OpenAI y Anthropic se calienta
Anthropic rechazó un trato similar y ahora la etiquetan como "riesgo en la cadena de suministro". ¿Qué significa eso? Es como si el gobierno dijera: "No confiamos en ti para proveer tecnología sensible, podrías ser una amenaza para nuestra seguridad nacional".
Ellos responden con fuerza: "No nos asusta la intimidación del Departamento de Defensa, iremos a los tribunales". OpenAI, en cambio, presume de tener más capas de protección: control total sobre su "stack de seguridad" –básicamente, sus sistemas para evitar abusos–, despliegue en la nube y personal autorizado siempre vigilando.
Sam Altman entra en escena
El CEO de OpenAI, Sam Altman, no se quedó callado. En redes sociales, contestó dudas como en un "pregúntame lo que sea". Dijo que su pacto es mejor para la gente de EE.UU. porque cita leyes existentes, no solo promesas vagas.
"Anthropic quería más control operativo", soltó Altman. Y remató: si la Constitución cambiara para permitir vigilancia masiva, quizás dimitiría. Me parece valiente, aunque controvertido.
¿Por qué OpenAI dice sí y pide paz?
Quieren desescalar la tensión con el Pentágono –o "DoW", como lo llaman ahora, por Department of War en algunos círculos. Piden que ofrezcan los mismos términos a todos los labs de IA, incluyendo a Anthropic. Si violan el contrato, OpenAI puede rescindirlo, aunque no lo esperan.
creen que la IA trae riesgos nuevos, pero dar herramientas al gobierno ayuda a la seguridad nacional. Mientras, Claude de Anthropic lidera descargas en app stores y hasta Katy Perry cancela su suscripción a ChatGPT en protesta.
¿En qué te afecta esto a ti?
Si usas ChatGPT o Claude a diario, ojo: esta pelea podría subir precios o limitar funciones si hay boicots. En geopolítica, significa que EE.UU. acelera su carrera armamentística con IA, compitiendo con China o Rusia. Tu privacidad global depende de estos acuerdos; una vigilancia mal controlada podría llegar a Europa vía tratados.
Además, fomenta que las empresas colaboren con gobiernos, lo que podría normalizar el uso militar de herramientas que todos usamos.
Mi opinión personal
Yo veo positivo que OpenAI ponga barreras claras en el contrato, mejor que un veto puro y duro. La IA en manos del gobierno es inevitable, pero con leyes y controles es menos aterrador. Anthropic tiene razón en plantar cara, pero dialogar gana guerras. Al final, ojalá prevalezca la ética sobre el postureo; si no, todos perdemos privacidad. ¿Tú qué piensas?
Multimedia
[
[
[