Google DeepMind se alía con el Pentágono: ¿IA para la guerra?
Google DeepMind se mete en el mundo militar: lo que nadie esperaba
Imagina que la Inteligencia Artificial que usas todos los días para buscar recetas o traducir textos ahora ayuda al Pentágono, el Departamento de Defensa de Estados Unidos. Pues eso es lo que está pasando con Google DeepMind, la división estrella de IA de Google. En una reunión interna, sus jefes calmaron a los empleados preocupados por estos lazos con el ejército.
La reunión que lo cambió todo
En enero, durante un "town hall" –que es como una gran asamblea virtual para todo el equipo–, Demis Hassabis, el CEO de Google DeepMind, y Tom Lue, vicepresidente de asuntos globales, respondieron a dudas serias. Los trabajadores preguntaban si trabajar con el Pentágono y empresas como Boston Dynamics –una firma de robots avanzados– violaba las reglas éticas de la compañía sobre IA.
Tom Lue explicó que hay un proceso "robusto", es decir, muy sólido, para revisar cada contrato. Miran si el uso es seguro, responsable y protege la privacidad. "Lo clave es que los beneficios superen claramente los riesgos", dijo. Y ojo, porque Google actualizó sus principios de IA en 2025, quitando la promesa antigua de no tocar armas ni vigilancia.
Más contratos en el horizonte
No solo defendieron lo actual, sino que anunciaron más. "Vamos a inclinarnos más hacia esto", admitió Lue. Hablan con gobiernos sobre preocupaciones de seguridad nacional, como ciberseguridad –proteger redes de hackers– y bioseguridad, que es defenderse de amenazas biológicas, como virus o pandemias manipuladas.
Esto contrasta con Anthropic, otra empresa de IA, que puso límites duros al Pentágono y acabó demandándolo por vetarla como "riesgo en la cadena de suministro". Mientras, gigantes como Google, Amazon u Oracle compiten por estos contratos jugosos que antes rechazaban.
¿Cambios en las reglas de Google?
Los principios de IA de Google son como una brújula ética: guían qué se hace y qué no con la tecnología. Antes, en 2018, prometieron no desarrollar armas letales con IA. Pero en 2025 lo suavizaron para permitir colaboraciones en defensa no letal. DeepMind dice que todo pasa filtros estrictos, y hasta publicaron un post en su blog sobre herramientas personalizadas para el Pentágono.
¿En qué te afecta esto a ti?
Quizás pienses que es cosa de generales lejanos, pero no. La IA militar acelera una carrera global: China, Rusia o EE.UU. invierten miles de millones. Si usas Google a diario, tu data podría indirectamente nutrir estos sistemas. Además, sube precios de servicios si priorizan defensa, y plantea dilemas éticos sobre privacidad en un mundo con más vigilancia IA.
Mi opinión personal
Como alguien que sigue la geopolítica de cerca, me preocupa esta deriva. La IA es un arma de doble filo: puede salvar vidas en ciberdefensas, pero también escalar conflictos si cae en manos equivocadas. Google hace bien en tener procesos, pero ¿quién vigila al vigilante? Prefiero que las big tech sean transparentes, no que entren en el juego armamentístico sin debate público. Al final, todos perdemos si la tecnología se militariza tanto. ¿Tú qué opinas?
Multimedia
[
[
[