Análisis
Google ha autorizado al Pentágono a utilizar sus modelos de inteligencia artificial en operaciones clasificadas, uniéndose a OpenAI y xAI en acuerdos similares con el departamento de defensa estadounidense. Esta decisión se produce tras la eliminación de una cláusula en los principios de IA de Google que prohibía el trabajo en armas, y a pesar de la oposición interna de cientos de empleados que temen el uso de la tecnología en armamento autónomo y vigilancia masiva. El acuerdo contrasta con la postura de Anthropic, que fue excluida del mercado gubernamental por negarse a eliminar salvaguardas.
Hechos verificados
- 1Google ha permitido al Pentágono usar sus modelos de IA en operaciones clasificadas.
- 2Google firmó un acuerdo de 200 millones de dólares con el departamento de defensa el año pasado.
- 3OpenAI y xAI ya tenían contratos similares con el Pentágono.
- 4Anthropic fue incluida en la lista negra por negarse a eliminar salvaguardas contra armas autónomas y vigilancia doméstica.
- 5Al menos 560 empleados de Google firmaron una carta abierta pidiendo rechazar el acuerdo.
- 6En 2018, Google se retiró del Project Maven tras protestas de empleados.
- 7La cláusula que prohibía el trabajo en IA para armas desapareció de los principios de Google en 2025.
