Análisis
Investigadores de Johns Hopkins han descubierto una vulnerabilidad denominada 'Comment and Control' en agentes de inteligencia artificial de Anthropic, Google y Microsoft desplegados en GitHub. Estos agentes, diseñados para revisar código y realizar tareas de seguridad, pueden ser manipulados a través de comentarios o incidencias en la plataforma para ejecutar comandos maliciosos y extraer información sensible. Las tres compañías han reconocido los fallos y han recompensado a los investigadores, lo que subraya la necesidad de implementar límites de seguridad más estrictos en el uso de estas herramientas de IA.
Hechos verificados
- 1Investigadores de Johns Hopkins identificaron una vulnerabilidad llamada 'Comment and Control' en agentes de IA.
- 2Los agentes afectados pertenecen a Anthropic (Claude Code Security Review), Google (Gemini CLI Action) y Microsoft (GitHub Copilot Agent).
- 3La vulnerabilidad permite a atacantes inyectar instrucciones maliciosas a través de comentarios o incidencias en GitHub.
- 4Los agentes comprometidos pueden ejecutar comandos y extraer credenciales sensibles del entorno.
- 5Anthropic, Google y Microsoft han reconocido los fallos y han pagado recompensas a los investigadores.
- 6El problema se relaciona con la forma en que los agentes procesan información externa dentro de entornos con permisos sensibles.
