Un estudio de la Universidad de Cambridge revela que la mayoría de los bots o agentes de IA carecen de información básica sobre seguridad, con solo cuatro de 30 analizados publicando documentos formales de evaluación de riesgos. Investigadores advierten que esta opacidad es «peligrosamente retrasada» ante el auge de estos sistemas en tareas cotidianas como reservas o informes laborales.
Hallazgos del AI Agent Index
De 30 agentes líderes (chats, navegadores y empresariales), 25 no divulgan pruebas internas de seguridad y 23 omiten evaluaciones de terceros, pese a su autonomía creciente. Solo cinco reportan incidentes conocidos, y vulnerabilidades como «inyección rápida» (órdenes maliciosas que saltan controles) están documentadas en dos.
Tipos de Agentes Más Opacos
Navegadores web con IA lideran la falta de transparencia (64% de campos de seguridad ausentes), seguidos de agentes empresariales (63%); chats omiten el 43%. Muchos imitan humanos para eludir anti-bots, sin notificar su naturaleza IA ni usar marcas de agua.
Dependencia y Riesgos Sistémicos
Casi todos dependen de pocos modelos base (GPT, Claude, Gemini), creando puntos de fallo únicos; agentes chinos son los menos transparentes, con solo uno publicando marcos de cumplimiento. Leon Staufer, autor principal, critica marcos éticos «alto nivel» sin evidencia empírica.

