S2GRUPO hace un llamado urgente a gobiernos y empresas para que tomen conciencia sobre los riesgos que supone la integración apresurada de la Inteligencia Artificial (IA) generativa en sistemas operativos esenciales, sin las garantías mínimas de seguridad ni supervisión.
La IA generativa ha pasado de ser un experimento de laboratorio a convertirse en parte fundamental de empresas, gobiernos e infraestructuras críticas. Herramientas como ChatGPT, Copilot o Claude ya se utilizan para crear código, analizar grandes volúmenes de datos y tomar decisiones automatizadas.
Enrique Fenollosa, LATAM General Manager de S2GRUPO, advierte: “mientras su despliegue avanza con rapidez, el desarrollo de marcos de seguridad, auditoría y gobernanza avanza mucho más despacio. La consecuencia es clara: se está consolidando una nueva superficie de ataque para la que ni las empresas ni los Estados están debidamente preparados”.
Fenollosa también señala que “los grandes modelos de lenguaje (LLM) operan como sistemas opacos: su lógica interna no siempre es auditable, sus fuentes de entrenamiento no son plenamente trazables y su comportamiento puede ser impredecible en ciertos contextos”.
Riesgos identificados
Dentro de los riesgos identificados por S2GRUPO ante esa opacidad en la generación de estos LLM, se destacan los siguientes:
- Agentes dormidos: instrucciones maliciosas difíciles de detectar que pueden activarse en condiciones concretas.
- Filtraciones de datos: posibilidad de que los modelos memoricen y reproduzcan información sensible.
- Generación de contenido malicioso: desde código con puertas traseras hasta mensajes de desinformación.
- Manipulación de datos (data poisoning): alteración de las fuentes de datos para influir en el aprendizaje de los modelos.
- Integraciones inseguras: APIs vulnerables o errores de configuración que exponen fallos sistémicos.
“Estas vulnerabilidades no son teóricas, puesto que ya se han documentado casos reales en entornos corporativos y públicos. Y el riesgo se multiplica cuando estos modelos se integran en sistemas críticos sin validación de seguridad ni cumplimiento normativo”, agrega Fenollosa.
Llamado a la acción
Desde S2GRUPO se observa con preocupación la asimilación acrítica de tecnologías sensibles —incluidas las IA generativas— en sistemas vitales, generando una brecha estructural entre el avance tecnológico y la capacidad de gobernanza.
Fenollosa concluye: “La IA generativa representa una de las mayores palancas de transformación de las próximas décadas, pero también puede convertirse en una infraestructura de dependencia digital si no se controla desde el principio. Los peligros ocultos que esta tecnología encierra deben ser reconocidos lo antes posible —sobre todo por los gobiernos y las empresas— antes de que sea muy tarde para actuar y queden a su merced”.