El eurodiputado socialista alerta de una posible brecha legislativa que afectaría a sistemas de IA desarrollados por actores privados capaces de utilizarse para ciberataques u operaciones de inteligencia

Bruselas, 6 de mayo de 2026.– El eurodiputado socialista José Cepeda, miembro de la Comisión de Seguridad y Defensa de la Eurocámara, ha presentado una pregunta escrita a la Comisión Europea sobre el vacío regulatorio que puede afectar a sistemas de IA de doble uso —civil y militar— con capacidades ofensivas, a raíz del anuncio de que el software Claude Mythos Preview es capaz de identificar y atacar sistemas operativos y navegadores web ampliamente utilizados. La pregunta ha sido suscrita junto a los eurodiputados socialistas Nacho Sánchez Amor, coordinador de la Comisión de Asuntos Exteriores, y el estonio Sven Mikser, coordinador de la Comisión de Seguridad y Defensa.
Para Cepeda, el caso Mythos plantea una cuestión central para la seguridad europea. Por eso el eurodiputado pregunta al ejecutivo comunitario acerca de la necesidad de cerrar o corregir el vacío legal del artículo 2(3) del Reglamento de IA para regular sistemas de IA ofensivos desarrollados por empresas privadas. Al respecto, ha recordado que la Ley de IA de la UE excluye de su ámbito de aplicación los sistemas utilizados con fines militares, de defensa o de seguridad nacional. “Esta exclusión puede generar una laguna legislativa para sistemas desarrollados por actores privados con capacidades avanzadas que afecten directamente a la seguridad de la Unión y de sus Estados miembros”, ha advertido el eurodiputado.
“Europa ha sido pionera regulando la IA, pero no puede permitir que sus capacidades más sensibles queden atrapadas en un vacío legal. Cuando una IA privada puede detectar y explotar vulnerabilidades críticas, debemos preguntarnos quién controla esa capacidad, bajo qué reglas y con qué garantías democráticas”, ha señalado Cepeda.
Asimismo, ha planteado otra pregunta a la Comisión acerca de la necesidad de reforzar la capacidad europea para investigar vulnerabilidades a gran escala con asistencia de IA, así como de evaluar el riesgo de que estas capacidades avanzadas se concentren en actores no europeos.
“La Unión Europea no puede limitarse a reaccionar después de un ataque. Tiene que anticiparse, cerrar vacíos regulatorios y garantizar que la inteligencia artificial se utiliza para proteger a la ciudadanía, no para abrir nuevas brechas en nuestra seguridad”, ha concluido.


