Pocas personas pueden decir que han dejado su huella en una legislación llamada a marcar el futuro. Ibán García del Blanco, director internacional de Lasker, es una de ellas. Licenciado en Derecho, y con una sólida trayectoria en las instituciones tanto estatales como europeas, ha sido clave en la creación de un marco normativo pionero que marcará el uso de la inteligencia artificial en Europa.
¿Cuáles son los aspectos más destacados de la normativa?
Es la primera ley integral del mundo que aborda la inteligencia artificial desde todos los ángulos. No lo regula todo, pero establece estrategias para mitigar riesgos. Protege derechos fundamentales y valores colectivos, clasificando los usos de la IA según su peligrosidad.
¿Cómo se clasifican esos riesgos?
Hay usos directamente prohibidos por su alto riesgo, como la identificación biométrica en espacios públicos en tiempo real o la manipulación de emociones. Luego, hay sistemas de alto riesgo que requieren supervisión continua. Y otros que exigen transparencia, como los deepfakes o los modelos de IA generativa. Además, la ley promueve códigos de buenas prácticas.
¿La regulación se aplica por igual en toda la UE?
Sí. Es un reglamento de aplicación directa. Eso garantiza un mercado único digital con normas y obligaciones comunes. No obstante, cada país debe adaptarla a su marco nacional. El anteproyecto de ley española define qué instituciones serán responsables de su aplicación y establece un régimen de sanciones.
Los deepfakes y la desinformación son un problema creciente. ¿Cómo actúa la ley contra ellos?
La normativa establece una obligación general de etiquetado y rastreabilidad para los deepfakes y otros contenidos generados por IA. Esto afecta a todos los actores implicados en la cadena de valor: desde los desarrolladores hasta los distribuidores y usuarios. Las plataformas tienen que implementar mecanismos para identificar automáticamente estos contenidos y, si alguien genera un deepfake, está obligado a indicar que lo es antes de publicarlo. Además, la ley refuerza la regulación contra la difusión de información falsa, especialmente en contextos electorales o situaciones de crisis.
Vamos, que debe quedar bien claro si un contendido está elaborado con IA.
Exacto. La ley obliga a etiquetar de manera clara y visible todos los textos, audios y vídeos creados por IA. Hay excepciones, como contenidos editoriales o artísticos, como una película. En estos casos, basta con una advertencia inicial.
¿Cómo se está regulando la inteligencia artificial en el mundo y qué papel juega Europa en este proceso?
La regulación de la inteligencia artificial varía mucho a nivel global. La Unión Europea es pionera con su legislación, pero existen iniciativas en países como Brasil, China y Estados Unidos, donde ya se están adoptando enfoques similares debido al impacto global de esta tecnología.
Algunas personas argumentan que la ley podría frenar el desarrollo de la IA en Europa. ¿Cuál es su opinión?
Esa visión es más un postulado religioso que racional. La realidad es que no tenemos normas que impidan el desarrollo tecnológico. De hecho, Europa ha quedado atrás en los últimos años, y esto tiene poco que ver con la regulación. Ser competitivos a nivel internacional depende más de la inversión y de un plan estratégico, no tanto de la regulación.
Entonces, la regulación no es un obstáculo en este sentido.
Exacto. La regulación no busca entorpecer el desarrollo de la inteligencia artificial, sino ofrecer seguridad jurídica.
Dado que la regulación es pionera, ¿existe la posibilidad de que se ajuste en el futuro?
Como cualquier normativa nueva, deberemos mejorarla con el tiempo; forma parte del proceso. Lo importante es que sea un paso adelante en la creación de un marco sólido para esta tecnología.