Los nuevos sistemas tecnológicos como ChatGPT se han popularizado justo cuando en Bruselas se está negociando la ley de inteligencia artificial y la Unión Europea quiere aprovechar el momento para encontrar la fórmula de regular las dudas sociales, políticas y éticas que plantean.
Inicialmente, cuando en abril de 2021 la Comisión Europea planteó la normativa, no estaba pensada para ello, pero en el largo y tortuoso camino del proceso legislativo europeo han estallado estos modelos de inteligencia artificial y todas las instituciones de la UE creen ahora que hay que abordarlos.
Mientras en Bruselas continúan las discusiones, Italia ha prohibido de momento el uso de ChatGPT por considerar que Open AI -la empresa que ha creado y continúa perfeccionando esta herramienta- no cumple con el Reglamento Europeo de Protección de Datos (GDPR).
Las autoridades italianas acusan a la compañía de falta de transparencia sobre la recogida de los datos personales y bancarios de los usuarios y de carecer de un sistema para verificar la edad de quienes usan ChatGPT, a pesar de que está dirigido a mayores de 13 años, y le han dado hasta el 30 de abril para adaptarse a la ley.
La Agencia Española de Protección de Datos también abrió este jueves una investigación a la compañía por un "posible incumplimiento" del GDPR y el Comité Europeo de Protección de Datos creó un grupo de trabajo para intercambiar información con todas las autoridades de la UE, Islandia, Liechtenstein y Noruega que tienen dudas al respecto.
El eurodiputado de los Verdes Marcel Kolaja está convencido de que Open AI "tiene interés" en resolver estas cuestiones pero considera que hay que seguir regulando a estos modelos, según cuenta a EFE.
Además, "algunas de las preocupaciones que estos sistemas pueden generar no están relacionados con la privacidad", explica a EFE el eurodiputado liberal Dragos Tudorache, uno de los ponentes de la ley de inteligencia artificial en la Eurocámara.
Entre ellas, menciona la posibilidad de que estos modelos capaces de simular conversaciones humanas -que también desarrollan otras empresas como Google- den respuestas en base a una información protegida por derechos de autor, el riesgo de que se usen para difundir noticias falsas o la influencia que pueden tener en personas vulnerables.
Y en este sentido, recuerda el reciente suicidio de un joven belga de unos treinta años después de haber conversado de manera intensiva durante seis semanas con el chatbot Eliza de la empresa estadounidense Chai sobre su preocupación por el cambio climático.
Tal como está redactada actualmente, la ley de inteligencia artificial prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos -salvo para prevenir delitos y localizar a posibles víctimas- y veta los modelos que se sirvan de técnicas subliminales para alterar de manera "sustancial" el comportamiento de una persona, sin que sea consciente de ello.
Además, califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE.
Por ejemplo, los que utilicen las empresas para seleccionar a los candidatos a un puesto de trabajo, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o las que sirvan para garantizar la seguridad en el suministro de agua, gas y electricidad.
Pero ahora, "muchos de nosotros estamos de acuerdo en que no nos podemos permitir no tener nada en el texto" de la ley para regular los sistemas como ChatGPT, asegura Tudorache.
Tanto él como el socialdemócrata Brando Benifei, también ponente de la normativa, quieren que los desarrolladores sean transparentes sobre la forma en la que entrenan a sus modelos, que exista supervisión humana y prohibir la difusión de contenido ilegal.
Las negociaciones entre grupos políticos para fijar los criterios empezarán este lunes y ni Benifei ni Tudorache se atreven por ahora a decir cómo concluirán, ya que admiten divisiones entre partidos.
El eurodiputado del PPE Axel Voss apuesta primero por "entender" cómo funciona ChatGPT y pedir a Open AI explicaciones sobre su fiabilidad, según cuenta a EFE. Y en cualquier caso, es partidario de la autorregulación del sector más que de redactar nuevas leyes que pueden tardar años en aprobarse.
"En tres años, quizás tendremos problemas totalmente diferentes. Nunca sabes si ChatGPT aún existirá", señala.
En cambio, el Ejecutivo comunitario también reconoce "la necesidad de considerar normas especificas" para este tipo de herramientas, según explican a EFE fuentes del gabinete del comisario de Mercado Interior, Thierry Breton, y lo mismo opina el Consejo de la UE.
Sin embargo, ninguno de los eurodiputados entrevistados es partidario de pausar durante seis meses el entrenamiento de esos sistemas, tal como han planteado más de 2.000 expertos, académicos y empresarios, para tener tiempo a desarrollar protocolos que garanticen la seguridad de la inteligencia artificial.
"No es factible que paremos el desarrollo y más bien, es importante acelerar un esfuerzo global para regularlo correctamente", opina Benifei, que cree que hay que aunar esfuerzos en Naciones Unidas, el G20 o la OCDE.