3 países proponen cambios clave a la Ley de Inteligencia Artificial de la UE y desatan una fuerte polémica

La Ley de Inteligencia Artificial de la Unión Europea (UE) se encuentra en su tramo final de desarrollo. Esta ambiciosa legislación, que será la primera en su tipo a nivel mundial, busca establecer un marco legal para regular el desarrollo, uso y comercialización de sistemas de inteligencia artificial dentro del territorio europeo. Sin embargo, en las últimas semanas, un giro inesperado ha encendido el debate político y técnico dentro de las instituciones comunitarias.

Un documento no oficial, filtrado por el medio Euractiv, revela que tres de los países más influyentes del bloque —Francia, Alemania e Italia— han presentado una propuesta conjunta para modificar aspectos centrales de esta futura ley. La postura adoptada por estas naciones ha sido interpretada por algunos sectores como una “declaración de guerra” legislativa, dado que rompe con los consensos que se venían construyendo entre el Parlamento Europeo, la Comisión y el Consejo de la UE.

Una ley pionera, en disputa

La Ley de IA europea nació con la intención de garantizar que el desarrollo de esta tecnología emergente se realice de forma ética, segura, transparente y con respeto por los derechos fundamentales. Desde sus primeros borradores, el proyecto ha puesto especial atención en los llamados sistemas de alto riesgo, como los utilizados en salud, justicia, vigilancia y educación, pero también en los modelos fundacionales o modelos fundamentales, como ChatGPT de OpenAI, que sirven de base para múltiples aplicaciones.

Sin embargo, el vertiginoso avance de la inteligencia artificial generativa —y su creciente adopción en sectores críticos y en la vida cotidiana— ha obligado a revisar varios puntos clave del texto original. En este contexto, el rol de Francia, Alemania e Italia ha sido determinante para reabrir el debate.

Un enfoque distinto: autorregulación y códigos de conducta

La propuesta de estos tres países plantea un cambio de enfoque radical. En lugar de imponer regulaciones estrictas desde el inicio a los modelos fundamentales de IA, sugieren una vía alternativa: la autorregulación mediante códigos de conducta respaldados por organismos supervisores.

Según argumentan, establecer desde el comienzo normas muy restrictivas sobre los modelos base podría ralentizar la innovación, limitar la competitividad de las empresas europeas y frenar el avance tecnológico del continente. Incluso sostienen que este enfoque podría tener efectos negativos sobre la seguridad, al desplazar el desarrollo hacia jurisdicciones menos reguladas.

Necesitamos regular las aplicaciones, no la tecnología si queremos jugar en la liga de la inteligencia artificial más importante del mundo”, declaró Volker Wissing, ministro digital de Alemania, en diálogo con Reuters.

¿Qué proponen concretamente?

En términos prácticos, el documento impulsado por Francia, Alemania e Italia sugiere que los desarrolladores de modelos fundamentales presenten “tarjetas modelo”: documentos técnicos estandarizados que contengan información clave sobre cada modelo de IA. Entre los datos que deberían incluirse figuran:

  • La arquitectura del modelo y el número de parámetros.
  • Usos previstos y limitaciones.
  • Evaluaciones de sesgos o impactos sociales.
  • Equipos responsables de supervisión y pruebas de seguridad.
  • Resultados de auditorías internas o externas.

Estas tarjetas serían elaboradas por los propios desarrolladores, pero con la supervisión de un organismo europeo de gobernanza de la IA, cuya misión sería validar, revisar y hacer pública la información relevante. Esta entidad también funcionaría como receptor de denuncias y tendría potestad para publicar las infracciones de forma transparente.

Otra característica del enfoque propuesto es que no se contemplan sanciones inmediatas, salvo en casos de incumplimientos sistemáticos y reiterados. En otras palabras, se busca un proceso gradual, que dé margen a las empresas para adaptarse, siempre bajo vigilancia y con posibilidad de corrección antes de aplicar medidas punitivas.

Un enfoque inspirado en el G7

La base conceptual de esta propuesta se encuentra en el llamado Proceso de Hiroshima, un conjunto de principios consensuados por los países del G7 para fomentar el desarrollo responsable de la IA. Allí se establecieron lineamientos para la autorregulación de los modelos avanzados, incluyendo transparencia, rendición de cuentas, evaluación de riesgos y cooperación internacional.

Francia, Alemania e Italia consideran que este enfoque multilateral puede trasladarse con éxito al marco legislativo europeo. Su objetivo es que la regulación sea flexible, adaptable y capaz de acompañar el ritmo acelerado de innovación tecnológica, sin ahogar a los desarrolladores con barreras excesivas.

Tensiones dentro de la Unión Europea

No todos comparten este punto de vista. En el Parlamento Europeo, algunos legisladores han manifestado preocupación ante lo que consideran una desviación del espíritu original de la ley. Para ellos, permitir que los modelos fundamentales —capaces de generar texto, imágenes o código con enorme poder de influencia— se regulen a sí mismos representa un riesgo significativo para los derechos de los ciudadanos, la privacidad y la transparencia.

De hecho, algunos funcionarios han calificado la maniobra de Francia, Alemania e Italia como una “declaración de guerra” al consenso legislativo que tanto esfuerzo costó construir durante los últimos dos años. El temor es que estas propuestas diluyan el carácter obligatorio y vinculante de la ley, y se conviertan en un simple marco de buenas intenciones sin mecanismos efectivos de control.

¿Qué está en juego?

El desenlace de esta disputa no es menor. La Ley de Inteligencia Artificial de la UE no solo sentará las bases para la regulación de estas tecnologías dentro del bloque, sino que podría convertirse en un estándar global que inspire otras legislaciones en América Latina, Asia y África. Así como ocurrió con el Reglamento General de Protección de Datos (GDPR), Europa aspira a liderar el camino en términos de ética y responsabilidad tecnológica.

Pero para lograrlo, necesita encontrar el equilibrio adecuado entre fomentar la innovación y proteger los derechos fundamentales. En este contexto, las decisiones que se tomen en las próximas semanas serán decisivas. ¿Se impondrá el enfoque más permisivo y flexible de los tres países proponentes? ¿O prevalecerá la visión más estricta y preventiva que dominó en las etapas iniciales del proyecto?

Un debate abierto y en evolución

Lo cierto es que el debate está lejos de cerrarse. La llamada “tríloga” —el proceso de negociación entre la Comisión Europea, el Parlamento y el Consejo— continúa. Las propuestas de Francia, Alemania e Italia, aunque controvertidas, han obligado a replantear algunos aspectos clave y a considerar con más detenimiento los riesgos y oportunidades de esta revolución tecnológica.

En un escenario donde la IA avanza a un ritmo vertiginoso, las decisiones que se tomen hoy definirán el tipo de relación que la sociedad europea —y quizás el mundo— tendrá con estas tecnologías en las próximas décadas.