...y de la regulación de la inteligencia artificial
2024/03/01 Leturia Azkarate, Igor - Informatikaria eta ikertzaileaElhuyar Hizkuntza eta Teknologia Iturria: Elhuyar aldizkaria
En el número anterior hablamos de las últimas leyes de regulación de la web. Pues en esta ocasión, dando continuidad a ella, nos fijaremos en los movimientos normativos que se han realizado o están llevando a cabo tanto en Estados Unidos como en la Unión Europea en el ámbito de la inteligencia artificial. De hecho, la inteligencia artificial es un tema muy importante, está adquiriendo un gran protagonismo en los últimos años, y está teniendo una gran influencia en la economía, la educación, las vidas de las personas... Por ello, es necesario establecer marcos legales y será fundamental acertar en ello.
En el último año ha sido un tema recurrente el de la cuestión de la regulación de la inteligencia artificial (IC). En marzo, más de un millar de expertos en AA y tecnología (incluidos Steve Wozniak y Elon Mike) solicitaron una moratoria de 6 meses en el desarrollo de tecnologías más avanzadas que la GPT-4 para regular el sector y desarrollar mecanismos anti-riesgos.
El propio líder de OpenAI, fundador de herramientas ChatGPT y DALL-E, Sam Altman, ha insistido en llamar la atención, regular y limitar los riesgos de las AAs en los medios de comunicación, ha realizado una gira mundial y el pasado mes de mayo también solicitó en el Congreso de los EE UU (y en septiembre lo hizo junto a Mark Zuckerberg y Mr. A finales de mayo, otro amplio grupo de expertos en la materia, entre ellos Sam Altman y Bill Gates, publicaron una nota con una frase: “La mitigación del riesgo de destrucción de la humanidad por la inteligencia artificial debe ser prioritaria en todo el mundo, a nivel de las pandemias y las guerras nucleares”.
¿Pero qué credibilidad tienen estas demandas, de la mano de los principales agentes del sector? ¿Cuándo se han visto los empresarios de un sector solicitando la regulación y delimitación de su área? Si realmente es tan peligroso, no tienen más que detenerse, ¿no?
El riesgo de destrucción, a día de hoy, no es real, pero metiendo su temor pretenden conseguir una normativa específica para la AA. Este supuesto riesgo y la complejidad de la materia hacen que esta normativa sea elaborada por expertos (ellos, por supuesto). De esta manera, no se aplicarán otras leyes generales y se evitarán las consecuencias que puedan derivarse de los daños reales que ya producen en la actualidad (daños medioambientales, quebrantamientos del copyright, no respetar la privacidad, sesgos, proliferación de informaciones erróneas y falsas, inpersonalizaciones y engaños...).
Además, si el área está regulada y sólo pueden intervenir determinadas empresas y expertos acreditados en materia de seguridad, evitan la creación de nuevos competidores o sistemas de código abierto. Una jugada redonda.
Regulación real en Europa
En la Unión Europea, sin embargo, hace tiempo que se inicia la llamada AI Act, la ley de inteligencia artificial. En abril de 2021 la Comisión Europea, aprobada por el Consejo de Europa en diciembre de 2022, aprobó en junio de 2023 que el Parlamento Europeo inicie su negociación y fue aprobada en diciembre de 2023 por las tres entidades. Durante este periodo ha sufrido diversas modificaciones hasta llegar a sus principios casi definitivos, pero en las negociaciones con los Estados que están en marcha a partir de ese momento todavía va a experimentar algunas modificaciones hasta llegar a la redacción final en 2024 y que todas las entidades hayan aprobado definitivamente para su entrada en vigor en 2025 o 2026. Las empresas dispondrán de 6 meses para la aplicación de lo indicado en el mismo o un año para los sistemas de inteligencia artificial de propósito general.
En un principio, esta Ley clasificaba los sistemas de inteligencia artificial en tres grupos atendiendo a su riesgo, y los sistemas de cada uno de ellos tenían obligaciones en función de esos riesgos:
- Riesgo inaceptable. Sistemas que aprovechan la manipulación subliminal o explotan vulnerabilidades de personas, sistemas biométricos a distancia y en tiempo real y sistemas de puntuación social. Están terminantemente prohibidos, aunque los dos primeros pueden ser utilizados para la investigación de delitos y el cumplimiento de las leyes.
- Alto riesgo. Se incluyen los sistemas que se utilizan en productos sujetos a la ley de seguridad y que se utilizan en ámbitos como la biometría, infraestructuras críticas, educación, empleo, servicios básicos y públicos, ejecución de la ley, migraciones, derecho, medicina, automóviles autónomos... Estos sistemas deben ser evaluados previamente a su comercialización para asegurar que garanticen la seguridad, transparencia, trazabilidad, comportamiento no discriminatorio, respeto al medio ambiente y supervisión humana.
- Bajo riesgo. Los sistemas no incluidos en otras clasificaciones deberán cumplir una serie de requerimientos mínimos de transparencia, básicamente, indicar claramente al usuario que se está utilizando un sistema de inteligencia artificial. A modo de ejemplo se citan los filtros anti-spam y/o sistemas de recomendaciones.
La UE creará una oficina para hacer cumplir la ley y se prevén fuertes multas en caso de incumplimiento. Las infracciones más graves serán sancionadas con una multa de 35 millones de euros o del 7% de la facturación global (la más alta de las dos).
En los cambios constantes
Pero a aquel propósito inicial ya le han hecho cambios y no justamente los que van por buen camino. En concreto, se han producido cambios en cuestiones que afectan a los grandes actores de la inteligencia artificial en EEUU. Lógicamente, los sistemas de inteligencia artificial creativa mencionados anteriormente (ChatGPT y otros) deberían ir en el grupo de los de alto riesgo, ya que se utilizan en muchos de los sectores aquí mencionados. Y tendrían dificultades para garantizar el cumplimiento de algunos de los principios, como son la transparencia, la trazabilidad y la no discriminación, pero sobre todo el medio ambiente, porque el consumo energético de estos gigantescos modelos neuronales es enorme. Pero las propias empresas que pedían regulación en su país han estado haciendo de lobby en la UE (OpenAI amenaza con dejar de operar en la UE), y en la clasificación que obtuvieron en la versión aprobada en junio por el Parlamento Europeo se incluía un cuarto grupo de inteligencia artificial creadora, destinado específicamente a ella:
- Inteligencia artificial creativa y de propósito general. Estos sistemas tienen unas pocas obligaciones relacionadas con la transparencia: comunicar que el contenido ha sido creado por AA, no generar contenidos ilegales y publicar resúmenes de los datos protegidos por los derechos de autor utilizados para el entrenamiento.
Existe una contradicción total entre lo dicho por Altman, OpenAI y otros en uno y otro lugar: En EE.UU. la tecnología que desarrollan es calificada como muy peligrosa y exige regulación, mientras que en la UE han luchado y conseguido que no entren en la categoría de alto riesgo, logrando así reducir el nivel de exigencia. Como les decía, ellos y para él quieren una regulación a medida, no hecha por otros.
Y es casi seguro que también va a sufrir cambios en la fase de negociaciones con los estados. Francia, por ejemplo, ya ha señalado que no le gusta la ley, porque cree que será un freno para la innovación.
Por lo tanto, aunque todavía falta tiempo para que se ponga en marcha, y seguramente habrá cambios, las intenciones, principios y objetivos de la Ley de Inteligencia Artificial de la UE son buenos, y está bastante avanzado respecto a lo que dicen que quieren hacer en EEUU. Es necesario regular el marco de la inteligencia artificial para proteger y hacer cumplir los derechos de las personas, evitar riesgos reales y limitar los abusos de las compañías. Algunos dicen que hay riesgo de reducir la innovación, no creo que sea así, pero, en todo caso, es importante hacer lo necesario para que la tecnología sea socialmente responsable y segura, y no permitir cualquier cosa en nombre de la innovación.
Hay quien dice que perjudicará a la industria europea en beneficio de los EEUU, pero es justo lo contrario: la ley afecta a todas las empresas que quieren comercializar AA en la UE, incluidas las externas. Por lo tanto, la ley va a limitar más los gigantes tecnológicos con recursos enormes, con ventajas desde el punto de vista y con escrúpulos escrúpulos bajos, y las empresas locales tendrán mejores oportunidades e igualdad. Y como la ley es pionera, es posible que se marque un camino en otros muchos países, como ocurrió con el Reglamento General de Protección de Datos, y que se condicione y mejore la cualidad de la inteligencia artificial del futuro para todo el mundo.
Durante los próximos meses y años iremos viendo cómo evoluciona el tema a ambos lados del Atlántico y en todo el mundo.
Gai honi buruzko eduki gehiago
Elhuyarrek garatutako teknologia