Nudos de la inteligencia artificial
2023/05/18 Imanol Galarraga Castaño - Filosofiako ikaslea Iturria: Elhuyar aldizkaria
La inteligencia artificial (IC) está lejos de ser perfecta. Está claro que una sociedad llena de problemas va a producir productos con problemas, por eso, aunque a veces se vende como un ser celestial que nos va a dar todas las respuestas, no podemos olvidar que AA también lo hemos creado nosotros y que, por lo tanto, tiene defectos. En este artículo reflexionamos sobre estos problemas, errores o nudos.
Desde que la empresa OpenAI[1], el 30 de noviembre de 2022, publicara ChatGPT, una herramienta que nos permite mantener una conversación con un sistema de AA, hemos visto muchas reflexiones sobre la inteligencia artificial y su utilidad.
Pero ChatGPT es sólo un modelo de AA, es decir, podemos encontrar muchos más (aunque la mayoría no sean públicos) que pueden ser útiles en muchos procesos. Por ejemplo, un AA capaz de reconocer semáforos, peatones, etc., desempeña una función muy importante en los coches automáticos; o quien es capaz de detectar un tumor con mayor precisión y rapidez que un médico, puede suponer un gran avance médico.
A la vista de ello, está claro que la AA tiene mucho que ver en muchos ámbitos y que probablemente va a suponer un "avance" o, al menos, un cambio importante. Pero la inteligencia artificial también tiene problemas, genera problemas y reproduce problemas. En este artículo se abordarán algunos de estos problemas, relacionados principalmente con el ámbito socio-político, pero también, en menor medida, con la veracidad y la esencia humana (aunque, por supuesto, ambos ámbitos tienen relación). Para ello, trabajaremos algunos problemas o nudos que podemos encontrar en cada uno de estos ámbitos, teniendo en cuenta el trabajo de diferentes expertos y lo que nos han dicho a nosotros.
Problemas socio-políticos
El primer ámbito que vamos a trabajar es, por tanto, el ámbito socio-político. En concreto, de los sesgos que podemos encontrar en la sociedad. Está claro que nuestra sociedad sigue muy lejos de ser idílica, sobre todo para hombres blancos y no cis-heterosexuales. La desigualdad sigue siendo uno de los principales problemas sociales y, a pesar de que cada vez se escuchan más voces, sigue viva la hegemonía de este hombre blanco cis-heterosexual. Esto afecta a todos los ámbitos, no sólo al social, sino también al productivo. De la misma manera que todo lo que producimos afecta a nuestra sociedad, nuestra sociedad también se ve afectada por estos productos, reforzando y reproduciendo, entre otros, los prejuicios problemáticos que transmitimos a ellos. La inteligencia artificial no es una excepción.
Dos ejemplos de ello los podemos encontrar en los filtros que ofrecen las redes sociales Tik Tok e Instagram (herramientas para jugar o transformar tu rostro). Uno de ellos, el filtro AnimeAI que se hizo muy popular en diciembre de 2022, tras recibir una fotografía suya dibujaba como un anime japonés. Pero, como muchos usuarios denunciaron, la inteligencia artificial que había detrás de este filtro no era capaz de detectar a las personas negras y, en lugar de dibujarlas como animes, las excluía; las dibujaba como objetos negros o, en el peor de los casos, como monos. Además, se han visto casos en los que los poseedores de rasgos «asiáticos», como los ojos rasgados, no pueden utilizar esos filtros, ya que la inteligencia artificial que hay detrás no es capaz de reconocer sus ojos. Estos dos ejemplos ponen de manifiesto el racismo o eurocentrismo de la AA.
Pero la cuestión no queda ahí, en los sistemas de AA también podemos encontrar sexismo. Muchos traductores automáticos, por ejemplo, al traducir profesiones tradicionalmente femeninas o masculinas, como el herrero o la enfermera, siguen esta tradición. En consecuencia, recibiremos frases como mi madre es herrero o mi padre es enfermera al solicitar la traducción de la versión en euskera (porque son palabras neutras en euskera). El problema no es sólo dar una traducción equivocada, sino que deja claro que estas AA tienen totalmente interiorizados los roles de género y por eso los reproducen. Esto puede reforzar los sesgos tan perjudiciales, por lo que es muy importante afrontarlos, sobre todo si los sistemas de AA adquieren cada vez mayor importancia en nuestras vidas.
Ander Corral Naves, investigador de Orai, está trabajando en ello. Hemos hablado con él y dice que los sistemas de AA reproducen estos sesgos como consecuencia de la base de datos que nosotros les proporcionamos[2]. Los datos son racistas y sexistas, no AA. Esto es debido al cambio en la forma de entrenar AA en 2018. Entonces empezaron a pasar enormes cantidades de datos (el llamado Big Data) sin haber analizado previamente todos estos datos. Por ello, la AA ha recogido muchos datos llenos de sesgos. Pero ahora el paradigma está cambiando[3]. Ya hay muchos datos en la base de datos de AA, por lo que ha llegado el momento de analizarlos y corregirlos. En ello están los investigadores de Corral y Orai entrenando de nuevo AA con datos pareados[4].
Pero, de forma intencionada o involuntaria, en gran medida todos reproducimos prejuicios racistas y machistas de nuestra sociedad, por lo que es muy fácil no darse cuenta de muchos de estos sesgos presentes en esos datos, o abandonar muchas realidades. Por ejemplo, en el modelo de traductor automático, ¿qué ocurre con las personas no binarias? ¿Cómo le enseñamos a AA a hablar de ellos? [5]
La inteligencia artificial, como todo lo que se produce en nuestro sistema, depende de nuestros prejuicios, por lo que sin obviarlos, sin construir una sociedad realmente igualitaria, será muy difícil que la inteligencia artificial evite esos sesgos, aunque ponga un parche a los más visibles [6].
Además, para que, como se ha comentado últimamente, la inteligencia artificial desempeñe un papel importante en el aprendizaje en los próximos años, es muy importante que sea lo más inclusiva posible y que se evite la desigualdad, para que las generaciones futuras no interioricen aún más estos sesgos. Por eso me parece muy importante que los desarrolladores e investigadores estén educados en igualdad y entiendan que tienen una gran responsabilidad en ello. Y el reconocimiento por parte de la comisión ética u otras instituciones similares de la inteligencia artificial, o de los programas o aplicaciones que la utilizan, antes de su publicación, porque, al menos mientras formamos una sociedad basada en la igualdad, una AA inclusiva puede ser útil en ese camino.
Sinceridad en duda
Nuestra sociedad se basa en gran medida en imágenes. Nos relacionamos entre nosotros mediante imágenes, a través de las cuales obtenemos la mayor parte de la información. Por ello, la capacidad de transformación y creación de imágenes de la AA puede generar muchos problemas.
Para empezar, ya es muy habitual ver fotos "falsas". Si la AA facilitara la creación de imágenes y su aspecto real, la red se llenaría rápidamente. Entonces, ¿cómo diferenciaríamos las fotos "reales" de las "falsas"? Esto provocaría que las imágenes pierdan su fiabilidad, por lo que tenderíamos a mentir directamente lo que no vemos directamente y lo que nos parece "raro".
Por otro lado, algunos sistemas de AA son capaces de crear un vídeo (llamado deepfake) en el que usted aparece con unas pocas fotos y un modelo de su voz. Por lo tanto, es muy fácil perjudicar a alguien creando un vídeo que lo deje en mal lugar, por ejemplo (comentarios racistas, por ejemplo), o creando uno que lo haga en una situación vulnerable[7]. Esto puede poner en peligro la dignidad y la privacidad.
Finalmente, como nos ha comentado el profesor Beñat Erezuma[8] en una entrevista, la AA también puede traer problemas relacionados con el bullying. Internet ya provocó que las víctimas del bullying padecieran persecución en casa. La AA puede llevar este problema al extremo. Cualquiera puede hacer un vídeo de una víctima de bullying para humillarla de una forma hiperrealista.
Los ejemplos mencionados muestran que la capacidad creativa de la AA puede ser muy peligrosa, sobre todo para grupos ya vulnerables (mujeres, víctimas del bullying, etc.). ). Pero estos problemas no los ha producido la AA, que ya estaban en nuestra sociedad, la AA los refuerza, facilita su aparición y los lleva al extremo. La mayoría de los problemas mencionados tienen su origen en nuestra forma de relacionarnos. Por eso, me parece más apropiado buscar formas de construir las relaciones con los demás de una manera más sana que luchar contra fenómenos que no son sino reflejo de esas relaciones.
Esencia y superioridad humana
Sin embargo, no son los únicos problemas en relación con las AA. El tema de la inteligencia artificial también ha cuestionado lo humano en sí mismo. La inteligencia y la capacidad creativa, por ejemplo, se han considerado muchas veces como rasgos que hacen "especial" al hombre. Pero, aunque todavía no se puede comparar la inteligencia de la AA con la nuestra, ya estamos viendo que no está tan lejos. Además, hemos visto que la AA también tiene capacidad creativa, y, aunque a eso se le responde que hace mera repetición y copia, ¿no hacemos lo mismo nosotros, los humanos? ¿Nuestra creación, como la de la inteligencia artificial, no es consecuencia del impacto de lo que consumimos? ¿Qué nos diferencia?
Por otro lado, en cuanto a la preponderancia que tenemos en la Tierra, muchos pensadores ya han señalado que la AA también puede modificarla. Como se especula, en algún momento la inteligencia artificial superará la inteligencia humana, lo que cambiará radicalmente la situación actual, momento que se denomina singularidad tecnológica. El científico Raymond Kurweil, por ejemplo, en su libro The singularity is near (2005), sitúa este momento en 2045 y afirma que sus consecuencias son impredecibles. En cualquier caso, lo que sí está claro es que nuestra superioridad está en peligro; por otra parte, a la vista de lo visto, quizás no es tan mala.
Conclusiones
Por todo lo dicho, es evidente que debemos hacer algo antes de que todos estos problemas sean inexpugnables. Afortunadamente, ya hay movimientos que denuncian los riesgos de las inteligencias artificiales y plantean propuestas ante ellos. Un grupo de pensadores y expertos de diferentes razas, géneros, edades y nacionalidades, por ejemplo, ha escrito un manifiesto en el que critica el carácter eurocéntrico de la AA. Asimismo, se está ampliando una solicitud ya suscrita por cerca de 2000 personas que piden a las empresas que se detengan seis meses en el entrenamiento de AA más potentes que el GPT-4 para preparar una regulación sobre ellos. Aunque pueden tener problemas, son dos ejemplos que requieren pensar en la dirección del desarrollo de las inteligencias artificiales.
Es imposible hablar de un mundo que se mueve tan rápido sin dejar las cosas fuera, pero teniendo en cuenta los pocos problemas que hemos visto, ya queda claro que la inteligencia artificial no es tan perfecta y que, en lugar de poner todas las fuerzas en el intento de mejorar constantemente, puede ser más importante pensar cómo podemos mejorar nuestra sociedad y qué papel puede desempeñar la AA en ello. Quizás un trabajo más duro.
[1] Empresa dedicada a la investigación sobre AA, que pretende contribuir al desarrollo de una AA que puede ayudar a la sociedad sin obtener beneficios.
[2] La AA ha recibido mucho más la palabra herrero haciendo referencia a un hombre, por lo que siempre lo hará en concepto de pago de herrero (y no de herrera). Eso es lo que hay que cambiar.
[3] Esta idea de cambio de paradigma tiene mucho que ver con el trabajo del físico y filósofo científico Thomas Kuhn. Dice que la ciencia avanza en el cambio de paradigma, desarrollando nuevas premisas y formas de hacer ciencia, creando nuevos enfoques para afrontar problemas que la forma anterior no podía resolver (Kuhn, 2004).
[4] Para saber cómo lo hacen ver Corral y Saralegi, 2022.
[5] Sobre las inteligencias artificiales y las personas LGBTQ, ver Leufer, 2023.
[6] El tema de los prejuicios es complejo y muy trabajado. Véase por ejemplo: Allport, G.W. (1955). Nature of Prejuicios. ADDISON-WESLEY PUBLISHING COMPANY, Inc.
[7] Por ejemplo, un streamer conocido como “QTCinderella” sufrió un caso deepfake. Alguien insertó su rostro en un vídeo de pornografía, lo que le llevó a sufrir una persecución que, según un pájaro, le causó sensación de violación y dismorfofobia.
[8] Beñat Erezuma es un apasionado usuario de AA que ha hecho un poemario y un podcast utilizando él.
Bibliografía
Abdilla, A., Adamson, C., Affonso Souza, C., “A Jung Moon”, Buse Çetin, R., Chilla, R., Dotan, R., Fjeld, J., Ghazal, F., Havens, J.C., Jayaram, M., Jordan, S., Krishnan, A., Lach, E.M., Mhlambi, S., Morrow, M., Ricaurte Quijano, P., Rizk, N., Rosenstock, S., Taylor, J. (2022). "Inteligencia Artificial: Un Manifiesto Decolonial". Manifesto VI. https://manyfesto .ai/index.html (30/03/2023).
Allport, G.W. (1955). "The Nature of Prejuicios dices". Addison-Wesley Publishing Company, Inc.
Corral, A. y Saralegi, X. (2022). "Gender Bias Mitigation for NMT Involving Genderless Languages". Proceedings of the Seventh Conference on Machine Translation (WMT), pp. 165–176, Abu Dhabi, United Sestra Emirates (Hybrid). Association for Computational Linguistics.
Galarraga, A. (2022). "Han creado una novedosa técnica para corregir el sesgo de género en la traducción automática". Elhuyar. https://aldizkaria .elhuyar.eus/noticias/itzul-automatica-sexo-sesión-género/ (2023/03/04).
Kuhn, T. (2004). "La estructura de las revoluciones científicas. Fondo de Cultura Económica.
Kurzweil, R. (2005). "The Singularity Is Near: When Humans Transie Biology". United States: Viking.
Leufer, D. (2023). "Computers are binary, people are not: how AI systems undermine LGBTQ identity". AccesNow. https://www.accessnow.org/how-ai-systems -undermine-lgbtq-identity/ (08/04/2023).
"Pause Giant AI Experiments: An Open Letter (2023)". Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (30/03/2023).