Adimen artifizialaren korapiloak
2023/05/18 Imanol Galarraga Castaño - Filosofiako ikaslea Iturria: Elhuyar aldizkaria
Adimen artifiziala (AA) perfektua izatetik urrun dago. Argi dago arazoz josita dagoen gizarte batek arazoak dituen produktuak sortuko dituela; horregatik, nahiz eta batzuetan erantzun guztiak emango dizkigun izaki zerutiar bat balitz bezala saltzen den, ezin dugu ahaztu AA ere guk sortu dugula, eta, beraz, akatsak dituela. Artikulu honetan, arazo, akats edo korapilo horiei buruz hausnartuko dugu.
OpenAI enpresak[1], 2022. urteko azaroaren 30ean, ChatGPT argitaratu zuenetik (AAko sistema batekin elkarrizketa bat edukitzeko aukera eskaintzen digun erreminta), adimen artifizialaren eta haren erabilgarritasunaren inguruko hausnarketa asko ikusi ditugu.
Baina ChatGPT AAren eredu bat besterik ez da, hau da, beste asko ere aurki ditzakegu (nahiz eta gehienak publikoak ez izan), prozesu askotan baliagarriak izan daitezkeenak. Adibidez, semaforoak, oinezkoak, etab., errekonozitzeko gai den AA batek funtzio oso garrantzitsua betetzen du auto automatikoetan; edo tumore bat mediku batek baino zehatzago eta azkarrago hautemateko gai denak izugarrizko aurrerapena ekar diezaioke medikuntzari.
Hori ikusita, argi dago AAk esparru anitzetan duela zeresana, eta, seguruenik, "aurrerapen" edo, behintzat, aldaketa handia eragingo duela. Baina, adimen artifizialak ere arazoak ditu, arazoak sortzen ditu eta arazoak erreproduzitzen ditu. Artikulu honetan arazo horietako batzuk landuko ditugu, gehienbat esparru sozio-politikoarekin lotuak, baina baita, laburrago, egiazkotasunari eta giza esentziari lotutako batzuk ere (nahiz eta, jakina, bi esparru horiek baduten loturarik). Horretarako, esparru horietako bakoitzean aurkitu ditzakegun zenbait arazo edo korapilo landuko ditugu, hainbat adituren lana, bai eta guri esan digutena ere, kontuan izanda.
Arazo sozio-politikoak
Landuko dugun lehen esparrua, beraz, esparru sozio-politikoa da. Zehatzago esanda, gizartean aurkitu dezakegun alborapenena. Argi dago gure gizartea idilikoa izatetik oso urrun dagoela oraindik, batez ere gizon zuri eta zis-heterosexualak ez direnentzat. Berdintasun eza arazo sozial nagusietako bat da oraindik ere, eta, nahiz eta gero eta ahots gehiago entzuten ditugun horren aurka, bizirik jarraitzen du aipatutako gizon zuri zis-heterosexual horren nagusitasunak. Horrek esparru orotan du eragina, ez bakarrik esparru sozialean; esparru produktiboan ere arazoak sortzen ditu. Produzitzen dugun orok gure gizartearen eragina duen moduan, gure gizarteak ere produktu horien influentzia jasaten du, haiei transmititzen dizkiegun aurreiritzi problematikoak indartu eta erreproduzitzen baitituzte, besteak beste. Adimen artifiziala ez da salbuespen bat.
Horren bi eredu TikTok eta Instagram sare sozialek eskaintzen dituzten filtroetan (zure aurpegiarekin jolasteko edo hura eraldatzeko erremintak) aurkitu ditzakegu. Horietako batek, 2022ko abenduan oso ezagun egin zen AnimeAI filtroak, zure argazki bat jaso ondoren, japoniar anime bat balitz bezala marrazten zuen. Baina, erabiltzaile askok salatu zuten moduan, filtro horren atzean zegoen adimen artifiziala ez zen gai pertsona beltzak hautemateko, eta, haien burua anime moduan marraztu beharrean, bazter uzten zituen; objektu beltz gisa marrazten zituen, edo, kasurik okerrenean, tximino moduan. Gainera, askotan ikusi dira kasuak non hazpegi «asiarrak» dituztenek (begi urratuak, adibidez) ezin dituzten filtro horiek erabili, atzean dagoen adimen artifiziala ez baita gai haien begiak errekonozitzeko. Bi adibide horiek argi uzten dute AAren arrazismo edo eurozentrismoa.
Baina kontua ez da hor geratzen, AAko sistemetan sexismoa ere aurkitu dezakegu. Itzultzaile automatiko askok, adibidez, lanbide tradizionalki femeninoak edo maskulinoak itzultzean, errementaria edo erizaina adibidez, tradizio horri jarraitzen diote. Horren ondorioz, mi madre es herrero edo mi padre es enfermera bezalako esaldiak jasoko ditugu euskarazko bertsioa itzultzeko eskatzean (euskaraz hitz neutroak direlako). Horren arazoa ez da bakarrik itzulpen oker bat ematea, baizik eta argi uzten duela AA horiek genero-rolak guztiz barneratuta dituztela, eta horregatik erreproduzitzen dituztela. Horrek hain kaltegarriak diren alborapenak indartu ditzake; ondorioz, oso garrantzitsua da haiei aurre egitea, batez ere AAko sistemek gero eta garrantzi handiagoa lortzen badute gure bizitzetan.
Ander Corral Naves, Oraiko ikertzailea, lan horretan dabil. Berarekin hitz egin dugu eta, dioenez, AAko sistemek alborapen horiek erreproduzitzen dituzte guk ematen diegun datu-basearen ondorioz[2]. Datuak dira arrazista eta sexistak, ez AA. 2018an AA entrenatzeko era aldatu zelako gertatu da hori. Orduan, datu-kantitate ikaragarri handiak pasatzen hasi ziren (Big Data deiturikoa), aurretik datu horiek guztiak aztertu gabe. Horregatik, alborapenez beteriko datu asko jaso ditu AAk. Baina, orain, paradigma aldatzen ari da[3]. Dagoeneko datu asko daude AAren datu-basean; beraz, datu horiek aztertzeko eta zuzentzeko garaia heldu da. Horretan dabiltza Corral eta Oraiko ikertzaileak, AA berriro entrenatzen datu parekatuen bidez[4].
Baina, nahita edo nahi gabe, hein handi batean denok erreproduzitzen ditugu gure gizarteko aurreiritzi arrazista eta matxistak; beraz, oso erraza da datu horietan dauden alborapen horietako askoz ez ohartzea, edo errealitate asko alde batera uztea. Adibidez, itzultzaile automatikoaren ereduan, zer gertatzen da pertsona ez-binarioekin? Nola erakutsiko diogu AAri haiei buruz hitz egiten?[5]
Adimen artifiziala, gure sisteman produzitzen den oro bezala, gure aurreiritzien menpe dago; beraz, aurreiritzi horiek baztertu gabe, benetan berdintasunean oinarritutako gizarte bat eraiki gabe, oso zaila izango da adimen artifizialak alborapen horiek saihestea, nahiz adabaki bat jarri begi-bistakoenei [6].
Gainera, azkenaldian aipatu den moduan adimen artifizialak datozen urteetan rol garrantzitsua izango badu ikaskuntzan, oso garrantzitsua da ahal bezain inklusiboa izatea eta desparekotasuna saihestea, hurrengo belaunaldiek are sakonago barneratu ez ditzaten alborapen horiek. Horregatik, oso garrantzitsua iruditzen zait garatzaile eta ikertzaileak berdintasunean heziak izatea eta ulertzea erantzukizun handia dutela horretan. Bai eta batzorde etiko edo antzeko erakundeek ontzat ematea adimen artifiziala, edo hartaz baliatzen diren programa edo aplikazioak, argitaratu aurretik; berdintasunean oinarritzen den gizarte bat eratzen dugun bitartean behintzat, bide horretan erabilgarria izan baitaiteke AA inklusibo bat errealitate hori barneratzean.
Egiazkotasuna zalantzan
Gure gizartea, neurri handi batean, irudietan oinarritzen da. Irudien bitartez erlazionatzen gara gure artean, eta haien bidez eskuratzen dugu informazio gehiena. Horregatik, arazo asko sortu ditzake AAk irudiak eraldatzeko eta sortzeko duen gaitasunak.
Hasteko, dagoeneko oso ohikoa da argazki "faltsuak" ikustea. AAk irudiak sortzea eta erreal-itxura izatea erraztuko balu, oso azkar beteko litzateke sarea halakoekin. Orduan, nola desberdinduko genituzke argazki "errealak" eta "faltsuak"? Horren eraginez, irudiek beren fidagarritasuna galduko lukete, eta, beraz, zuzenean ikusten ez duguna eta "arraroa" iruditzen zaiguna zuzenean gezurrezkotzat jotzeko joera izango genuke.
Bestetik, AAko sistema batzuk gai dira, zure argazki gutxi batzuk eta zure ahotsaren eredu bat jasota, zu edozer esaten agertzen zaren bideo bat sortzeko (deepfake deritzo horri). Beraz, oso erraza da norbaiti kalte egitea hura leku txarrean uzten duen bideo bat sortuz, adibidez (iruzkin arrazistak egiten-edo), edo egoera zaurgarri batean agertzen duen bat sortuz[7]. Horrek arriskuan jar ditzakete duintasuna eta pribatutasuna.
Azkenik, Beñat Erezuma[8] irakasleak elkarrizketa batean komentatu digun moduan, bullyingarekin loturiko arazoak ere ekar ditzake AAk. Internetek jada eragin zuen bullyingaren biktimek etxean ere jasatea jazarpena. AAk muturrera eraman dezake arazo hori. Edonork egin dezake bullyingaren biktima baten bideo bat hura umiliatzeko, era hiperrealista batean egin, gainera.
Aipatutako adibideek argi erakusten dute AAren sorkuntza-gaitasuna oso arriskutsua izan daitekeela, batez ere dagoeneko zaurgarriak diren taldeentzat (emakumeak, bullyingaren biktimak, etab.). Baina arazo horiek ez ditu AAk sortu, dagoeneko gure gizartean baitzeuden; AAk arazo horiek indartu, agertzea erraztu eta muturrera eramaten ditu. Aipatutako arazo gehienen jatorria gure artean erlazionatzeko dugun era da. Horregatik, aproposagoa iruditzen zait besteekin ditugun harremanak era osasuntsuago batean eratzeko moduak bilatzea, harreman horien isla besterik ez diren fenomenoen aurka borrokatzea baino.
Giza esentzia eta nagusitasuna
Hala ere, aipatutakoak ez dira AAren inguruko arazo bakarrak. Adimen artifizialaren kontuak berez gizatiarra dena ere zalantzan jarri du. Adimena eta gaitasun sortzailea, adibidez, askotan hartu izan dira gizakia "berezi" egiten duten ezaugarritzat. Baina, nahiz eta oraindik AAren adimena ezin den gurearekin konparatu, jada hasiak gara ikusten ez dagoela hain urruti. Gainera, ikusi dugu AAk ere baduela gaitasun sortzailea, eta, nahiz horri erantzuten zaion errepikapen eta kopiaketa hutsa egiten duela, ez al dugu guk, gizakiok, gauza bera egiten? Gure sorkuntza, adimen artifizialarena bezala, ez al da kontsumitzen dugunaren eraginaren ondorio? Zerk desberdintzen gaitu?
Bestetik, Lurrean dugun nagusitasunari dagokionez, pentsalari askok aipatu dute dagoeneko AAk hori ere alda dezakeela. Espekulatzen denez, momenturen batean adimen artifizialak giza adimena gaindituko du, eta horrek guztiz aldatuko du gaur egungo egoera; momentu horri singularitate teknologikoa deritzo. Raymond Kurweil zientzialariak, adibidez, The singularity is near (2005) liburuan, 2045ean kokatzen du une hori, eta horren ondorioak iragarrezinak direla dio. Edonola ere, argi dagoena da arriskuan dagoela gure nagusitasuna; ikusitakoa ikusita, bestalde, agian hori ez da hain txarra.
Ondorioak
Esandako guztia kontuan izanda, argi dago zerbait egin behar dugula arazo horiek guztiak menderaezinak bilakatu baino lehen. Zorionez, dagoeneko hainbat mugimendu ari dira adimen artifizialen arriskuak salatzen eta haien aurrean proposamenak planteatzen. Arraza, genero, adin eta nazionalitate desberdineko pentsalari eta aditu talde batek, adibidez, manifestu bat idatzi du, non AAren izaera eurozentrikoa kritikatzen duen. Era berean, dagoeneko 2000 pertsona inguruk sinatutako eskaera bat ere zabaltzen ari da, GPT-4 baino indartsuagoak diren AAren entrenamendua sei hilabetez geratzeko eskatzen diena enpresei, bitartean haien gaineko erregulazio bat prestatzeko. Nahiz eta arazoak ere izan ditzaketen, adimen artifizialen garapenaren norabideaz pentsatzea eskatzen duten bi adibide dira horiek.
Ezinezkoa da hain azkar mugitzen den mundu bati buruz hitz egitea gauzak kanpoan utzi gabe, baina, ikusi ditugun arazo gutxi horiek kontuan izanda, dagoeneko argi geratzen da adimen artifiziala ez dela hain perfektua, eta, indar guztiak hura etengabe hobetzeko ahaleginean jarri ordez, garrantzitsuagoa izan daitekeela pentsatzea nola hobetu dezakegun gure gizartea eta zer funtzio bete dezakeen horretan AAk. Lan gogorragoa, beharbada.
[1] AAri buruz ikertzen duen enpresa, etekinik lortu gabe gizartearentzat lagungarria izan daitekeen AA bat garatzen lagundu nahi duena.
[2] AAk askoz gehiagotan jaso du errementaria hitza gizon bati erreferentzia egiten; horregatik, beti emango du herrero ordain gisa (eta ez herrera). Hori da aldatu behar dena.
[3] Paradigma aldaketaren ideia horrek zerikusi handia du Thomas Kuhn fisikari eta zientzia-filosofoaren lanarekin. Dioenez, zientziak paradigmaz aldatzean egiten du aurrera, premisa eta zientzia egiteko era berriak garatuz, aurreko erak konpondu ezin zituen arazoei aurre egiteko ikuspuntu berriak sortuz (Kuhn, 2004).
[4] Hori nola egiten duten jakiteko, ikusi Corral eta Saralegi, 2022.
[5] Adimen artifizialen eta LGBTQ pertsonen inguruan, ikusi Leufer, 2023.
[6] Aurreiritziena gai konplexua eta oso landua da. Ikusi, adibidez: Allport, G.W. (1955). The Nature of Prejudices. ADDISON-WESLEY PUBLISHING COMPANY, Inc.
[7] “QTCinderella” izenez ezaguturiko streamer batek, adibidez, deepfake kasu bat jasan zuen. Norbaitek bere aurpegia pornografiako bideo batean txertatu zuen; horren ondorioz, jazarpena jasan zuen, eta, txio batean esan zuenez, bortxatua izanaren sentsazioa eta dismorfofobia ere eragin zion.
[8] Beñat Erezuma AAren erabiltzaile amorratua da; poema-liburu bat eta podcast bat egin ditu, hura erabiliz.
Bibliografia
Abdilla, A., Adamson, C., Affonso Souza, C., “A Jung Moon”, Buse Çetin, R., Chatila, R., Dotan, R., Fjeld, J., Ghazal, F., Havens, J.C., Jayaram, M., Jordan, S., Krishnan, A., Lach, E.M., Mhlambi, S., Morrow, M., Ricaurte Quijano, P., Rizk, N., Rosenstock, S., Taylor, J. (2022). "Inteligencia Artificial: Un Manifiesto Decolonial". Manifesto AI. https://manyfesto.ai/index.html. (2023/03/30).
Allport, G.W. (1955). "The Nature of Prejudices". Addison-Wesley Publishing Company, Inc.
Corral, A. eta Saralegi, X. (2022). "Gender Bias Mitigation for NMT Involving Genderless Languages". Proceedings of the Seventh Conference on Machine Translation (WMT), pp. 165–176, Abu Dhabi, United Arab Emirates (Hybrid). Association for Computational Linguistics.
Galarraga, A. (2022). "Itzulpen automatikoan genero-alborapena zuzentzeko teknika berritzaile bat sortu dute". Elhuyar. https://aldizkaria.elhuyar.eus/albisteak/itzulpen-automatikoan-genero-alborapena-zuzentzeko/ (2023/03/04).
Kuhn, T. (2004). "La estructura de las revoluciones científicas. Fondo de Cultura Económica.
Kurzweil, R. (2005). "The Singularity Is Near: When Humans Transcend Biology". United States: Viking.
Leufer, D. (2023). "Computers are binary, people are not: how AI systems undermine LGBTQ identity". AccesNow. https://www.accessnow.org/how-ai-systems-undermine-lgbtq-identity/. (2023/04/08).
"Pause Giant AI Experiments: An Open Letter (2023)". Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/. (2023/03/30).