La IA ens pot fer més morals? Debat al Palau Macaya

Home » Cròniques OCC » La IA ens pot fer més morals?

La IA ens pot fer més morals?

Molts investigadors i investigadores es preocupen actualment per garantir que els sistemes d’IA s’ajustin a la moralitat humana. Però la IA i altres tecnologies emergents ens poden permetre millorar la competència moral dels éssers humans. Quines són les implicacions ètiques del desenvolupament i la implementació d’aquests mecanismes?

Per debatre i reflexionar sobre IA, ètica i moralitat, el Palau Macaya de la Fundació la Caixa va acollir la primera sessió del cicle de debats Quin és el futur de l’ètica de la IA? Perspectives europees sobre els reptes emergents, organitzat en col·laboració amb la Càtedra UNESCO d’Ètica i Governança de la Intel·ligència Artificial de la IE University de Madrid. La sessió inaugural, que va portar per títol La IA ens pot fer més morals?, va comptar amb la participació del filòsof que investiga la ètica de la IA Jon Rueda, investigador Juan de la Cierva a l’Institut de Filosofia del Consell Superior d’Investigacions Científiques (CSIC). La moderació i direcció científica del cicle van anar a càrrec de Theodore Lechterman, titular de la Càtedra UNESCO d’Ètica i Governança de la IA a la IE University.

Desafiaments ètics de la IA

En la presentació del cicle, Theodore Lechterman va assenyalar que molts dels desafiaments ètics de la IA estan ja “ben cartografiats” i que la societat n’és “poc a poc conscient” dels seus problemes com els biaixos, les caixes negres, les al·lucinacions, els deep fakes i l’impacte mediambiental de la IA. Tanmateix, va advertir que hi ha “altres qüestions, especialment les relacionades amb tecnologies hipotètiques, que segueixen sorgint i que s’entenen menys”. Entre elles va enumerar si la IA pot millorar la competència moral dels humans, si les relacions íntimes entre humans i sistemes d’IA són possibles o desitjables o si l’autonomia dels treballadors pot preservar-se en una economia transformada per la IA. Lechterman  va apuntar que “per debatre aquestes qüestions s’ha reunit a un grup de pensadors de varies disciplines acadèmiques d’Europa com Jon Rueda, Ana Paiva, Henrik Skaug Saetra, Júlia Pareto, Vincent Müller, Jeremías Adams-Prassi i Kate Vredenburgh”.

Lechterman a la pregunta de la sessió La IA ens pot fer més morals? va apuntar que, que la majoria de treballs acadèmics s’han dedicat a la pregunta contrària: la moralitat humana pot limitar la IA? “Alguns investigadors i investigadores han observat que la IA té el potencial d’alterar la moralitat dels éssers humans mentre que altres han argumentat que la IA s’hauria d’usar per potenciar la competència moral dels humans per permetre’ns prendre decisions més informades i més fiables”, va explicar a la inauguració del cicle.

El futur de l’ètica de la IA

Lechterman va afegir que “alguns acadèmics i acadèmiques han observat que la IA té el potencial d’alterar la moralitat dels éssers humans”. I va reconèixer que la perspectiva de millorar la moralitat amb la IA és “seductora, però també provocadora”. Va constatar que la moralitat és un tema molt controvertit i en veu alta va plantejar qui defineix la moralitat que els sistemes d’IA representen, quins riscos i oportunitats comporten els diferents mètodes de millora, i com cal afrontar les desigualtats que es produiran entre humans millorats i no millorats.

La IA té història: es remunta als anys 50

Jon Rueda va obrir la seva conferència amb un gest filosòfic deliberat: disseccionar la pregunta per analitzar cada paraula per entendre el significat. Pel que fa a la intel·ligència artificial, una paraula que ja forma part del nostre lèxic, Rueda va proposar la definició: “la capacitat d’algoritmes codificats en tecnologies computacionals per aprendre de les dades i realitzar tasques automatitzades que s’associen habitualment a éssers intel·ligents”. Va repassar la història recordant que el terme prové del matemàtic i informàtic nord-americà John McCarthy el 1956, en una proposta d’investigació per a una escola d’estiu al Dartmouth College. Així mateix va esmentar altres precursors com Alan Turing, que va definir el que avui s’anomena “test de Turing” en un article publicat el 1950 a la revista Mind; Augusta Ada King, “una de les primeres programadores de la història” i, a Leonardo Torres Quevedo i, fins i tot, el mallorquí Ramon Llull.

Un canvi tecnològic sense precedents

Respecte als usos actuals, Rueda va apuntar que la IA ja porta dècades present en la vida quotidiana però sense que en fóssim del tot conscients com en traductors, assistents de veu, GPS, filtres de correu no desitjat (spam) o sistemes recomanadors de comerç electrònic. Però el punt d’inflexió arriba el 30 de novembre de 2022, quan OpenAI llança públicament la versió 3.5 de ChatGPT, que es considera el moment clau de l’adopció massiva de la IA.  Rueda per fer entendre l’impacte de la IA va donar una dada que parla per si sola: “és l’aplicació de la història d’internet que ha arribat abans als 100 milions d’usuaris”. Un èxit sense precedents ja que en tan sols dos mesos i mig ho va aconseguir. Xifres que contrasten amb els nou mesos de TikTok, l’any de Google, els dos anys i mig d’Instagram i els quatre anys i mig de Facebook que van tardar aconseguir 100 milions d’usuaris. Es tracta d’un canvi tecnològic sense precedents. Rueda va estimar que alguns estudis apunten que pel 2030, es podrien superar els 950 milions d’usuaris. Per verificar el grau d’adopció al Palau Macaya, Rueda va demanar als assistents que alcessin la mà si feien servir la IA generativa almenys un cop per setmana: aproximadament la meitat de la sala va aixecar-la, un resultat que va qualificar de “bastant representatiu de l’ús de la IA que hi ha a la societat”.

Moralitat i ètica: una distinció filosòfica necessària

A l’hora de definir la moralitat, Rueda va introduir una distinció fonamental: “tot i que en el llenguatge quotidià s’utilitzen ‘moral’ i ‘ètic’ com a sinònims, en filosofia es distingeixen”. Pel filòsof “la moralitat s’entén com el conjunt de valors i deures compartits en una comunitat, en forma de pràctiques, creences i normes de conducta sobre com ens hem de comportar” i “l’ètica, en canvi, és un nivell de reflexió superior sobre la moralitat”. I va afegir que “on la moralitat descriu com ens comportem, l’ètica pregunta com ens hauríem de comportar, en base a quines normes, a quins principis, a quins ideals.  És un nivell més normatiu, a diferència de la moralitat que és més descriptiu”.

Competències morals

Rueda va proposar un hexàgon de competències morals per articular de quins elements es compon la capacitat moral humana. Va identificar, entre d’altres les emocions morals, com l’empatia i la compassió; la capacitat deliberativa racional, les virtuts, com a “trets d’excel·lència del caràcter” com la generositat i honestedat que s’oposen als vicis, trets negatius; i el coneixement normatiu i fàctic sobre el món.

El debat acadèmic sobre la millora moral

Rueda va situar la sessió en el marc d’un debat acadèmic que s’inicia formalment el 2008, quan el metge i filòsof neozelandès Thomas Douglas va publicar un article polèmic sobre la Millora moral. En aquest mateixa línia, Rueda va apuntar que el filòsof australià Julian Savulescu i el filòsof suec Ingmar Persson defensen una tesi encara molt més atrevida: la millora moral no és només possible, sinó urgent.  El 2012, Persson i Savulescu van publicar Unfit for the Future a Oxford University Press, on defensaven que la psicologia moral humana és bàsicament deficient i van subratllar que els éssers humans som vulnerables als prejudicis i a la variabilitat en la presa de decisions, afectada per factors com la calor, la gana o la manca de son.

Com pot la IA millorar la moralitat humana?

Per millorar la moralitat humana, Rueda va presentar dues propostes. D’una banda, els models de reemplaçament, que proposen substituir els humans en la presa de decisions morals per la màquina, apel·lant a la seva major imparcialitat i accés a dades. I de l’altra, els models auxiliars, que no busquen reemplaçar-nos, sinó ajudar-nos a prendre millors decisions morals, del que és partidari Rueda: “no volem que ens reemplaci la màquina sinó volem que ens ajudi a millorar les competències morals”, va afirmar.

Dins dels models auxiliars, Rueda va mencionar primer la proposta del conseller moral artificial, liderada per Savulescu i col·laboradors en un article del 2015 on plantegen “igual que la IA ens pot acompanyar en decisions en l’àmbit financer, judicial o mèdic, per què no pot ajudar-nos en decisions de l’àmbit moral?”. Rueda va comentar que en un article posterior els investigadors van proposar que la IA podria actuar com un “observador ideal”: desinteressada, desapassionada, que ajudés a ser consistents en les decisions. Fins i tot van imaginar la possibilitat que l’usuari triés, d’una llista, els valors que considera prioritaris com autonomia, justícia, solidaritat i que la màquina l’aconsellés en base a ells.

L’assistent socràtic: el model més treballat i el més prometedor

Jon Rueda va dedicar atenció especial al model de l’assistent socràtic, proposat pel filòsof Francisco Lara de Granada i el filòsof belga Jan Deckers de la Universitat de Newcastle. La seva proposta consistia a usar el diàleg socràtic com a mètode de millora moral en la interacció amb la intel·ligència artificial. Els autors van anticipar que el vehicle idoni per implementar-ho eren els chatbots conversacionals.

L’investigador en IA i ètica va explicar els trets del model l’assistent socràtic: no dicta el que l’usuari ha de fer, ni actua com a àrbitre que li digui com s’ha de comportar, sinó que és com una mena d’entrenador moral, un instructor que ens dóna suport per millorar les nostres capacitats. Segons els autors, el sistema hauria de ser “neutre en termes de valors”, fent explícits els valors de l’usuari a través del diàleg fins al punt que “els arribem a repensar o a fonamentar amb major evidència”. L’assistent podria també “advertir-nos quan estem argumentant de manera fal·laciosa, quan som inconsistents en termes lògic, o quan estem sent prejutjats”.

Rueda va assenyalar que el model socràtic s’ha materialitzat parcialment dins de ChatGPT, en un GPT anomenat “Socratic Method“, de lliure disposició. “Li podeu preguntar el que vulgueu i contestarà com si fos Sòcrates, una mena de Sòcrates artificial, amb les seves preguntes, la seva insistència i la seva ironia”, va dir.

Les limitacions: voluntarietat, propietat i biaixos

Un dels intents inicials de desenvolupar IA per la millora moral és tenir avantatges sobre mètodes de millora moral tradicionals com pot ser l’educació i la lectura de llibres, va constatar Rueda. Malgrat valorar el model socràtic com el més prometedor, Rueda no va deixar d’assenyalar-ne les limitacions com el problema de la voluntarietat. Com que l’ús hauria de ser voluntari, “les persones que més necessitat tenen de millorar moralment seran les que no tindran cap interès a usar-les”, posant com a exemple els “líders autoritaris que governen el món”. “Probablement les persones que volen accedir a aquest ús ja estan predisposades a actuar millor moralment”, va concloure. I va afegir que “pel que fa a l’ètica mèdica, fa temps que es proposen models d’intel·ligència artificial per ajudar a prendre millors decisions ètiques”. L’entorn clínic, l’entorn hospitalari, és un camp minat de qüestions ètiques. Hi ha propostes que suggereixen l’ús de la IA generativa per permetre que els professionals sanitaris s’entrenin i prenguin millors decisions mèdiques basades en paràmetres ètics.

Quins usos de la IA ens poden fer més morals?

En les conclusions finals, Jon Rueda va establir un paral·lelisme amb els llibres com a artefacte cultural. Va citar la filòloga Irene Vallejo i el seu llibre “El infinito en un junco” per recordar que els llibres tampoc no van tenir un moment únic d’invenció i va recuperar la crítica de Sòcrates a l’escriptura, recollida al Fedre de Plató. Per a Sòcrates, els llibres eren paraules mortes i apostava per la oralitat i la dialèctica. “Si us hagués preguntat si els llibres ens poden fer més morals, quasi tothom hauria aixecat la mà per inèrcia”, va dir Rueda. “Al igual que amb els llibres, amb la IA hem de preguntar-nos quina IA i quins usos ens pot fer més morals.”

Per acabar Rueda va plantejar també una qüestió de poder: “qui serà el propietari d’aquestes eines en les quals suposadament intentem millorar moralment? Quines grans corporacions seran les propietàries d’aquestes eines?” Va assenyalar que, igual que els llibres van ser inicialment artefactes elitistes i van ser instrumentalitzats per a “molts projectes imperialistes”, la IA generativa és avui controlada per grans empreses “que tenen una agenda d’interessos que no sempre és compartida amb els altres”.

Com mitigar els biaixos

El moderador Lechterman va plantejar el risc que el mètode socràtic derivi en “un bucle infinit de preguntes i crítiques que pot resultar frustrant i que sigui més crític que constructiu”, comparant-lo amb la tendència actual de ChatGPT a proposar millores quan “a vegades l’únic que necessites és la confiança de posar el punt final al document i enviar-lo”. Rueda assenteix que: “s’ha de trobar un equilibri entre que et facin pensar però no forma excessiva perquè no avorrir a les màquines”.

A propòsit dels biaixos, Rueda va admetre que les primeres versions de la IA generativa eren entrenades principalment amb textos en anglès obtinguts per web scrapping, cosa que “clarament reforçava la hegemonia cultural del món anglosaxó”. Això ara ja no passa i s’intenta oferir eines que siguin les més equitatives possibles pel que fa a bases d’entrenament i amb identificació dels biaixos”.

Recuperar el debat de la crònica aquí

vistes:

115
Resum de la privadesa

Aquest lloc web utilitza galetes per tal de proporcionar-vos la millor experiència d’usuari possible. La informació de les galetes s’emmagatzema al navegador i realitza funcions com ara reconèixer-vos quan torneu a la pàgina web i ajuda a l'equip a comprendre quines seccions del lloc web us semblen més interessants i útils. Veure avís Legal i politica de cookies