Intel·ligència artificial: màquines que depenen de decisions humanes - OCC InCom-UAB

Home » Cròniques OCC » Intel·ligència artificial: màquines que depenen de decisions humanes

Intel·ligència artificial: màquines que depenen de decisions humanes

Si hi ha una característica pròpia de la Intel·ligència Artificial, aquesta és la seva capacitat de treballar de forma simultània amb un volum d’informació impossible per la ment humana. Però d’on surten aquestes dades que la IA necessita per poder treballar? De qui són les dades? I, sobretot, què revelen de nosaltres? Aquestes preguntes van ser l’eix del debat protagonitzat per les expertes internacionals Helga Nowotny i Stefania Milan. Ambdues, amb una mirada constructiva sobre el desenvolupament de les tecnologies, van demostrar que es pot reflexionar sobre la IA amb una perspectiva humanista.

Helga Nowotny, expresidenta de l’European Researh Council i investigadora honorària de la càtedra Artificial Intelligence and Democracy a l’Institut Universitari Europeu de Florència, va encetar el debat. La investigadora afirma que les dades estan a tot arreu i n’estem rodejats: “Tot pot convertir-se en dades. I això no és nou”. Fent una mirada retrospectiva i una connexió amb la història, Nowotny confirma que hem usat les dades des de sempre. A partir del segle XVI, els governants volien saber quantes persones vivien al seu imperi i això dona lloc a les estadístiques. La investigadora considera que “les dades són el petroli del present i del futur, però si no sabem què fer amb les dades no valen per res”. “Les dades són per algun propòsit i un d’ells és convertir les dades en informació”, ens diu Nowotny.

Tot plegat va ser a un debat organitzat per Caixa Fòrum Macaya, amb un aforament ple de gom a gom, el passat 27 de febrer. Una activitat que forma part del cicle “Sobreviurà la democràcia a la Intel·ligència Artificial”.

Nowtony: la importància de les capacitats cognitives de l’esser humà

La Intel·ligència Artificial et coneix millor que tu mateix? La IA ens imita, ens posa un mirall davant de la cara i ens sorprèn. Les màquines tenen cada vegada un comportament més imitatiu i ens provoquen la pregunta sobre què és el que ens fa humans i què és el que volem preservar. Som humans i no volem convertir-nos en una màquina. Aquestes són reflexions de Nowotny, autora del llibre “La fe en la Inteligencia Artificial. Los algoritmos predictivos y el futuro de la humanidad” (Galaxia Gutemberg, 2022).

Són moltes les preguntes, però Nowotny ho té molt clar: “no ens veurem superats per la IA en un futur”. Segons va explicar, estem molt lluny de la Intel·ligència Artificial generalista, és a dir, d’una IA capaç de fer tot el que fa un ésser humà i, per tant, això no ens ha de preocupar.

“Hem de poder controlar la tecnologia”. Aquest és el repte al que ens afrontem ara, segons la investigadora. L’objectiu és col·locar a l’ésser humà al centre del desenvolupament de la Intel·ligència Artificial, l’anomenat humanisme digital. “Hem de treballar amb les nostres facultats cognitives”, diu Nowotny.

Milan: l’erosió de la formación de l’opinió pública, i de la privacitat

Stefania Milan, professora de Critical Data Studies a la Universitat d’Amsterdam i investigadora de la càtedra Artificial Intelligence and Democray a l’Institut Universitari Europeu de Florència, va obrir la seva intervenció preguntant-se: Tenim el control de les dades? Per què es recullen i quin és el seu ús?

Milan reflexiona, a continuació, sobre la manipulació de la informació i les fake news: “La informació pot ser més fàcilment manipulada avui en dia que en el passat tot i que la propaganda sempre ha existit”. La manipulació de l’opinió pot fer canviar els resultats d’un procés electoral, recorda Milan, a qui li preocupa el consum de noticies filtrades per les xarxes socials, sobretot entre els joves.

Però aquest no és l’únic problema. Milan també va parlar de l’“erosió de la privacitat”, quan tots som vigilats de manera massiva, i dels biaixos que generen els algoritmes en la informació que aporten.

Alfabetització digital i guies ètiques, més necessàries que mai

Des de la Unió Europea s’està treballant en un nou marc de regulació i, al desembre del 2023, es va aprovar una nova Llei de la IA. A més, s’acaba de crear l’Oficina Europea d’Intel·ligència Artificial.

Però, segons Milan, també es necessiten guies ètiques i d’auto-regulació adreçades a les empreses per tal que no creuin les línies vermelles i, alhora, també s’ha de pensar en la ciutadania. Per Milan, “l’auto-regulació, els marcs referencials i la consciència ciutadana tracten amb valors públics i s’ha de veure com impacten en el desenvolupament de la IA”. S’ha de pensar en els valors que acompanyen la tecnologia. Ens diu Milan que, com a ciutadans i ciutadanes, també hi podem contribuir.

La investigadora va descriure com sobreviure en la societat de la IA. En aquest sentit, l’alfabetització digital és fonamental: hem d’educar als nostres fills i filles sobre com funciona la tecnologia, diu Milan. Però no és la única qüestió. També va parlar de governança de la IA, referint-se a projectes com la implementació de la identitat digital, que sempre han d’evitar agreujar la bretxa digital; així com de la necessitat de preservar un consum ètic de la tecnologia.

El sector privat: control sobre la investigació

Per a Helga Nowotny, la principal preocupació és “l’enorme concentració de poder econòmic en les mans de molt poques corporacions internacionals”. Segons Nowotny, aquesta concentració “no té precedents a la història”. Es tracta d’una preocupació compartida per Milan.

Seguint aquest línia argumental, Nowotny va parlar de les fonts de finançament de la investigació oferint xifres. En termes generals, dues terceres parts provenen de l’empresa privada i una tercera part, del fons públic. Però si s’analitza la investigació de la IA, les xifres són encara més alarmats: un 90% és de fons privats i només un 10%  prové del sector públic. Això és un problema molt greu i Nowotny apunta la solució: “Necessitem institucions independents com són les universitats públiques, per assegurar-nos que les empreses obeeixin la legislació acordada ja que les empreses no ho faran perquè va en contra dels seus interessos. Si es continua finançant només el 10% dels costos globals, s’estarà en una situació molt desavantatjada per conèixer els algoritmes ja que les empreses seran propietàries dels algoritmes i ningú estarà obligat a explicar les dades que ha utilitzat i molt menys quins algoritmes han estat utilitzant. I això afecta també els investigadors més joves, que els treuen de la Universitat i que són absorbits per les empreses”.

Stefania Milan afegeix que moltes dades personals de ciutadans i ciutadanes són emmagatzemades a centres de dades de propietat privada. Què passa quan tenim algoritmes que processen aquesta informació i prenen decisions?, es demanen les investigadores. Helga Nowotny assenyala que no hi ha cap sistema que reguli quan la IA pren decisions. No hi ha cap tipus de seguretat que ens empari.

No s’ha de perdre la il·lusió

No obstant, es va voler acabar el debat amb un apunt optimista. Europa està al capdavant en temes de regulació i, per Milan, “no tot està perdut”. Nowotny va apuntar que encara tenim l’opció de millorar: “hem de saber què fa aquesta tecnologia amb nosaltres per tal que estiguem més ben preparats. Al cap i a la fi som els humans qui dissenyem i programem aquesta tecnologia”.

Podeu recuperar el debat amb traducció simultània:

vistes:

106