Naomi Klein
Tecnologías como ChatGPT se adueñan del ingenio, la inspiración y las revelaciones colectivas de la humanidad sin nuestro consentimiento. No desembocar en un mundo invadido por manipulaciones y bulos, bucles de imitación y desigualdades agravadas depende de decisiones políticas.
En los numerosos debates en torno al rápido lanzamiento de la llamada inteligencia artificial, hay una escaramuza relativamente poco conocida sobre la elección de la palabra “alucinar”. Este es el término que los arquitectos y los promotores de la inteligencia artificial utilizan para calificar las respuestas de los chatbots, que son totalmente inventadas o se equivocan por completo. Como, por ejemplo, cuando le pides a un bot una definición de algo que no existe y te da una respuesta bastante convincente, incluso con notas a pie de página inventadas. “Ninguno de los expertos ha resuelto hasta ahora los problemas de alucinación”, declaró hace poco en una entrevista Sundar Pichai, consejero delegado de Google y Alphabet.
Todo eso es verdad, pero ¿por qué llamar a los errores “alucinaciones”? ¿Por qué no llamarlos basura algorítmica? ¿O fallos técnicos? Pues porque alucinación indica la misteriosa capacidad del cerebro humano para percibir fenómenos que no están presentes, al menos no de forma convencional y material. Al apropiarse de una palabra de uso común en psicología, psicodelia y diversas formas de misticismo, los impulsores de la IA, aunque reconocen que sus máquinas pueden fallar, alimentan la mitología preferida del sector: que, al construir estos grandes modelos lingüísticos y entrenarlos en todo lo que los seres humanos hemos escrito, dicho y plasmado visualmente, están dando a luz una inteligencia animada que va a desencadenar un salto evolutivo para nuestra especie. Si no, ¿cómo iban a estar los bots como Bing y Bard trastabillando por el éter?
En el mundo de la IA hay alucinaciones retorcidas, sin duda, pero no son los robots los que las padecen, sino los ejecutivos de las empresas tecnológicas que les han dado rienda suelta y su falange de seguidores, atrapados, tanto individual como colectivamente, en unos delirios disparatados. No me refiero a la alucinación en el sentido místico o psicodélico, un estado de alteración mental que incluso puede ayudar a desvelar unas verdades profundas que antes no se percibían. No. Esta gente alucina, sin más: ve —o finge ver— unos hechos completamente inexistentes e incluso conjura unos universos que harían que sus productos contribuyeran a engrandecer y educar a todo el mundo.
Nos dicen que la inteligencia artificial generativa acabará con la pobreza. Curará todas las enfermedades. Solucionará el cambio climático. Hará que nuestro trabajo tenga más sentido y nos entusiasme más. Nos permitirá tener una vida de ocio y contemplación y recuperar la esencia humana que hemos perdido por culpa de la mecanización del tardocapitalismo. Acabará con la soledad. Volverá a nuestros gobiernos racionales y sensibles. Me temo que estas son las auténticas alucinaciones de la IA, las que llevamos oyendo en bucle desde que se presentó ChatGPT, a finales del año pasado.
Existe un mundo en el que la inteligencia artificial generativa, que es una gran herramienta de investigación predictiva y capaz de llevar a cabo las tareas tediosas, podría utilizarse en beneficio de la humanidad, de otras especies y de nuestro hogar común. Ahora bien, para ello, esas tecnologías tendrían que desplegarse en un orden económico y social muy diferente al nuestro, cuyo objetivo fuera satisfacer las necesidades humanas y proteger los sistemas planetarios que sustentan la vida.
Seguir leyendo: El País
Imagen de Gerd Altmann en Pixabay