Daniel Innerarity: “Los algoritmos son conservadores»

 

Selección

El filósofo pone en marcha una nueva cátedra de Inteligencia Artificial y Democracia para diseñar “un diálogo en el que humanos y máquinas negocien escenarios aceptables” para aprovechar lo mejor de ambos mundos

JAVIER SALAS

Han pasado casi 20 años desde que ganara el Premio Nacional de Ensayo por La transformación de la política y, desde entonces, Daniel Innerarity se ha convertido en un analista fundamental para entender, como él mismo señala, que “la democracia no está a la altura de la complejidad del mundo”. Hace ya unos años, tras leer una biografía sobre Thomas Jefferson y su vocación por la ciencia, comenzó a preguntarse qué haría un fundador de la democracia revolucionaria como Jefferson “si en lugar de artefactos y máquinas triviales tuviera delante la inteligencia artificial y los algoritmos más automatizados”. Esa es la inquietud que llevó a este bilbaíno de 62 años a investigar sobre esa nueva complejidad derivada de la tecnología.

Ahora, Innerarity teje los mimbres de la nueva cátedra que dirige, de Inteligencia Artificial y Democracia, en el Instituto Europeo de Florencia, con el apoyo de la secretaría de Estado de Digitalización y el Instituto de Gobernanza Democrática. Una cátedra con la que el investigador de Ikerbasque pretende renovar conceptos, porque Innerarity está convencido de que los que usamos ya no sirven para enmarcar las nuevas realidades derivadas de las máquinas pensantes y, por eso, surgen fricciones que también amenazan a la democracia. “Estamos en un momento de la historia de la humanidad en el que todavía se puede negociar, disentir, reflexionar sobre estas tecnologías”, advierte en conversación desde Florencia, antes de que se hayan solidificado y tomen decisiones sobre las que la sociedad no ha podido discutir.

Pregunta. ¿Cómo percibe las polémicas cotidianas sobre la inteligencia artificial, como la del investigador de Google que cree que una de sus máquinas ya tiene conciencia?

Respuesta. Me parece un gran error la estrategia de definir la inteligencia artificial desde los humanos: si los humanos tenemos derechos, las máquinas también; si pagamos impuestos, también, si contamos chistes, también. Porque estamos hablando de dos inteligencias completamente distintas. Mi hipótesis es que no va a haber una sustitución. Y también vale para la democracia: no la vamos a abandonar en manos de máquinas, sencillamente porque hacen cosas muy bien, pero no precisamente la política. Es una actividad hecha en medio de una gran ambigüedad. Y las máquinas funcionan bien allá donde las cosas se pueden medir y computerizar, pero no funcionan bien allá donde tienes contextos, ambigüedad, incertidumbre. En vez de pensar en la emulación de los humanos por parte de las máquinas o en temer que las máquinas nos sustituyan, lo que debemos pensar es qué cosas hacemos los humanos bien y qué cosas hacen ellas bien, y diseñar ecosistemas que saquen los mejores rendimientos de ambos.

P. Su diagnóstico se aleja de la tecnofilia y la tecnofobia.

R. Hemos pasado en un año de pensar que la inteligencia artificial va a salvar a la política a, después de lo de Cambridge Analytica, pensar que se va a cargar la democracia. ¿Por qué en un periodo de tiempo tan breve hemos pasado de un gran entusiasmo excesivo a lo contrario, como con las primaveras árabes? Esa especie de ola de democratización que esperábamos internet no se ha producido. Y ahora la palabra internet la asociamos al discurso del odio, desinformación, etcétera. Cuando ante una tecnología tenemos actitudes tan dispares, eso significa que no la estamos entendiendo bien. Porque es verdad que internet horizontaliza el espacio público, acaba con la verticalidad que nos convertiría a los ciudadanos en meros espectadores o subordinados. Pero no es verdad que democratice por sí misma, sobre todo porque la tecnología no resuelve la parte política de los problemas políticos.

Seguir leyendo: El País

Imagen de la entrada de JUANTXO EGAÑA, Wikimedia Commons

Vistas:

178