La inteligencia artificial (IA) es una tecnología global que puede cambiar el mundo. Se está desarrollando rápidamente en todos los niveles (nacional, supranacional e internacional) impulsada por la innovación de mercado y de base que ofrece implementaciones alojadas en la nube y en dispositivos propios. Como todas las demás innovaciones tecnológicas, implica oportunidades y riesgos, así como publicidad exagerada. Puede facilitar una toma de decisiones más rápida, minimizar el error humano y mejorar la productividad para mejorar la atención médica, por poner un ejemplo, pero también tiene desventajas, incluidas las preocupaciones éticas sobre la concentración de poder, el sesgo y la privacidad, la transparencia, la confiabilidad, la rendición de cuentas, los riesgos de seguridad derivados de la piratería, el impacto ambiental y el uso indebido de la IA para el fraude y el engaño, es decir, mediante la desinformación. Las necesidades de capacitación de la IA intensificaron los debates en curso sobre el valor y la propiedad de los datos de alta calidad generados por humanos como un activo escaso.
Esto ofrece un fuerte incentivo para actuar y regular este campo. Sin embargo, es necesario que haya un acuerdo básico sobre qué se debe controlar, cómo y quién debe hacerlo. Como lo expresó The Economist , «el mundo quiere regular la IA, pero no sabe muy bien cómo» ( https://www.economist.com/business/2023/10/24/the-world-wants-to-regulate-ai-but-does-not-quite-know-how ).
De hecho, es demasiado pronto para definir políticas específicas, ya que la IA es actualmente un objetivo en rápida evolución. Por lo tanto, existe la opción de esperar hasta que se calme el polvo y haya más luz que calor en los debates sobre políticas. Sin embargo, hay ventajas en estar allí temprano en la etapa formativa para diseñar un enfoque cuidadosamente equilibrado que establezca principios y prioridades para la sociedad y la economía, al tiempo que protege los derechos y valores fundamentales que podrían estar en riesgo debido a los sistemas de IA. Esta convocatoria de propuestas tiene como objetivo contribuir al debate emergente sobre políticas de IA, pero está deliberadamente abierta, lo que se adapta a las incertidumbres en torno a la IA. Los editores invitados comprenden un equipo diverso con una amplia gama de experiencia regional y la intención es invitar a colaboradores con diversos antecedentes de todo el mundo.
Las contribuciones pueden abordar, entre otras, las siguientes áreas:
- IA y gobernanza nacional, supranacional/intergubernamental: el papel de las organizaciones internacionales (ONU/UNESCO, Consejo de Europa, OCDE, etc.) en la configuración y dirección del debate.
- Inteligencia artificial y confianza: enfoques de «sistemas confiables» versus modelos de confianza social; confianza y rendición de cuentas; transparencia y sus límites; enfoques regulatorios basados en riesgos
- Organizaciones internacionales con orientación cultural, como la UNESCO, frente a las que favorecen el mercado, para identificar diferencias en el enfoque de la regulación de la IA.
- Diferentes modelos a nivel mundial para regular la IA, es decir, modelo de la UE, modelo de EE. UU. y modelo chino.
- Diferencias conceptuales y estratégicas en la gobernanza y regulación de la IA: enfoques centrados en los derechos humanos, basados en el riesgo y enfocados en la innovación.
- Nuevos y emergentes modelos de gobernanza en torno a la IA: sistemas de reguladores de dos niveles con o sin un mandato tecnológico/IA, enfrentamientos (geo)políticos entre países/reguladores.
- Factores y marcos facilitadores para la formulación de políticas y la regulación de la IA: acceso a datos sobre el uso de la IA; brechas de información sobre casos de uso; asimetrías de información y estrategias para abordar los desequilibrios.
- La capacidad de gobernar: preparación y capacidad de los reguladores, transformaciones institucionales, dependencias de trayectoria y captura.