Communication, intelligence artificielle, remédiation, éthique et inclusion  (Francia)

Inicio: 29/09/2025 Fin: 01/10/2025

Entidad Organizadora:

Orbicom

Localización:

Estrasburgo

Modalidad:

onsite

Axe 1 : Communication, IA et Éthique en éducation

Le développement rapide de l’intelligence artificielle (IA) modifie profondément nos sociétés, influençant divers secteurs, y compris la communication et l’éducation. Dans ce contexte, la synergie entre ces domaines devient cruciale pour comprendre et exploiter les potentialités offertes par l’IA. L’axe 1 de ce colloque vise à explorer comment l’IA peut transformer la communication et l’éducation, et inversement, comment les approches communicationnelles et éducatives peuvent à leur tour influencer le développement et l’adoption de l’IA à la fois par les établissements scolaires mais aussi les élèves et étudiant-e-s. Depuis 2022 au moins, l’éthique de l’IA (Zacklad et Rouvroy 2022) est à la fois convoquée par tout un chacun comme une mode langagière, mais également un 2 sujet qui devient vif pour la recherche, notamment pour ce qui concerne les usages de l’IA en éducation (Holmes et al. 2021) et par exemple dans le cas de personnes en situation de handicap (Neuralink, Seeing AI,…). Il n’y a pas une éthique de l’IA et les questions qu’elle pose sont investies par diverses disciplines : sciences de l’information et de la communication, sciences de l’éducation, informatique, droit, philosophie, psychologie, etc.

Axe 2 : Communication politique et des organisations

Outre l’enjeu de la protection des données personnelles, ces dernières sont des ressources nécessaires à la communication publique et politique, autant lors des campagnes électorales qu’en période de gouvernance. Les institutions, les acteurs politiques, les médias et les citoyens peuvent recourir à cette ressource, couplée ou non avec l’IA, pour promouvoir leurs intérêts et leurs messages. Mais des risques sont inhérents à la protection des données et au respect des règles démocratiques (Portnoff et Soupizet 2018). Les avancées en intelligence artificielle mènent à des réalisations comme la reconnaissance de personnes sur des images, la création automatique de contenus, l’analyse sémantique, etc., tout en exacerbant des craintes relatives à l’asservissement de l’humain par la machine, la manipulation des comportements, la surveillance de masse, etc. (Villani et al. 2018). Cet axe du congrès questionne divers points : comment l’IA impacte-elle la géopolitique et les stratégies des politiques publiques ? Quels sont les pouvoirs et contre-pouvoirs de l’IA dans la gouvernance et l’aide à la décision (Conseil d’État 2022) ? Comment s’appliquent la protection des données et le principe de vérité, les questions d’éthique et de déontologie ? Entre média et individu citoyen, quel est le rôle de l’IA dans les réseaux d’influence (Ronzaud et Ruan 2022) ? Comment construire la confiance et servir la performance dans l’action publique ?

Axe 3 : Médias/journalisme Le journalisme au défi de l’intelligence artificielle

L’IA est-elle un atout sans risque pour les journalistes et, dans l’absolu, pour le journalisme ? L’arrivée de l’IA dans les rédactions d’information n’est-elle qu’une ultime évolution dans un système qui a toujours été très évolutif (Béasse et Viallon 2023) ? En se plaçant du point de vue des professionnels de l’information comme des publics, peut-on envisager un modelage mutuel et équilibré dans la relation journaliste-technologie qui s’appuie sur la dimension sociale spécifique de l’activité journalistique ? Les contributions attendues pour cet axe porteront sur les applications concrètes de l’IA dans les pratiques journalistiques (Saint-Germain et White 2023) comme sur leurs impacts sur les journalistes et leurs publics. Il s’agira notamment de dresser un état des lieux critique des perspectives de l’IA dans le journalisme au regard des enjeux existentiels que connaît actuellement cette activité.

Axe 4 : Communication environnementale

Il s’agit d’interroger les défis éthiques et les opportunités de l’IA pour la communication environnementale. Elle est devenue un enjeu sociétal majeur qui nécessite une approche globale et transversale (Libaert 2016). Le recours à l’IA doit d’autant plus permettre de s’interroger sur les risques de «biais éthiques» liés aux données utilisées pour entraîner les algorithmes (Domenget et al. 2022), que les sujets environnementaux sont particulièrement susceptibles de donner lieu à des discours iconiques et linguistiques qui peuvent créer un imaginaire déformé (Fodor, 2011). Du point de vue des technologies à l’oeuvre, « l’empreinte environnementale de l’IA générative, notamment en termes d’émissions de gaz à effet de serre et de consommation d’eau, reste considérable » (Le Goff 2023), nécessitant ainsi une réflexion sur le développement des solutions d’IA durables et respectueuses de l’environnement, mais aussi sur une utilisation éthique, responsable et durable de ces outils. Les questions auxquelles tenteront de répondre les intervenant.es seront, entre autres : comment s’assurer que les données traitées par l’IA représentent fidèlement la réalité environnementale, sans exagération ni déformation ? Quels types de biais peuvent apparaître dans le traitement des données environnementales, et comment ces biais influencent-ils la perception des 3 enjeux écologiques ? Dans quelle mesure l’IA contribue-t-elle à façonner un imaginaire environnemental qui pourrait éloigner le public de la réalité scientifique ? Comment utiliser l’IA pour renforcer une communication responsable et éviter les effets de sensationnalisme ou de manipulation dans les discours sur l’environnement ? Quels sont les impacts environnementaux directs de l’utilisation de l’IA en communication environnementale, et comment les mesurer ? Quels cadres éthiques ou normatifs pourraient être adoptés pour guider le développement de technologies d’IA qui respectent les principes du développement durable ?

Axe 5 : Technologie, humains et post-humains

Que ce soit via des robots désincarnés (agents conversationnels) ou incarnés (NAO, SOPHIA…) (Dolbeau-Bandin 2021 ; Dolbeau-Bandin et Wilhelm 2022) l’IA permet d’avoir une conversation, de gérer des tâches complexes voire de vivre de nouvelles expériences dans des univers virtuels (métavers)… Ces mises en rapport (Rosental 2021) entre des humains et des machines font coexister plusieurs visions : assimilation de l’homme à la machine ; coopération ; symbiose (Brangier et al. 2009 ; De Rosnay 2018 ; Ertzscheid 2024) ; enchevêtrement renvoyant l’humain à ses rapports aux interfaces et aux dispositifs sociotechniques (wearable devices et autres artefacts de l’Internet des Objets (IOT) (Jeannin 2022), capteurs de réalité virtuelle/augmentée (Bonfils 2015). Les frontières entre l’organique et l’inorganique, le vivant et l’artificiel se brouillent (Tisseron 2018). En dehors des opportunités, certes indéniables, l’analyse et le traitement des données massives facilités par l’IA (Boyd et Crawford 2012 ; Soudoplatoff 2018 ; Villani 2018) et couplés avec cette matérialité numérique corporelle ne sont pas sans effets pour les humains. Plusieurs pistes peuvent être explorées, par exemple : la question de l’humain et du post-humain en contexte idéologique néolibéral/capitalistique et technoscientifique ; le corps en devenir (expérimentations, modifications, virtualisation, représentations) ; la place et le statut du corps au sein d’un système informationnel élargi avec ses risques afférents, la communication avec ces agents conversationnels désincarnés et ces robots incarnés…

Axe 6 : Interculturalité

Lorsque l’on interroge ChatGPT sur le lien entre l’IA et l’interculturel, de nombreux apports sont mis en avant : « elle facilite la traduction et l’interprétation simultanée, elle personnalise l’apprentissage des langues et des cultures, elle permet des simulations culturelles, ses algorithmes analysent les sentiments et tendances culturelles sur les réseaux sociaux, elle aide également à la médiation en ligne et à la prévention des conflits interculturels, etc. ». Une logique d’outil d’aide à la compréhension prévaut, qui peut créer l’illusion d’une communication interculturelle plus facile (Yang et al. 2024). On court pourtant le risque d’appauvrir cette communication en remplaçant les interactions authentiques entre les individus par des réponses toutes faites qui limitent la richesse des échanges humains (Heddad 2024). A l’heure où l’IA se développe, il est important de faire le point sur les pratiques en lien avec l’interculturel (Oustinoff 2019) et de s’interroger sur la manière dont elle contribue ou pourrait contribuer à l’enrichissement des interactions interculturelles (Dai et Hua 2024).

Axe 7 : Implicite et identités

L’implicite est un fondement des identités collectives (Roth 2022a). Il permet de faire passer les messages d’invention de tradition qui président aux unifications des États-nations (Hobsbawm et Ranger 1983), de renforcer l’inclusion par le présupposé et l’exclusion par le sous-entendu (Kerbrat-Orecchioni 1986), de contourner la censure lors des mutations politiques autoritaires, et enfin de naturaliser les identités aux fins de les rendre incontestables (Roth 2022b), en d’autres termes, c’est le support des convictions non questionnées et l’outil des manipulations (Cervulle et Quemener 2012). Pour les IA génératives, ce support de médiations invisibles est essentiel : sa maîtrise est un des principaux défis posés aux réseaux neuronaux (notion de « sens commun » ; Le 4 Cun 2023), et son usage par les puissants GAMMA pourrait influencer profondément les identités, rendant nécessaire une vigilance sociotechnique éclairée. Les contributions attendues concernent toutes les formes de non-dits en lien avec l’IA : leur génération, leur interprétation, et leur utilisation.

Axe 8 : IA et bibliothèques

Nous nous demanderons, dans l’axe 8, comment le métier de bibliothécaire est impacté par l’essor de l’intelligence artificielle générative (IAG). Cet axe poursuit plus spécifiquement trois objectifs : (1) Qualifier les transformations concrètes du travail de bibliothécaire sous l’effet de l’IAG (Jacob et al. 2022). (2) Mesurer les facteurs influençant ces transformations ainsi que leur impact sur les conditions de travail des bibliothécaires. (3) développer la réflexion à propos des pratiques informationnelles émergentes des usagers et les adaptations que les bibliothécaires peuvent apporter (Chaudhry et Iqbal 2021 ; Guérin 2012).

Axe 9 : Préservation de la diversité linguistique et culturelle

Dans cet axe il s’agira d’interroger les enjeux du développement de la communication numérique à l’échelle mondiale, en lien avec la question chère à l’UNESCO de la préservation de la diversité linguistique et culturelle. En effet, ce développement profite surtout à des langues qui sont déjà largement répandues et contribue sans doute à maintenir leur domination, avec le risque de glottophagie (Calvet 1974) que cette dernière comporte, mais le développement de la communication numérique permet aussi à des langues qui étaient traditionnellement confinées dans l’oralité locale de bénéficier d’une visibilité et d’une diffusion inespérées pour leurs locuteurs, à condition d’adapter les ressources et outils de traitement automatiques aux caractéristiques de ces langues (Bernhard et al. 2021). Dans quelle mesure les machines peuvent-elles devenir des facteurs de revitalisation des langues et des cultures (Krebs 2024) ?

Axe 10 : IA et biais dans le langage et la communication

Les textes crées par l’IA générative s’appuient sur des grands modèles de langues (LLM) dont la source n’est pas connue ni vérifiée. Ces modèles ne prennent pas en compte des aspects comme la féminisation de noms de métiers, des aspects non-binaires du genre ou l’écriture inclusive etc. La communication tend à reproduire les mêmes stéréotypes (Bernheom et al. 2019), car la grande majorité des textes utilisés pour l’entraînement privilégient le masculin générique. Beaucoup de données utilisées pour l’entrainement de données sont issues de la traduction de textes de l’anglais vers une autre langue. Il s’agit donc d’étudier les discours artificiels générés par l’IA, d’étudier les éventuelles hallucinations (Park et Lee 2024) et de proposer des solutions de remédiation. Par ailleurs, la manière dont les humains communiquent a été profondément modifiée : la communication écrite peut désormais être spontanée et immédiate, et grâce à l’IA, une connexion à Internet peut suffire pour traduire un texte d’une langue à une autre. Mais tous les humains, les langues qu’ils parlent et les cultures auxquelles ils appartiennent, ne sont pas égaux dans l’accès aux ressources et outils numériques nécessaires pour cela, de sorte que ces derniers sont devenus un facteur déterminant dans les rapports de majoration ou de minoration existant entre les langues et les cultures dans le monde.

Pour tous les axes, les propositions devront intégrer les dimensions « éthique », « inclusion » et/ou « remédiation ». Elles devront indiquer l’axe ou les axes de rattachement. Elles seront rédigées en français ou en anglais et devront comporter environ 4000 signes avec la problématique, la question de recherche et les hypothèses, plus 10 références bibliographiques selon la norme APA7. La sélection se fera selon les normes scientifiques habituelles de lecture en double aveugle. Les interventions pourront être en français ou en anglais, les articles en français, anglais ou espagnol.

Call For

Fin: 15/01/2025