|
|
|
|
PRODUCTION ET CIRCULATION DE L'INFORMATION À L'ÈRE DE L'INTELLIGENCE ARTIFICIELLE : NOUVELLES PRATIQUES ET FRACTURES ÉMERGENTES Depuis le tournant du XXIᵉ siècle, la production et la circulation de l’information connaissent des transformations radicales sous l’effet des technologies numériques, amplifiées aujourd’hui par l’irruption de l’intelligence artificielle (IA). Longtemps cantonnée aux laboratoires, l’IA s’est imposée comme un acteur central de la médiation du monde : elle écrit, traduit, sélectionne, hiérarchise, recommande et parfois décide. En automatisant la production de contenus (textes, images, sons, données), elle modifie profondément les métiers du savoir et reconfigure les formes de la médiation culturelle et scientifique. En effet, la production de l’information ne relève plus, comme jadis, uniquement des professionnels (journalistes, éditeurs, chercheurs, etc.), mais implique désormais une collaboration étroite et parfois opaque avec des agents algorithmiques : du traitement automatisé des données à la génération textuelle ou visuelle, ces systèmes participent activement à la construction de contenus informationnels et, partant, à la réalité médiatique que nous percevons. Cette co-construction entre humain et machine interroge les catégories classiques des sciences de l’information et de la documentation, notamment en ce qui concerne la nature même du document et sa stabilisation dans le temps (Buckland, 2017). Parallèlement, la circulation de l’information est bouleversée par la montée en puissance des plateformes numériques et des algorithmes de recommandation, qui modifient profondément les modes de diffusion, de partage et de médiation des contenus. Ces mécanismes privilégient souvent l’engagement au détriment de la pertinence, soulevant des défis importants pour les institutions documentaires et archivistiques, notamment en termes d’authenticité, de traçabilité et de préservation de la mémoire collective (Duranti, 2022 ; Maack et Trudel, 2022). Par ailleurs, si l’IA démultiplie les capacités d’accès, de traitement et de personnalisation des connaissances, elle introduit également des risques systémiques : opacité des algorithmes, reproduction des biais, amplification des discriminations, exacerbation des inégalités existantes, et concentration des pouvoirs épistémiques entre les mains d’acteurs technologiques oligopolistiques. Dans ce contexte, il est essentiel de développer une réflexion interdisciplinaire, critique et prospective sur les nouvelles pratiques et les fractures émergentes liées à la production et à la circulation de l’information à l’ère de l’IA. Ce colloque international se propose d’explorer ces mutations en appréhendant, dans leur complexité, les enjeux épistémologiques, sociaux, techniques et éthiques de cette reconfiguration de l’écosystème informationnel. Les propositions de communication pourront s’inscrire dans l’un ou plusieurs des axes ci-dessous. Axe 1 : Ecriture et conception du document à l’ère de l’intelligence artificielle L’intégration croissante des IA génératives dans les pratiques d’écriture suscite un paradoxe majeur. D’un côté, ces technologies promettent une démocratisation de la création littéraire Baron (2021) ; de l’autre, elles font peser le risque d’une dépendance cognitive où la créativité humaine serait subordonnée aux logiques algorithmiques. Des études empiriques (Yurchenko & Nalyvaiko, 2025 ; Lahlou,2024 ; Carlsmith, 2022) mettent en évidence un affaiblissement des capacités métalinguistiques et réflexives chez les utilisateurs intensifs de ces outils, traduisant une délégation croissante de la pensée scripturale à la machine. La question de l’autorité auctoriale est également remise en cause. Dans un contexte où la production textuelle résulte souvent d’une cognition distribuée entre humains et machines (Hayles, 2022), la figure de l’auteur se trouve redéfinie. Les inquiétudes exprimées par nombre de chercheurs quant à l’authenticité de leurs productions (López, 2023 ; Burkell & Regan, 2022) traduisent une perte de repères dans la reconnaissance de la paternité intellectuelle et dans la légitimité des savoirs produits. En outre, plusieurs travaux (Pandey et al., 2024 ; Azeroual, 2025 ; Lebrun & Audet, 2020) alertent sur un phénomène d’uniformisation stylistique et culturelle induit par les modèles de langage, qui tendent à homogénéiser les formes d’expression, les imaginaires et les univers de sens. Cette convergence algorithmique interroge la diversité des écritures et la vitalité des traditions littéraires et scientifiques à l’ère numérique. Dès lors, il devient urgent de repenser les conditions éthiques, cognitives et esthétiques de l’écriture et de la conception documentaire à l’heure où les frontières entre humain et machine se brouillent. L’enjeu n’est plus seulement de savoir ce que l’IA écrit, mais comment et avec qui elle écrit et à quel prix pour l’autonomie intellectuelle, la créativité et la mémoire culturelle. Dans cette perspective, les contributions pour cet axe pourraient explorer, sans exclusive, les thématiques suivantes :
Axe 2 : Désinformation algorithmique et gouvernance des plateformes La montée en puissance de l’intelligence artificielle générative bouleverse profondément les dynamiques de la désinformation. Capable de produire à grande échelle des contenus réalistes et personnalisés, l’IA alimente la propagation de fausses nouvelles, de deep fakes et de campagnes de manipulation automatisées. Ces dispositifs, mobilisant bots et trolls, ont donné naissance à une nouvelle génération de menaces informationnelles qui fragilisent la confiance dans les médias, les institutions et les processus démocratiques (Garcia-Ull, 2021 ; Chesney & Citron, 2019). Face à ces dérives, les mécanismes traditionnels de vérification apparaissent dépassés, donnant lieu à ce que Starbird (2019) qualifie d’« incendies informationnels », où la désinformation se diffuse plus vite que les dispositifs de fact-checking ne peuvent la contrer. Les plateformes numériques tentent d’y répondre par des politiques de modération automatisée, mais celles-ci suscitent d’importants débats. Gillespie (2018) souligne en effet les contradictions de cette gouvernance algorithmique, oscillant entre excès de censure et incapacité à enrayer les manipulations les plus sophistiquées. Sur le plan international, la désinformation algorithmique s’impose désormais comme un instrument de puissance géopolitique. Les campagnes d’influence et de déstabilisation exploitent les vulnérabilités informationnelles des sociétés connectées. Si certaines régulations émergent, à l’instar du Digital Services Act européen, leur mise en œuvre se heurte à l’asymétrie des moyens entre régulateurs publics et plateformes, ainsi qu’à la rapidité d’évolution des technologies de manipulation (Keller, 2023). Dans ce contexte, l’IA peut toutefois être mobilisée au service de la lutte contre la désinformation, à travers des systèmes hybrides associant expertise humaine et détection automatisée, ou encore par le renforcement de l’éducation à l’esprit critique et à l’information (Kouakou, 2023). L’enjeu réside dans la construction d’une véritable résilience cognitive et démocratique face à ces nouvelles formes de vulnérabilité informationnelle. Cet axe invite des communications portant, entre autres, sur :
Axe 3. IA et fractures émergentes L’IA reconfigure non seulement la production et la circulation de l’information, mais elle exacerbe également des fractures sociales existantes et crée de nouvelles inégalités. Si les premières fractures numériques (l’accès aux infrastructures et la maitrise des usages de base) ont été largement identifiées, l'IA en fait émerger une nouvelle, plus profonde et plus insidieuse : la fracture cognitive et décisionnelle. Cette fracture ne sépare plus ceux qui ont un accès physique au réseau de ceux qui ne l'ont pas, mais ceux qui comprennent et contrôlent les systèmes algorithmiques de ceux qui les subissent. Elle se manifeste par une incapacité à décrypter les logiques de personnalisation de l'information, à identifier les biais des systèmes de recommandation ou à exercer une forme de souveraineté sur son environnement numérique. A ce sujet, des recherches comme celles de Chiriac (2025), Vee (2023), Le Deuff & Roumanos (2022) soulignent que la maîtrise des interactions avec les IA devient désormais une compétence professionnelle et académique incontournable. Cette évolution engendre une nouvelle fracture cognitive entre ceux qui savent exploiter efficacement ces systèmes et ceux qui en demeurent dépendants ou exclus. Cette fracture exacerbe les vulnérabilités existantes, creusant les inégalités sociales, territoriales et générationnelles. Par ailleurs, plusieurs travaux révèlent comment ces technologies incorporent et amplifient les discriminations algorithmiques systémiques. (Noble, 2018, p. 2) souligne que « les algorithmes de recherche peuvent renforcer les stéréotypes et les préjugés, en présentant des résultats qui discriminent les femmes, les minorités ou les personnes défavorisées » [notre traduction]. Ces biais s'inscrivent dans un contexte plus large de domination épistémique, où les corpus d'entraînement majoritairement occidentaux (Abdalla & Abdalla, 2021) perpétuent une forme d'impérialisme cognitif sur les pays du Sud Global ou encore engendre une marginalisant d’autres savoirs et perspectives y compris de certains pays du Nord. Face à ce constat, cet axe du colloque se propose d'explorer les mécanismes concrets par lesquels l'IA produit et aggrave ces fractures. Il s'agira d'analyser les manifestations des biais algorithmiques, d'évaluer les réponses techniques et éthiques pour les corriger, et d'interroger les alternatives, notamment les approches décoloniales et de découvrabilité en ligne des contenus, qui pourraient favoriser une intelligence artificielle plus juste et inclusive. Enfin, il questionnera les nouveaux impératifs de citoyenneté à l'ère de l'IA. Les propositions dans cet axe pourraient donc adresser les thématiques, sans exhaustivité, suivantes :
Axe 4. IA et régulation : Ethique et responsabilité L’irruption des intelligences artificielles dans l’écosystème informationnel soulève des défis éthiques et juridiques majeurs, qui appellent une refondation des cadres déontologiques traditionnels. En modélisant la production, la circulation et la réception de l’information selon des logiques souvent opaques, les systèmes d’IA redéfinissent les conditions de la responsabilité et de la transparence dans l’espace public (Floridi, 2021). Cette opacité algorithmique, que Benbouzid et Cardon (2022) qualifient de « boîte noire », alimente ce que Zuboff (2023) décrit comme une « crise de la responsabilité en cascade », où les mécanismes de redevabilité deviennent inopérants face à la complexité technique et au brouillage des chaînes décisionnelles. La protection des données personnelles et le respect de la vie privée constituent d’autres enjeux cruciaux, dans un contexte où la collecte massive d’informations alimente des systèmes d’apprentissage aux usages multiples, parfois non consentis. La déontologie informationnelle, fondée sur la confidentialité, la loyauté et la transparence, se trouve ainsi confrontée à de nouvelles formes de pouvoir algorithmique. Cet axe propose d’interroger les conditions d’une régulation éthique et responsable de l’intelligence artificielle dans le champ de l’information et de la communication. Les contributions pourront porter sur les enjeux éthiques, juridiques et politiques de la régulation de l’IA ; sur les responsabilités respectives des concepteurs, des utilisateurs et des institutions ; sur la transparence et l’équité des systèmes algorithmiques ; ou encore sur la conciliation entre innovations technologiques, respect des droits fondamentaux et exigences éthiques. Les contributions pourront s'organiser autour des thématiques suivantes, sans s'y limiter :
Abdalla, M. & Abdalla, R. (2021). "The Grey Hoodie Project: Big Tobacco, Big Tech, and the Threat on Academic Integrity". AI & Society Azeroual, M. (2025). La littérature et le numérique : une mutation mitigée. Revue Linguistique et Référentiels Interculturels, 6(1), 159-166. Baron, N.S. (2021). How We Read Now: Strategic Choices for Print, Screen, and Audio. Oxford University Press. 2021. Benbouzid, B., & Cardon, D. (2022). Contrôler les IA. Réseaux, (2), 9-26. Bronner, G. (2013). La démocratie des crédules. PUF. Burkell, J. & Regan, P.M. (2022). "The Algorithmic Author: Who Controls the Means of Intellectual Production?". New Media & Society. Cardon, D. (2019). Culture numérique. Presses de Sciences Po. https://doi.org/10.3917/scpo.cardo.2019.01. Carlsmith, J. (2022). Cognitive Offloading in the Era of AI Writers. Journal of Digital Humanities. Chesney, R., & Citron, D. (2019). Deepfakes and the new disinformation war: The coming age of post-truth geopolitics. Foreign Aff., vol. 98, p.147. Chiriac, E. (2025). Intelligence artificielle générative et usages scientifiques : les bibliothèques face à une littératie post-informationnelle. Documentation et bibliothèques, 71(2), 34-48. Deuff, O. L., & Roumanos, R. (2022). Enjeux définitionnels et scientifiques de la littératie algorithmique : entre mécanologie et rétro-ingénierie documentaire. tic&société, 15(2-3| 2ème semestre 2021-1er semestre 2022), 325-360. Floridi, L. (2021). The Ethics of Artificial Intelligence. Oxford University Press. García-Ull, F. J. (2021). Deepfakes: the next challenge in fake news detection. Anàlisi: quaderns de comunicació i cultura, (64), 0103-120. Gillespie, T. (2018). Custodians of the Internet. Yale University Press Hayles, N. K. (2022). Ethics for cognitive assemblages: who’s in charge here?. In Palgrave handbook of critical posthumanism (pp. 1195-1223). Cham: Springer International Publishing. Keller, Daphne: The EU’s new Digital Services Act and the Rest of the World, VerfBlog, 2022/11/07, https://verfassungsblog.de/dsa-rest-of-world/, DOI: 10.17176/20221107-215642-0. Kouakou, K. S. (2023). Esprit critique et lutte contre la désinformation Une étude des habiletés à la pensée critique des étudiants primo-arrivants. Balisages, n°7, p.1-21. ISSN 2724-7430. https://dx.doi.org/10.35562/balisages.1274 Lahlou, M. (2024). L’impact de l’IA sur le développement de la compétence scripturale chez les étudiants: atout ou menace pour l’apprentissage ? L'IMPACT, n°4, p.25-36. Lebrun, T., & Audet, R. (2020). L’intelligence artificielle et le monde du livre. Livre blanc. López, E. F. (2023). Les œuvres automatisées à l'épreuve du droit d'auteur : réflexions sur les créations réalisées par des systèmes d'intelligence artificielle. Thèse de doctorat, Université Paris Cité. Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press. Pandey, R., Waghela, H., Rakshit, S., Rangari, A., Singh, A., Kumar, R., ... & Sen, J. (2024). Generative AI-based text generation methods using pre-trained GPT-2 model. arXiv preprint arXiv:2404.01786. Starbird, K. (2019). Disinformation's spread: bots, trolls and all of us. Nature, 571(7766), 449-450. Vee, A. (2023). Coding Literacy: How Computer Programming Is Changing Writing. MIT Press. Yurchenko, V., & Nalyvaiko, O. (2025). Comment ChatGPT fabrique une nouvelle réalité dans l’écriture. Y a-t-il une place pour les êtres humains dans un monde artificiel?. Éducation et socialisation. Les Cahiers du CERFEE, (76). Zuboff, S. (2021). The coup we are not talking about. The New York Times, 29.
|
Chargement... 
