- From at
Event place Université Paul-Valéry - Montpellier 3, Montpellier 34000, France
Introduction générale
Le développement actuel de l’intelligence artificielle générative et son émergence, notablement depuis près d’un an dans les pratiques informationnelles et professionnelles, suscite de nombreuses questions au sein des différentes composantes de la société. Tous les secteurs d’activité semblent désormais être concernés par l’usage de cette technologie. Deux dimensions interrogent, souvent rappelées dans les définitions et les représentations véhiculées sur l’intelligence artificielle, la dimension d’assistance à l’être humain dans l’accomplissement de tâches quotidiennes y compris intellectuelles sans pour autant le remplacer (Julia, 2019), et la dimension créative et l’empowerment de nos facultés cognitives, en particulier le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique (Ganascia, 2017).
L’UNESCO (2023), s’est penché sur ses usages en éducation et en recherche, en insistant sur l’impossibilité de l’IA, bien que productrice de nouveaux contenus, de générer de nouvelles idées ou solutions aux défis du monde réel.
Ce qui questionne toutefois dans l’IA générative, qui nous intéresse principalement dans cet appel, c’est bien la fiabilité des résultats ainsi que le crédit et la confiance qu’on peut accorder aux contenus générés. Comment sont générés les résultats, selon quelles sources, etc. ? Ces problèmes sont d’ailleurs soulevés par les fondateurs des principales IA génératives comme OpenAI[1] qui rappellent la nécessité de vérifier les résultats de l’IA en les croisant avec des sources fiables.
L’ensemble de ces questionnements sont à l’origine de l’intérêt grandissant dans les médias, et dans l’espace public au sens large, suscitant des débats et controverses multiples qui trouvent leurs racines dans la cybernétique d’après-guerre (Petit, 2021). Le manque de régulation, pour l’instant, alimente ces controverses et laisse la place à des discours divers et variés souvent marqués par une forte dimension idéologique, donnant lieu ainsi à des développements parfois contestés.
Le champ de l’IA est donc un champ sémantique mouvant dont les périmètres et les contours ne sont pas encore bien définis ce qui alimente d’ailleurs aujourd’hui les débats qu’on peut entendre dans les médias et les communautés scientifiques, toutes disciplines confondues.
Des chercheurs et chercheuses de plusieurs disciplines travaillent sur ce sujet. Les parutions et les manifestations scientifiques en ce sens se sont multipliées, y compris dans le champ des SIC où plusieurs revues ont publié ces dernières années des numéros thématiques consacrés aux questionnements liés à l’IA. Citons les interrogations sur les changements de paradigme dans les pratiques professionnelles et plus largement des organisations (Alcantara, Charest et Lavigne, 2020), les transformations des pratiques professionnelles dans le domaine de l’information et de la documentation (Chartron, Raulin, 2022), les enjeux de régulation de l’IA (Benbouzid, Cardon, 2022), l’appropriation des innovations technologiques, les enjeux socio-politiques de l’IA et l’innovation sociale (Kiyindou, Damome, Akam, 2020, 2021, 2022).
Dans la tradition de la revue COSSI, cet appel encourage le dialogue entre les disciplines de Sciences Humaines et Sociales sur ces questionnements tout en privilégiant toutefois une grille de lecture info-communicationnelle. « L’approche info-communicationnelle présente en effet l’intérêt de prendre en compte « production » et « diffusion », amont et aval, dans une dynamique où la modification de l’un entraîne des effets, voire des modifications de l’autre » (Boukacem-Zeghmouri, Dillaerts, 2018).
Objectifs de l’appel
En lien avec ce que nous avons évoqué précédemment, nous souhaitons proposer de nouvelles lectures et analyses des débats en cours sur l’IA générative à travers le prisme des SIC et avec une perspective large (objets d’études, terrains, méthodologies).
Les propositions peuvent s’inscrire dans l’un des trois niveaux d’analyses suivants : le niveau macro permettant de s’intéresser aux modèles socio-économiques des IA génératives, le niveau méso avec une focalisation sur les stratégies des acteurs, l’économie de l’information, etc. et le niveau micro qui vise particulièrement les usages et la créativité dans différents domaines.
En ce sens, la grille d’analyse des médias proposée par Lafon (2019) est un point d’entrée intéressant. En s’appuyant sur cette dernière, cet appel propose donc cinq axes de réflexion inspirés du modèle de Lafon (2019), à savoir :
- Les modèles socio-économiques des IA génératives
- Les discours accompagnant les développements des IA génératives, à savoir les approches socio-discursives, les analyses sémiotiques et les analyses de contenus. L’analyse de l’approche conversationnelle des IA génératives est également intéressante à étudier.
- Les rôles joués par les institutions dans les régulations normatives et non normatives des développements de l’IA générative dans des dimensions à la fois socio-politiques (et juridiques) et socio-historiques.
- Les approches sociologiques et ethnographiques des acteurs de l’IA générative : concepteurs, usagers, acteurs politiques, communautés de pratiques, etc.
- Approches socio-techniques, analyse des dispositifs médiatiques et communicationnels en rapport avec l’IA. « Les médias mobilisent en effet nécessairement tout un appareillage technique – instruments de codage, réseaux, terminaux, sans oublier les langages et algorithmes – qui doit être entendu comme un dispositif sociotechnique. Le développement et l’utilisation de ces techniques médiatiques dépendent en effet de pratiques et stratégies sociales : le contexte social est déterminant pour analyser cette dimension technique des médias » (Lafon, 2019).
Outre ces axes et ces questionnements, cet appel à communication vise également à interroger les différents usages de l’IA générative (dans les domaines de la santé, de l’éducation, de la communication, du service public, etc.), les stratégies des acteurs concernés, la dimension créative, le rôle de l’IA générative dans les mutations de l’organisation du travail, la production artistique à l’aide de l’IA, etc.
Les contributions attendues doivent également prendre en compte une dimension d’analyse supplémentaire, celle du questionnement de la durabilité dans les pratiques, les usages et les représentations étudiés. Nous entendons par durabilité, la capacité qui permettraient ces IA génératives à répondre aux besoins actuels des usagers sans mettre en danger leur processus d’appropriation et de création des connaissances, leur esprit critique et leur réflexivité.
Cette prise en compte de la notion de durabilité a donc ici encore la vocation d’ouvrir les débats pluridisciplinaires.
Bibliographie
Benzoubid Bilel, Cardon Dominique (dir) (2022).« Contrôler l’intelligence artificielle ? » Réseaux, 2022, (N° 232-233)
Chartron Ghislaine, Raulin Antoine (dir.) (2002), « L’intelligence artificielle” I2D – Information, données & documents, 2022/1 (n° 1)
Boukacem-Zeghmouri Chérifa et Dillaerts Hans, « Information scientifique et diffusion des savoirs : entre fragmentations et intermédiaires », Revue française des sciences de l’information et de la communication [En ligne], 15 | 2018,
Ganascia, Jean-Gabriel. (2017). Définition. Dans : , J. Ganascia, Intelligence artificielle: Vers une domination programmée ? (pp. 9-10). Paris: Le Cavalier Bleu.
Julia, Luc. (2019). L’intelligence artificielle n’existe pas. First.
Kiyindou Alain, Damome Étienne, Noble Akam Noble Noble (dir.) (2020), « Robotique avancée, intelligence artificielle et développement », Communication, technologies et développement, 8 | 2020
Kiyindou Alain, Damome Étienne, Noble Akam Noble (dir.) (2021), « Intelligence artificielle, pratiques sociales et politiques publiques », Communication, technologies et développement, 10 | 2021
Kiyindou Alain, Damome Étienne, Noble Akam Noble (dir.) (2022), « Intelligence artificielle et innovation sociale”, Communication, technologies et développement, 11 | 2022
Petit Laurent (2021), « Les sciences humaines et sociales (SHS) et les sciences de l’information et de la communication (SIC) aux défis de l’IA », Communication, technologies et développement, 10 | 2021
Lafon Benoît (2019). « Introduction. Les médias et les médiatisations : un modèle d’analyse », In : Benoît Lafon éd., Médias et médiatisation. Analyser les médias imprimés, audiovisuels, numériques. Presses universitaires de Grenoble, 2019, pp. 7-16.
Liquète Vincent (2013). « Préserver la durabilité des pratiques informationnelles des acteurs de l’architecture éco-constructive : des pratiques informationnelles à une mémoire collective de travail. » Revue de l’Université de Moncton, volume 44, number 1, 2013, p. 67–86.
Alcantara Christophe, Charest Francine et Lavigne Alain (dir.). « Intelligence artificielle et communication des organisations », Communication & management, vol. 17, no. 2, 2020
UNESCO (2023). « Guidance for generative AI in education and research » 44 p. https://unesdoc.unesco.org/ark:/48223/pf0000386693
Notes
[1] Source : https://help.openai.com/en/collections/5929286-educator-faq (consulté le 22/09/2023).
Pour toute question vous pouvez contacter les coordinateurs de cet appel :
- Hans Dillaerts : hans.dillaerts@univ-montp3.fr
- Maher Slouma : maher.slouma@iut-tlse3.fr
Calendrier prévisionnel
- Diffusion de l’appel (Janvier-Février)
- Date de limite de réception des résumés : 1 mars
- Retour des évaluateur.ices : 28 mars
- Envoi de l’article complet : 24 juin
- Retour des évaluateur.ices : 20 septembre
- Retour de la version finale de l’article : 30 octobre
- Dates colloques : 28-29 novembre à Montpellier 3
Comité scientifique (en construction)
- Nicole Boubée, maîtresse de conférences en sciences de l’information et de la communication, université Toulouse – Jean Jaurès, LERASS
- Caroline Courbières, professeure des universités en sciences de l’information et de la communication, université Toulouse – Paul Sabatier, LERASS
- Hans Dillaerts, maître de conférences en sciences de l’information et de la communication, université Paul-Valéry Montpellier 3, LERASS
- Sarah Labelle, professeure des universités en sciences de l’information et de la communication, université Paul-Valéry Montpellier 3, LERASS
- Eva Sandri, maîtresse de conférences en sciences de l’information et de la communication, université Paul-Valéry Montpellier 3, LERASS
- Maher Slouma, maître de conférences en sciences de l’information et de la communication, université Toulouse – Paul Sabatier, LERASS
- Lise Verlaet, professeure des universités en sciences de l’information et de la communication, université Paul-Valéry Montpellier 3, LERASS
Comité d’organisation (en construction)
- Nicole Boubée, maîtresse de conférences en sciences de l’information et de la communication, université Toulouse – Jean Jaurès, LERASS
- Caroline Courbières, professeure des universités en sciences de l’information et de la communication, université Toulouse – Paul Sabatier, LERASS
- Hans Dillaerts, maître de conférences en sciences de l’information et de la communication, université Paul-Valéry Montpellier 3, LERASS
- Sarah Labelle, professeure des universités en sciences de l’information et de la communication, université Paul-Valéry Montpellier 3, LERASS
- Eva Sandri, maîtresse de conférences en sciences de l’information et de la communication, université Paul-Valéry Montpellier 3, LERASS
- Maher Slouma, maître de conférences en sciences de l’information et de la communication, université Toulouse – Paul Sabatier, LERASS
- Lise Verlaet, professeure des universités en sciences de l’information et de la communication, université Paul-Valéry Montpellier 3, LERASS;
Keywords
- Mots-clés
- Dispositifs
- Artificial intelligence