- From at
Event place EHESS,
Argument
À chaque regain d’attention qu’a connu le champ de recherche et de développement de l’Intelligence Artificielle, à chacun de ce qu’on a appelé les « printemps de l’IA » (Cardon, Cointet, Mazières, 2018), des philosophes, des sociologues, des anthropologues se sont mobilisés pour en engager l’étude. Le troisième « printemps », celui que nous connaissons, ne fait pas exception. Parmi les démarches qui nous sont contemporaines, plusieurs approches des rapports entre Intelligence Artificielle et Sciences Humaines et Sociales se distinguent. D’un côté, les sciences humaines et sociales sont mises à contribution dans les processus de production de dispositifs industriels d’intelligence artificielle (présupposés épistémiques, bases de données, outils de collecte etc.). D’un autre côté, les techniques d’IA sont mises à contribution pour la recherche en sciences humaines et sociales (modélisation, traitement des données de recherche, relevé de patterns etc.). Dans ces deux approches, l’intelligence artificielle est étudiée selon des critères d’opérationalité. C’est le fonctionnement de l’ensemble algorithme/données qui permet de valider ou d’infirmer une hypothèse. Ce faisant, elles écartent la question du sens social de ces techniques, cependant qu’elles constituent un choix technique qui, comme tel, mériterait d’être « conditionné par l’analyse des rapports sociaux intégrés dans l’organisation technique » (Geslin, 1999). Cette analyse des rapports sociaux qu’incarne l’intelligence artificielle peut être ouverte par l’observation de deux actes intellectuels.
Le premier, identifié par Harry Collins, pose que « l’expérience de l’intelligence artificielle n’est (…) pas seulement un problème d’ingénierie ou de psychologie, mais un test empirique des théories profondes de la philosophie des sciences sociales. ». Collins saisit l’IA selon deux traits fondamentaux : elle a trait à une théorie du social, elle se rapporte à une vision de ce que sont les humains et de ce qu’est une société ; et elle est appliquée, elle possède une force performative qui concours à la validation de son hypothèse fondamentale, l’identification du réel au calculable (Collins, 1992). Le second acte intellectuel consiste dans ce que Antoine Garapon et Jean Lassègue ont désigné comme « un conflit de légalité arbitré en faveur du calcul et au détriment du symbolique » (Garapon, Lassègue, 2020). Cet arbitrage repose sur l’acte de dissociation opéré entre les signes (marques graphiques inscrites dans des opérations de calcul) et le sens (pratique de symbolisation collective). Un acte de désymbolisation au fondement de l’informatique, et que l’on voit se poursuivre dans l’hypothèse de l’intelligence artificielle. En cela, l’intelligence artificielle s’oppose radicalement à une idée fondamentale pour l’étude des techniques en sciences humaines et sociales, qui veut que toute technique concrétise un rapport particulier entre une dimension d’opération et une dimension de représentation – dimensions fonctionnelle et fictionnelle selon les mots de Pierre Musso (Musso, 2021). Les systèmes techniques s’inscrivent dans le monde social, en parvenant à donner du sens au- delà de leurs fonctions, en participant d’un imaginaire social, d’une représentation que la société se donne d’elle-même.
Un défi se pose donc à qui entend mettre au jour le sens social des techniques d’IA : comment étudier et comprendre la part symbolique d’une technique fondée sur la désymbolisation ?
Nous proposons d’aborder l’intelligence artificielle de façon extensive, selon trois dimensions interdépendantes : une technique intégrée dans un système, une théorie scientifique, et un imaginaire social. Les relations qui lient ces trois facettes ne vont pas de soi : le chemin qui conduit d’une hypothèse de recherche à un produit, celui qui attache à un procédé technique une narration mythique, demandent à être élucidés. Pour ce faire, il faut disposer de méthodologies susceptibles de mettre au jour les liens qui unissent une réalité sociale et une réalité technique, de les penser ensemble. La notion d’imaginaire social (Castoriadis, 1975 ; Ricoeur, 1984), comme celle de « configuration » proposée par Lucy Suchman (Suchman, 2012 ; Velkovska, 2021) permet d’appréhender ce caractère composite de l’intelligence artificielle. Elle pose l’interdépendance des pratiques – qui composent : la réalité technique de l’IA comme dispositif de catégorisation automatique de données, sa réalité économique de produit vendu et acheté, sa réalité matérielle d’artefact digital développé et utilisé, sa réalité sémiotique et politique de médiation algorithmique etc. – et des représentations – qui composent : la réalité discursive de l’intelligence artificielle comme récit, comme articulation de valeurs et de représentations, mise en œuvre pour des visées commerciales, scientifiques ou mythiques. Il s’agit de comprendre ces deux facettes comme n’étant ni opposées ni même fondamentalement distinctes, et d’englober dans l’analyse les points limites et pourtant cruciaux que sont, par exemple, les pratiques de production des représentations (vulgarisation scientifique, communication commerciale, littérature grise des prédictions technologiques etc.). Plusieurs approches œuvrent aujourd’hui à l’élucidation de l’une ou l’autre de ces facettes : de l’étude des pratiques d’extraction (Crawford, 2021), à l’usage des algorithmes dans la vie publique (Christin, 2020) et politique (Chavalarias, 2022), des contextes de travail qui préparent l’adoption de l’IA (Casili, 2019), aux travaux de laboratoire œuvrant à la constitution des algorithmes (Jaton, 2021), et aux contextes historiques du développement des neurosciences cognitives (Carr, 2020). L’étude des réalités socio-techniques par ce double prisme des aspects imaginaires et matériels, hérite également d’un corpus vaste de méthodologies allant de la Technologie Culturelle (Bensa, Cresswell, 1996) poussée par Leroi-Gourhan ; à la Technologie Science Humaine (Haudricourt, 1964) qui pose l’étude des techniques comme une branche des sciences humaines ; en passant par l’école française d’ergologie (Schwartz, 2012) qui ambitionnait de saisir les systèmes techniques dans leurs relations à l’entièreté de la vie de leurs utilisateurs. Le développement des techniques numériques invite à interpréter à nouveaux frais cet héritage méthodologique (Moricot, 2020) et à en éprouver la solidité face aux bouleversements technologiques que notre société connait.
Nous nous arrêtons ici particulièrement la socio-anthropologie des techniques mais le caractère pluriel de l’IA en fait à nos yeux un dispositif (Barbot, Dodier, 2016), un objet composé qui appelle au service de son analyse une variété de disciplines outillées pour l’étude des faits sociaux : histoire, sociologie, économie, anthropologie, psychologie, épistémologie. Il faut cependant noter qu’en tant que théorie, l’IA est déjà présente au sein d’un certain nombre de ces disciplines. Des pans entiers de la philosophie, de la psychologie et de la sociologie explorent la pertinence de l’IA comme hypothèse pour la compréhension de ce que sont la pensée, les émotions et les interaction humaines (Ehrenberg, 2018). Ainsi, l’objet socio-technique qu’est l’intelligence artificielle engage les sciences humaines et sociales dans la voie d’une analyse où ces dernières ne sont pas neutres et doivent mettre au jour la façon dont cet objet les questionne, ou les transforme.
En gardant ces considérations à l’esprit, nous proposons, à l’occasion de cette journée d’étude, d’aborder l’Intelligence Artificielle au prisme des Sciences Humaines et Sociales selon trois axes interdépendants, que nous distinguons par pur souci pratique, permettant d’explorer autant des facettes qui composent cet objet :
Axe 1 : L’IA comme domaine de recherche
Quelles sont les pratiques, les représentations et les agencements sociaux qui concourent à l’émergence de l’IA comme hypothèse de recherche au sein de l’informatique, de la science des données et des neurosciences cognitives ? L’IA a connu des variations dans sa définition depuis le regain d’intérêt qu’a marqué le tournant vers les modèles statistiques. Est-elle une discipline, une théorie, un outil ou un objet de recherche, et comment s’articulent ces divers aspects entre eux ? Issue d’une discipline elle-même composite, l’informatique, elle croise des disciplines plus proches des sciences humaines : la didactique, la psychologie, et appliquées : les sciences de l’ingénieur, les neurosciences. Elle questionne le rapport entre production de savoir et opération d’une action. Comment les univers sociaux de ces différentes disciplines et pratiques se rencontrent-ils et s’agencent-ils ? Des approches par l’histoire et la sociologie des sciences et des techniques, par l’histoire des idées, par l’étude des laboratoires, et l’épistémologie entre autres, permettront de questionner les rapports tout sauf évidents de l’IA à la science.
Axe 2 : L’IA comme dispositif technique
Quelles sont les pratiques, les représentations et les agencements sociaux qui produisent l’IA comme artefact, dispositif de production, ou produit industriel ? L’intelligence artificielle comme technique numérique présente plusieurs défis. La grande pluralité des dispositifs techniques dans lesquels on la retrouve, de l’outillage industriel à l’appareil ménager en passant par la très grande variété des objets digitaux (Hui, 2018), le caractère distribué de ses infrastructures, de la production et de la captation des données à leur agrégation, et de leur stockage à leur usage en ligne, ou pour finir, la dimension peu visible des dispositifs d’IA fondus dans des interfaces numériques qui complique l’étude des métiers, comme des usages. Des approches par la philosophie des techniques, l’épistémologie et la socio-anthropologie des techniques, la sociologie des professions et des techniques entre autres, permettraient de dépasser l’opacité annoncée des objets numériques, et de produire un savoir commun sur leur matérialité et le travail nécessaire à leur conception.
Axe 3 : L’IA comme idéologie
Le développement de l’IA, produit industriel ou objet de recherche, est intrinsèquement lié au développement d’un discours aux contours flous, faisant appel à la fois à la science et au mythe (Habermas, 1990). Ces derniers constituent un contexte imaginaire, social, politique et économique qui dépasse la simple hypothèse scientifique et concourt à la diffusion d’une représentation de l’humanité. De la même façon que l’IA repose techniquement sur une conjonction entre la microinformatique embarquée productrice de données massives, et la puissance de processeurs autorisant le calcul de ces données, elle repose également sur les discours qui permettent la mise en place des conditions financières et légales de son développement, en travaillant à son « acceptabilité sociale ». Ces fonctions d’intégration au monde social et de légitimation d’un discours sur ce que sont les humains que porte l’intelligence artificielle, nous met sur la piste d’une compréhension de l’IA comme idéologie. Lewis Mumford comme d’autres après lui, ont bien démontré la façon dont les représentations conditionnent les choix techniques de façon déterminante (Mumford, 1934). C’est donc à des méthodologies qui permettent de saisir cette intrication entre les pratiques techniques et les représentations que nous proposons de faire appel. Quel statut octroyer à ces discours ? Comment comprendre la diversité des niveaux d’énonciation sur lesquels ils se situent ? Quelles sont les pratiques qui concourent à leur élaboration ? Enfin, quel est leur rôle à la fois dans la production des dispositifs techniques et, au-delà ?
Pour explorer ces multiples pans de l’intelligence artificielle, les contributions portant sur des domaines corrélés (IoT, évangélisme technologique, économie du numérique, Données Massives, algorithmes), ou connaissant des enjeux similaires (Blockchain, Internet, robotique etc.) plutôt que sur l’IA à proprement parler seront également les bienvenues. L’étude des logiciels ou de l’économie du numérique par exemple sont d’un grand profit pour l’élucidation des conditions sociales de l’existence de l’intelligence artificielle.
Modalités de soumission
Les propositions concerneront des interventions de 20 à 30 minutes suivies de discussions avec la salle. Un résumé de 3000 signes maximum devra être envoyé au plus tard le 20 mai 2022, il sera étudié par le conseil scientifique dont les avis seront rendus début juillet 2022.
Le texte complet des interventions devra être envoyé en amont de la tenue de la journée d’étude, qui se tiendra le 13 octobre 2022 à l’EHESS.
Adresses d’envoi :
Comité scientifique
- Valérie Beaudouin, CEMS, EHESS, INSERM, CNRS
- Jean Lassègue, Centre Georg Simmel, EHESS, CNRS
- Caroline Moricot, CETCOPRA, Université Paris 1 Panthéon Sorbonne Julia
- Velkovska, SENSE Orange Labs, CEMS
Bibliographie
- Barbot J. , Dodier N., «La Force des dispositifs », Annales. Histoire, Sciences Sociales 2016/2, Editions EHESS
- Bensa A., Cresswell R., « A propos de la Technologie Culturelle : entretien avec Robert Cresswell », Genèses. Sciences sociales et histoire, 1996, 24, pp. 120-136
- Cardon D., Cointet J.-P., Mazières A., «La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle. », Réseaux, n°211, pp.173-220, 2018
- Casili A., En attendant les robots. Enquête sur le travail du clic, Seuil, 2019 Castoriadis C., L’institution imaginaire de la société, Editions du Seuil, 1975
- Collins H., Experts Artificiels, Machines intelligentes et savoir social, Seuil, Sciences Humaines, trad. Jurdant B., Chouraqui G., 1992
- Crawford K., Atlas of AI : Power, Politics and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021
- Christin A., Metrics at Work. Journalism and the Contested Meaning of Algorithms, Princeton University Press, 2020
- Ehrenberg A., « Figures de l’homme fiable, ou l’esprit social des neurosciences cognitives », Sensibilités, n°5, Anamosa, pp.38-49, 2018
- Garapon A., Lassègue J., Le Numérique contre le politique, PUF, 2020
- Geslin P., L’apprentissage des mondes, une anthropologie appliquée aux transferts de technologie, Editions de la maison des sciences de l’homme, Editions Octares, 1999
- Habermas J., La Technique et la science comme « idéologie », (1968), Gallimard, coll. « Tel », 1990 Haudricourt G.-A., « La technologie, science humaine ? », La Pensée, n°115, pp.28-35, 1964
- Hui Y., On the Existence of Digital Objects, University of Minnesota Press, 2016
- Jaton F., The Constitution of Algorithms. Ground-truthing, Programming, Formulating, MIT Press, 2020
- Kirtchik O., « STS et intelligence artificielle, une rencontre manquée ? », Zilsel, n°5, Editions du Croquant, 2019
- Lassègue J., Longo G., « Actualité de Turing : entre captation d’héritage et ressource pour l’avenir », Intellectica, n°72, 2020
- Moricot C., Agir à distance, Enquête sur la délocalisation du geste technique, Classiques Garnier, Histoire des techniques, 2020
- Mumford L., Technique et civilisation, 1934, traduction A. Picon, Parenthèses, 2016
- Musso P., « Technique et Politique : Diabolique et Symbolique », in Ethique, politique, philosophie des techniques, dir. Menissier T., Pistes. Revue de philosophie contemporaine, Vrin, septembre 2021, p.3 Relieu M., Velkovska J., « Pour une conception « située » de l’intelligence artificielle. Des interactions hybrides aux configurations socio-techniques », Réseaux, La Découverte, 2021/5, n°229, pp.215-229
- Ricoeur P., « L’idéologie et l’utopie : deux expressions de l’imaginaire social », Autres Temps, 1984, 2, pp.53-64
- Schwartz Y., « Les deux paradoxes d’Alain Wisner, anthropotechnologie et ergologie », Ergologia, n°8, pp.131-181, 2012
- Simondon G., Imagination et invention (1965-1966), Editions de la transparence, Philosophie, 2008