Skip to Main content Skip to Navigation
Conference papers

L’intelligence artificielle au risque du singulier : Les limites du calcul des significations dans les technologies de la traduction

Résumé : Dans cette présentation, nous aimerions avancer l’idée d’une limite structurelle, et pas seulement conjoncturelle, aux prétentions de l’intelligence artificielle de connaître les singularités par le calcul. Nous nous appuierons pour le montrer sur l’exemple concret des technologies de la traduction, en expliquant les difficultés persistantes rencontrées par les efforts de calcul des significations. Traditionnellement, la singularité, sous la forme de l’individuel, notamment, représente un défi pour la connaissance rationnelle – c’est le sens de la formule aristotélicienne qu’il n’y a de science que du général (ou de l’universel), repris par toute la tradition scolastique (individuum est ineffabile). Avec son luxe de détails, son contexte inépuisable, le singulier semble échapper aux mailles du filet de la raison théorique – tout au plus est-il susceptible d’être repêché par la raison pratique, sous la forme de recommandations touchant la manière d’agir dans des circonstances contingentes. En tant qu’organisme doué d’auto-organisation ou de « je ne sais quoi » esthétique, il résiste également à la raison kantienne. Pourtant, il prolifère dans les sciences humaines, sous la forme des personnalités, certes, mais aussi des événements uniques, des institutions atypiques, des cultures originales (Lacour 2012 et 2020). Dans le domaine de la langue, c’est le style inimitable d’un auteur, la saveur de l’expression idiomatique, l’énigme de l’isolat linguistique (comme le basque), l’intraduisible, voire, pour certains romantiques, l’unicité du poème. L’intelligence artificielle a la réputation de ne pas se laisser impressionner par de tels obstacles. Complexité des algorithmes, puissance des calculs, nombre étourdissant des bases de données « moissonnées » : tous ces moyens nous promettent un progrès décisif de la connaissance du singulier, à la fois résultat et vecteur des procédés de ciblage. Qu’en est-il en réalité ? L’examen des difficultés persistantes rencontrées par les technologies de la traduction est riche d’enseignements (Bénel et al. 2010, 2011 ; DigitHum 2019). En partant des quatre possibilités logiques de la traduction, nous montrerons que la très grande majorité des solutions actuelles, quelle que soit leur sophistication, repose sur les postulats du Traitement Automatique du Langage. Or ce dernier, de par son orientation vers les règles, tourne le dos aux singularités, qu’il confond avec les cas particuliers de catégories abstraites. C’est donc un cadre de pensée inadapté qui est ainsi choisi (Universel – Particulier), corrélatif d’une préférence discutable donnée à l’automatisation dans les relations homme-machine, et à une sémantique calculatoire. Mais si on parvient à identifier un cadre d’analyse différent (Général – Singulier), qui respecte l’originalité du singulier et son lien indépassable à un contexte spécifique, et si on se donne les moyens de légitimer sa valeur épistémologique, on confère alors toute sa valeur à la riche diversité des interactions homme-machine (dont la délégation n’est en réalité que le degré zéro), tout en soulignant la fécondité d’une approche sémiotique, plus interprétative (Bénel 2020). S’ouvre alors le champ de l’intelligence collective augmentée, beaucoup plus large et prometteur que celui désigné habituellement par le terme d’« intelligence artificielle », qu’explore l’environnement TraduXio (https://traduxio.org) et qu’on peut illustrer par des cas précis (Lacour et Henkel 2020). On pourrait considérer que l’intelligence artificielle de nouvelle génération constitue une objection à ce raisonnement. En effet, cette IA qualifiée de « deep learning » est une remise au goût jour, sur de grandes masses de données (big data), de l'IA dite « neuronale » (d’inspiration connexionniste) procédant par apprentissage automatique (machine learning) ; par opposition à l’IA symbolique, d’inspiration logique, qui raisonne à partir de règles (comme, par exemple, les « systèmes experts ») – Cardon et al. 2018. Or, tout particulièrement dans le domaine de la traduction, l’IA neuronale de nouvelle génération obtient des performances telles qu'en 2016 les principaux acteurs de la traduction automatique ont tous entamé l'abandon, à son profit, de leurs modèles précédents, qu'ils soient statistiques (Bing Microsoft Translation, Google Translate) ou basés sur des règles (Systran) puis qu'en 2017-2018 un nouveau venu (DeepL) a réussi à les surpasser grâce à une nouvelle structure de réseau neuronal (Gallina 2019). En réalité, cette objection n’est qu’apparente car l’IA neuronale souffre d’une double ambiguïté. (i) Epistémologique, d’abord, en ce qu’elle met en avant une méthode inductive, là où l’IA symbolique utilise une méthode déductive (instanciation de règles générales sur des cas particuliers). L’IA neuronale prétend en effet « apprendre » par association (sous supervision humaine), en passant par l’accumulation de cas particuliers pour obtenir de manière automatique un « modèle » capable, avec une certaine probabilité, de les prédire (et donc de prédire également des cas similaires) – sans d’ailleurs que l’on sache trop à partir de quels critères, les résultats apparaissant largement émergents par rapport aux opérations élémentaires. Ce faisant, elle rencontre les difficultés classiques de l’induction : dans sa montée en abstraction en quête de l’universel, elle ne parvient au mieux qu’au général (les machines restent spécialisées dans le domaine d’apprentissage qu’elles ont pratiqué, sans capacité trans-modulaire – Cardon 2019). (ii) Logique, ensuite, en ce que l’induction évolue, tout comme la déduction, dans l’espace situé entre le particulier et l’universel. Basée sur des probabilités, et ne détectant que des tendances, elle reste fondamentalement un calcul des significations. C’est la raison pour laquelle, même hybridée avec une IA symbolique, elle est se révèle incapable de comprendre l’innovation sémantique radicale. En résumé, la prise en considération du singulier dans la complexité de son contexte ne relève pas d’un vague principe ou d’un nouvel effort de modélisation, mais implique un refus systématique des modèles à portée universelle. Les modèles envisageables doivent tenir compte du fait que seul un petit nombre des traits pouvant caractériser un objet seront pertinents et ce par différence avec les objets qui sont proches de lui dans son univers technique. En d’autres termes, le cadre de pensée situé entre le singulier et le général est régi par une logique interprétative et casuistique. Cela vaut également pour les singularités linguistiques que sont les textes traduits. L’analyse critique des technologies de la traduction incite donc à revenir à une conception de l’IA qui soit moins substitutive que compréhensive, au sens où il ne s’agit pas de simuler ou de remplacer l’intelligence humaine mais tenter humblement de mieux la comprendre (Bénel 2020).
Complete list of metadata

https://hal-utt.archives-ouvertes.fr/hal-03358046
Contributor : Aurélien Bénel Connect in order to contact the contributor
Submitted on : Wednesday, September 29, 2021 - 10:37:28 AM
Last modification on : Thursday, September 30, 2021 - 3:25:47 AM

Identifiers

  • HAL Id : hal-03358046, version 1

Collections

Citation

Aurélien Bénel, Philippe Lacour, Joris Falip. L’intelligence artificielle au risque du singulier : Les limites du calcul des significations dans les technologies de la traduction. Qu'est-ce qui échappe à l'intelligence artificielle ? Colloque interdisciplinaire, Laboratoire de sciences humaines de Polytechnique, Sep 2021, Palaiseau, France. ⟨hal-03358046⟩

Share

Metrics

Record views

28