L’IA Hybride pour l’analyse sémantique : que dit la recherche ?
Catégorie(s) : Intelligence Artificielle
C’est par une belle journée ensoleillée que s’est ouverte l’édition 2023 de la conférence IWCS à Nancy. L’accueil est pétillant, aux couleurs pimpantes de l’évènement qui se tenait dans les locaux de l’Institut des sciences du digital (IDMC).
Cette année, la conférence IWCS a hébergé plusieurs ateliers participatifs, portant sur des sujets extrêmement précis tels que la conception de la représentation du sens ou l’annotation sémantique. Un atelier en particulier correspondait pleinement aux préoccupations d’ERDIL, en tant qu’industriel de la langue. Il s’agit du Workshop NaLoMa 23 (Natural Logic meets Machine Learning) auquel nous avons participé avec grand enthousiasme !
Rapprocher IA symbolique et Machine Learning : cap sur l’Hybride
Deux éléments définissaient cet atelier : le domaine de recherche et un type d’approche original.
- Le colloque IWCS englobe tous les aspects du calcul et de la représentation du sens dans le langage naturel, le workshop NaLoMa s’est concentré sur le domaine de la compréhension du langage naturel (Natural Language Understanding, NLU en anglais), dont fait partie l’analyse des sentiments (sentiment analysis) qui est le cœur de l’activité linguistique d’ERDIL ;
- Si le colloque IWCS explore toutes les approches d’intelligence artificielle, NaLoMa met l’accent sur les méthodes hybrides. Pour sa 4e édition comme pour les précédentes, le workshop NaLoMa dresse des ponts entre les approches Machine Learning/Deep Learning et les approches symboliques de la compréhension du langage naturel, ce qui coïncide avec les travaux de l’équipe R&D d’ERDIL en IA.
Pourquoi cette question intéresse-t-elle les chercheurs et les industriels ?
Oui, pourquoi ? Puisqu’on vous dit que l’apprentissage neuronal profond et les grands modèles de langage (angl. Large language models, LLM) offrent des résultats chaque jour plus spectaculaires !!! Et à quel prix, sur les plans éthique, environnemental et législatif ?
Et bien parce qu’on a l’habitude d’opposer les deux approches avec, d’un côté, des technologies de plus en plus gourmandes en data, des résultats de moins en moins explicables, des implications éthiques et environnementales… mais l’obtention rapide de résultats bluffants et de l’autre, des technologies d’IA symboliques basées sur règles, frugales en data (mais gourmandes en linguistes), éthiques et responsables et des résultats 100% explicables et sur mesure.
Ces chercheurs sont donc venus présenter des évaluations scientifiques de ces modèles et explorer une troisième direction qui consiste à employer des méthodes hybrides en combinant les forces de chaque approche et en atténuant ses faiblesses. Ce qui est précisément la voie empruntée par la R&D d’ERDIL.
Des invités de marque venus répondre à cette problématique
Au programme de cette journée, une dizaine d’interventions se sont succédé, autour de deux conférenciers invités, Claire Gardent et Johan Bos, qui ont captivé l’auditoire.
- Directrice de recherche CNRS au Loria, Claire Gardent a reçu la médaille d’argent du CNRS 2022 pour ses nombreuses contributions au traitement automatique du langage. Claire Gardent anime actuellement l’une des quarante chaires de recherche et d’enseignement en intelligence artificielle financées par le gouvernement français.
Son exposé a notamment adressé la question : Quelles sont les erreurs commises par les modèles neuronaux pour la génération de texte et pourquoi ? Y étaient présentés les travaux menés avec son équipe sur l’évaluation, l’analyse et l’explication des résultats des modèles de génération de texte basés sur les graphes de connaissances, notamment le repérage et l’analyse des omissions.
- Johan Bos, actuellement Professeur de TAL à l’université de Groningen, a mené ses recherches et dispensé son enseignement en Allemagne, en Ecosse, et en Italie. Ses travaux en intelligence artificielle portent sur l’analyse sémantique.
Au cours d’un passionnant exposé intitulé « Semantic Parsing with Large Language Models », il a d’abord retracé sa quête de représentation du sens, de 1986 à aujourd’hui, parcours qui a suivi les évolutions technologiques de l’IA. Il a ensuite questionné la manière d’intégrer les grands modèles de langage aux approches symboliques, et discuté des implications éthiques et méthodologiques qui découlent de l’utilisation de LLM dans des tâches telles que l’analyse sémantique. Ce questionnement est loin d’être trivial, et le conférencier a d’ailleurs multiplié les « I’m confused ! ».
L’hybride à l’heure de ChatGPT
Cela fait des mois qu’on vous le vend à toutes les sauces, dans les médias, sur les blogs, dans votre fil LinkedIn et chez votre coiffeur, ChatGPT est partout ! Aucune raison donc qu’il ne figure pas au menu d’un atelier dédié aux technologies d’Intelligence Artificielle pour la compréhension du langage naturel.
C’est ainsi qu’une bonne part des contributions de cette journée avaient pour objet les réseaux de neurones, les grands modèles de langage et le très médiatique ChatGPT et leur évaluation pour des tâches de NLU spécifiques. Les débats ont également pris très au sérieux les aspects éthiques et environnementaux qu’impliquent ces nouvelles technologies. Cela témoigne du fait qu’une partie de la communauté scientifique leur cherche des alternatives plus raisonnables et tout aussi performantes.
Cette journée a tenu ses promesses, et nous rentrons à Besançon avec le plein d’idées pour poursuivre le développement de notre IA hybride pour l’analyse sémantique automatique des verbatim clients !
Date
23 juin 2023