By Prof. Gerard Sabah
Langage et Cognition Group
LIMSI - CNRS
BP 133
91403 Orsay cedex
FRANCE


Published in the "bulletin de l'AFIA" (the French association for Artificial Intelligence) 2000.

Hausser Roland 1999, Foundations of Computational Linguistics, Springer-Verlag, Berlin.

Le livre de Roland Hausser porte sur les mécanismes de la communication en langue naturelle avec de futurs robots parlants. Centré sur le langage, il tente néanmoins de prendre en considération quelques aspects multi-modaux de la communication.

Le livre est organisé de façon très stricte : quatre parties (théorie du langage, théorie de la grammaire, morphologie et syntaxe, sémantique et pragmatique), constituées chacune de six chapitres, chacun d'eux contenant cinq sections.

Une introduction situe tout d'abord la théorie " SLIM " (pour Surface compositional Linear Internal Matching) du langage et en explicite les quatre principes de base : compositionnalité de surface (principe méthodologique), ordre de dérivation strictement linéaire en temps (principe empirique), l'interprétation et la production d'énoncés sont analysées comme des processus cognitifs (principe ontologique), la référence est modélisée en terme de mise en correspondance entre les sens d'un énoncé et le contexte (principe fonctionnel).

La première partie (théorie du langage) décrit une conception du langage illustrée par la description d'un robot (nommé CURIOUS). Cette théorie (SLIM) se fonde sur des primitives sémantiques cognitives, sur une théorie des signes, sur la définition structurelle des composants syntaxique, sémantique et pragmatique, ainsi que sur leur intégration fonctionnelle dans les processus de production et d'interprétation.

Plus précisément, le chapitre 1 place d'emblée le sujet dans le cadre de la communication homme-machine et la linguistique computationnelle est vue comme fondamentalement pluridisciplinaire. L'auteur distingue deux branches de l'intelligence artificielle (l'IA classique formelle et l'IA fondée sur la robotique, la différence résidant dans le fait que pour la seconde, l'environnement change sans cesse de façon non prédictible), qui débouchent sur deux types respectifs de communication homme-machine, auxquels il ajoute un troisième type de communication, dans le cadre des systèmes de réalité virtuelle. Reprenant la distinction classique entre différents niveaux (phonologie, morphologie, lexique, syntaxe, sémantique et pragmatique), l'auteur présente, en mêlant quelque peu les traitements par ordinateur et les aspects liés à Internet, les aspects modernes des publications actuelles (du CD-ROM à SGML...).

En se fondant sur l'exemple des mécanismes d'indexation et de recherche dans les bases de données et sur la traduction automatique (limitée actuellement à une aide, une traduction grossière ou à des langages restreints), le chapitre 2 présente les aspects essentiels des traitements automatiques des langues et souligne les phénomènes qui nécessitent des solutions linguistiques aux différents niveaux évoqués ci-dessus, en rappelant l'alternative entre des solutions " smart " et des solutions " solides " (ce qui rappelle d'ailleurs la distinction de Tomita entre problèmes " intéressants " et problèmes " utiles " footnote 1).

Le chapitre 3, partant des relations entre compréhension et communication d'une part, entre compréhension et perception de l'autre, débouche sur une proposition de représentation " iconique " des objets qui, bien que rudimentaire, semble efficace dans le champ considéré. Toutefois, le rôle des catégories lexicales m'a paru être considéré de façon un peu simplifiée et les limites de ce type de représentation auraient pu être plus approfondies (se posent par exemple des questions comme : tous les types d'objets peuvent-ils être décrits de cette façon ?, comment sont traités les objets plus ou moins abstraits...).

Le phénomène de la référence est ensuite traité par un mécanisme qui cherche la meilleure mise en correspondance entre les représentations d'objets connus dans le monde et les représentations issues des descriptions linguistiques. Cela implique l'approfondissement des relations entre le sens littéral, la notion de compositionnalité et les aspects pragmatiques. Sont ainsi exposées d'autres théories du langage, (essentiellement celles de Chomsky et de Grice), mais la théorie proposée est également comparée aux théories sémantiques classiques de Frege, Pierce, de Saussure, Bühler, et Shannon et Waever, en précisant leurs fondations formelles et méthodologiques, ainsi que leurs motivations et leur histoire, et en explicitant leurs articulations avec la théorie proposée. Cette présentation reste très orientée " référence ", et l'étude des conditions de succès de la communication homme-machine aurait pu être plus fouillée...

Le projet " CURIOUS " (un robot virtuel qui observe et analyse continuellement son environnement changeant), présenté dans ce chapitre 4, suppose l'utilisation d'un langage formel dont les propositions peuvent être mises en bijection avec les états du monde. On peut alors remarquer ici que l'existence d'un tel langage n'est pas toujours avérée et regretter que ce point crucial ne soit pas plus approfondi dans le cadre d'une vision cognitive du langage. À propos de diverses caractéristiques de CURIOUS, on peut également se demander si elles sont extensibles à des mondes plus complexes, ce qui ne me semble pas garanti... Néanmoins, ce projet semble un bon essai de validation de la théorie proposée.

Tout en traitant un peu rapidement la théorie de l'information, le chapitre 5 insiste plus sur les aspects pragmatiques (vus ici comme la recherche de relations entre une interprétation et un sous-contexte cohérent) en en explicitant quelques principes fondamentaux.

Le chapitre 6, lui, est plutôt sémiotique. Il revient sur la question de la référence et continue à donner plusieurs principes fondamentaux de la pragmatique, par le biais de certains aspects de la référence pronominale et des relations entre icônes et symboles.

La deuxième partie (théorie de la grammaire) présente la théorie des grammaires formelles et son rôle méthodologique, mathématique et computationnel dans la description des langues naturelles. Le chapitre 7 explicite les problèmes empiriques et mathématiques de description des langues posés par les questions de substitution et de continuation en exposant les notions de base des grammaires génératives et des grammaires catégorielles. Pour tenter d'y remédier, l'auteur propose des grammaires " associations-gauche " (dites LAG pour " Left-Associative Grammars ", autrement dit, des grammaires avec un ordre de dérivation associatif vers la gauche, qui modélise la nature linéaire en temps des langues naturelles). Là, même si la suite du livre est une bonne argumentation pour ce choix, il me semble qu'il aurait pu être mieux justifié et que, par ailleurs, les définitions (même succinctes) de ces grammaires devraient être données dès le début du chapitre, ce qui faciliterait la compréhension pour les néophytes... La distinction essentielle est que, pour les grammaires génératives et les grammaires catégorielles, les dérivations sont fondées sur la notion de substitutions, tandis que pour les LAG, elles sont fondées sur la notion de continuations possibles. Le chapitre 8 compare alors les complexités de ces grammaires sur des exemples de langages artificiels, tandis que le chapitre 9 donne des notions de base de l'analyse syntaxique et ses relations avec les grammaires considérées.

Le chapitre 10 revient de façon plus formelle sur les LAG en les illustrant sur des langages artificiels et sur quelques exemples anglais (portant essentiellement sur les éléments discontinus et sur les entrées non grammaticales). Les deux chapitres suivants précisent la hiérarchie des LAG : A-LAG (qui couvre tous les langages récursifs), B-LAG (tous les langages sensibles au contexte), C-LAG (tous les langages réguliers, non contextuels et quelques langages sensibles au contexte) - ces dernières étant à nouveau subdivisées en trois sous-classes. Dans cette hiérarchie, les langues naturelles sont dans une classe de basse complexité, permettant une analyse en temps linéaire. À l'aide de considérations sur les ambiguïtés et leurs complexités respectives, cette hiérarchie est comparée à celle des grammaires à structure de constituants et l'auteur montre qu'elles sont non équivalentes, et même " orthogonales ", et que LAG donne de " meilleures " analyses des ambiguïtés (de mon point de vue, je dirais plutôt qu'il s'agit de meilleures représentations des ambiguïtés plus que de meilleures analyses, mais ce point peut être discuté...).

La partie trois (morphologie et syntaxe), comme son nom l'indique, se concentre sur les aspects morphologiques et syntaxiques des langues naturelles. De nombreux exemples sur l'anglais et l'allemand, et des comparaisons élaborées des deux (en particulier sur les différences entre l'ordre libre en allemand et l'ordre contraint en anglais), montrent les fonctionnements possibles au niveau morphologique et les grammaires qu'on peut envisager de mettre en ¦uvre. On part de petits exemples (inflexions, néologismes, allomorphes, en anglais et en allemand) qui sont systématiquement étendus, afin de montrer des constructions de plus en plus complexes et les dérivations qui sont appliquées. Ce chapitre montre la possibilité d'utiliser un formalisme unifié morphologie-lexique-syntaxe dans le cadre des LAG, mais n'apporte pas grand-chose d'autre à la théorie de la morphologie. L'auteur aurait pu développer une comparaison détaillée avec d'autres méthodes plus classiques (en particulier les analyses procédurales, à la Winograd ou déclaratives, à la Pitrat - avec lequel les mécanismes de stockage ont d'ailleurs de fortes relations).

Le chapitre 15 montre ensuite l'usage possible de ces analyses morphologiques dans le cadre des traitements de corpus et des analyses distributionnelles qui leur sont liées, et le chapitre 16 aborde les notions de base de l'analyse syntaxique (valence, accord et ordre des mots). Il ajoute à ces principes traditionnels le principe supérieur d'association-gauche. Est effectuée alors une analyse détaillée des contraintes sur l'ordre des mots, plus libre en allemand, figé en anglais (personnellement, j'aurais inversé les deux paragraphes, le traitement de l'anglais me paraissant plus simple à comprendre).

Le chapitre 17 donne divers exemples concrets sur le traitement de l'anglais, et le 18 de nombreux exemples en allemand, qui sont comparés avec les traitements de l'anglais. Là aussi, j'ai été un peu gêné par l'ordre de présentation : le paragraphe 18.1 présentant des réflexions générales sur les processus standard d'analyse syntaxique me semblerait plus à sa place dans le chapitre 16, ainsi que le paragraphe 18.3 qui développe des rapprochements élaborés et intéressants entre les positions des verbes en anglais et en allemand. Nonobstant ce détail sur l'ordre de présentation, ces différents éléments sont d'excellentes illustrations des phénomènes étudiés.

Enfin, la quatrième partie (sémantique et pragmatique) traite (bien sûr !) de la sémantique et de la pragmatique. Le chapitre 19 développe les différences fondamentales entre trois types de sémantiques : des langages formels logiques, des langages de programmation et des langues naturelles, et approfondit la possibilité d'appliquer la sémantique logique aux langues. Contextes intensionnels, attitudes propositionnelles et le phénomène du vague illustrent le fait que les différents types de sémantiques sont fondés sur des ontologies distinctes (phénomène illustré par la considération de divers paradoxes classiques dans le chapitre 20 et par les différences entre propositions absolues et propositions contingentes dans le chapitre 21).

L'auteur développe ensuite une réflexion plutôt philosophique sur le fait qu'une interprétation sémantique dans les langues naturelles entraîne une augmentation de la complexité et indique comment cela peut être évité dans la théorie SLIM. Les deux derniers chapitres donnent des exemples détaillés des représentations des différents niveaux de la " machine SLIM " respectivement en position de receveur et de producteur ; ce chapitre est, là encore, une bonne illustration de l'ensemble de l'approche.

Si l'on se place dans le domaine des sciences cognitives, ce livre qui se veut très interdisciplinaire, présente quelques manques significatifs : rien ne concerne la neurobiologie du langage, rien non plus sur l'apprentissage, sur l'acquisition de connaissances linguistiques, et très peu de choses sur l'interprétation des " erreurs " (entrée non grammaticales, fautes de frappe ou de syntaxe...), phénomène pourtant fondamental de la communication homme-machine.

Néanmoins, il s'agit d'un livre très riche, composé de petits chapitres agréables à lire, complétés par des exercices, et, comme il comporte déjà 534 pages, on ne peut guère lui reprocher de n'avoir pas tout pris en considération ! Malgré les quelques restrictions de détail évoquées dans l'analyse précédente, ce livre est très instructif ; il présente clairement les éléments de base du traitement automatique des langues, ainsi que les problèmes fondamentaux qu'il pose. Sur ces bases, il propose une théorie grammaticale originale et intéressante, et en montre quelques applications possibles.

La longueur de la présente analyse, même si celle-ci est parfois assez critique, est en elle-même un acte de langage qui montre bien tout l'intérêt que j'ai pris à la lecture de ce livre !

______________________________________________________________________________

Footnote

1. Les premiers n'ont pas de solution évidente, nécessitent le développement de théories élaborées, ou permettent la mise en évidence de principes linguistiques généraux et sont traitables par un petit nombre de règles générales (e.g., relativisation, causation, mouvement de groupes, etc.). À l'opposé, les problèmes " utiles " sont ceux pour lesquels il existe des solutions évidentes ou pour lesquels aucun principe général ne peut être mis en évidence ; il suffit alors d'ajouter des règles particulières pour traiter chacun de ces problèmes (ponctuation, expressions de dates, idiomes, etc.). Ces derniers problèmes sont difficiles à prévoir et demandent de très grandes quantités de connaissances. Notons qu'il est tout aussi essentiel de résoudre les deux types de problèmes pour disposer de programmes qui tournent ! Néanmoins, si on s'intéresse surtout aux aspects théoriques, on pourra négliger les seconds, pour lesquels des solutions simples existent potentiellement mais peuvent être lourdes à mettre en ¦uvre. Par ailleurs, l'attitude de certains linguistes consistant à faire un recensement exhaustif de toutes les figures de la langue (Gros, Mel'cuk) implique que tous les problèmes seraient du second type.