By Prof. Gerard Sabah
Langage et Cognition Group
LIMSI - CNRS
BP 133
91403 Orsay cedex
FRANCE
Published in the "bulletin de l'AFIA"
(the French association for Artificial Intelligence) 2000.
Hausser Roland 1999, Foundations of Computational Linguistics,
Springer-Verlag, Berlin.
Le livre de Roland Hausser porte sur les mécanismes de la
communication en langue naturelle avec de futurs robots
parlants. Centré sur le langage, il tente néanmoins de prendre en
considération quelques aspects multi-modaux de la communication.
Le livre est organisé de façon très stricte : quatre parties (théorie
du langage, théorie de la grammaire, morphologie et syntaxe,
sémantique et pragmatique), constituées chacune de six chapitres,
chacun d'eux contenant cinq sections.
Une introduction situe tout d'abord la théorie " SLIM " (pour Surface
compositional Linear Internal Matching) du langage et en explicite les
quatre principes de base : compositionnalité de surface (principe
méthodologique), ordre de dérivation strictement linéaire en temps
(principe empirique), l'interprétation et la production d'énoncés sont
analysées comme des processus cognitifs (principe ontologique), la
référence est modélisée en terme de mise en correspondance entre les
sens d'un énoncé et le contexte (principe fonctionnel).
La première partie (théorie du langage) décrit une conception du
langage illustrée par la description d'un robot (nommé CURIOUS). Cette
théorie (SLIM) se fonde sur des primitives sémantiques cognitives, sur
une théorie des signes, sur la définition structurelle des composants
syntaxique, sémantique et pragmatique, ainsi que sur leur intégration
fonctionnelle dans les processus de production et d'interprétation.
Plus précisément, le chapitre 1 place d'emblée le sujet dans le cadre
de la communication homme-machine et la linguistique computationnelle
est vue comme fondamentalement pluridisciplinaire. L'auteur distingue
deux branches de l'intelligence artificielle (l'IA classique formelle
et l'IA fondée sur la robotique, la différence résidant dans le fait
que pour la seconde, l'environnement change sans cesse de façon non
prédictible), qui débouchent sur deux types respectifs de
communication homme-machine, auxquels il ajoute un troisième type de
communication, dans le cadre des systèmes de réalité
virtuelle. Reprenant la distinction classique entre différents niveaux
(phonologie, morphologie, lexique, syntaxe, sémantique et
pragmatique), l'auteur présente, en mêlant quelque peu les traitements
par ordinateur et les aspects liés à Internet, les aspects modernes
des publications actuelles (du CD-ROM à SGML...).
En se fondant sur l'exemple des mécanismes d'indexation et de
recherche dans les bases de données et sur la traduction automatique
(limitée actuellement à une aide, une traduction grossière ou à des
langages restreints), le chapitre 2 présente les aspects essentiels
des traitements automatiques des langues et souligne les phénomènes
qui nécessitent des solutions linguistiques aux différents niveaux
évoqués ci-dessus, en rappelant l'alternative entre des solutions "
smart " et des solutions " solides " (ce qui rappelle d'ailleurs la
distinction de Tomita entre problèmes " intéressants " et problèmes "
utiles " footnote 1).
Le chapitre 3, partant des relations entre compréhension
et communication d'une part, entre compréhension et perception de
l'autre, débouche sur une proposition de représentation " iconique "
des objets qui, bien que rudimentaire, semble efficace dans le champ
considéré. Toutefois, le rôle des catégories lexicales m'a paru être
considéré de façon un peu simplifiée et les limites de ce type de
représentation auraient pu être plus approfondies (se posent par
exemple des questions comme : tous les types d'objets peuvent-ils être
décrits de cette façon ?, comment sont traités les objets plus ou
moins abstraits...).
Le phénomène de la référence est ensuite traité par un mécanisme qui
cherche la meilleure mise en correspondance entre les représentations
d'objets connus dans le monde et les représentations issues des
descriptions linguistiques. Cela implique l'approfondissement des
relations entre le sens littéral, la notion de compositionnalité et
les aspects pragmatiques. Sont ainsi exposées d'autres théories du
langage, (essentiellement celles de Chomsky et de Grice), mais la
théorie proposée est également comparée aux théories sémantiques
classiques de Frege, Pierce, de Saussure, Bühler, et Shannon et
Waever, en précisant leurs fondations formelles et méthodologiques,
ainsi que leurs motivations et leur histoire, et en explicitant leurs
articulations avec la théorie proposée. Cette présentation reste très
orientée " référence ", et l'étude des conditions de succès de la
communication homme-machine aurait pu être plus fouillée...
Le projet " CURIOUS " (un robot virtuel qui observe et analyse
continuellement son environnement changeant), présenté dans ce
chapitre 4, suppose l'utilisation d'un langage formel dont les
propositions peuvent être mises en bijection avec les états du
monde. On peut alors remarquer ici que l'existence d'un tel langage
n'est pas toujours avérée et regretter que ce point crucial ne soit
pas plus approfondi dans le cadre d'une vision cognitive du langage. À
propos de diverses caractéristiques de CURIOUS, on peut également se
demander si elles sont extensibles à des mondes plus complexes, ce qui
ne me semble pas garanti... Néanmoins, ce projet semble un bon essai
de validation de la théorie proposée.
Tout en traitant un peu rapidement la théorie de l'information, le
chapitre 5 insiste plus sur les aspects pragmatiques (vus ici comme la
recherche de relations entre une interprétation et un sous-contexte
cohérent) en en explicitant quelques principes fondamentaux.
Le chapitre 6, lui, est plutôt sémiotique. Il revient sur la question
de la référence et continue à donner plusieurs principes fondamentaux
de la pragmatique, par le biais de certains aspects de la référence
pronominale et des relations entre icônes et symboles.
La deuxième partie (théorie de la grammaire) présente la théorie des
grammaires formelles et son rôle méthodologique, mathématique et
computationnel dans la description des langues naturelles. Le chapitre
7 explicite les problèmes empiriques et mathématiques de description
des langues posés par les questions de substitution et de continuation
en exposant les notions de base des grammaires génératives et des
grammaires catégorielles. Pour tenter d'y remédier, l'auteur propose
des grammaires " associations-gauche " (dites LAG pour "
Left-Associative Grammars ", autrement dit, des grammaires avec un
ordre de dérivation associatif vers la gauche, qui modélise la nature
linéaire en temps des langues naturelles). Là, même si la suite du
livre est une bonne argumentation pour ce choix, il me semble qu'il
aurait pu être mieux justifié et que, par ailleurs, les définitions
(même succinctes) de ces grammaires devraient être données dès le
début du chapitre, ce qui faciliterait la compréhension pour les
néophytes... La distinction essentielle est que, pour les grammaires
génératives et les grammaires catégorielles, les dérivations sont
fondées sur la notion de substitutions, tandis que pour les LAG, elles
sont fondées sur la notion de continuations possibles. Le chapitre 8
compare alors les complexités de ces grammaires sur des exemples de
langages artificiels, tandis que le chapitre 9 donne des notions de
base de l'analyse syntaxique et ses relations avec les grammaires
considérées.
Le chapitre 10 revient de façon plus formelle sur les LAG en les
illustrant sur des langages artificiels et sur quelques exemples
anglais (portant essentiellement sur les éléments discontinus et sur
les entrées non grammaticales). Les deux chapitres suivants précisent
la hiérarchie des LAG : A-LAG (qui couvre tous les langages
récursifs), B-LAG (tous les langages sensibles au contexte), C-LAG
(tous les langages réguliers, non contextuels et quelques langages
sensibles au contexte) - ces dernières étant à nouveau subdivisées en
trois sous-classes. Dans cette hiérarchie, les langues naturelles sont
dans une classe de basse complexité, permettant une analyse en temps
linéaire. À l'aide de considérations sur les ambiguïtés et leurs
complexités respectives, cette hiérarchie est comparée à celle des
grammaires à structure de constituants et l'auteur montre qu'elles
sont non équivalentes, et même " orthogonales ", et que LAG donne de "
meilleures " analyses des ambiguïtés (de mon point de vue, je dirais
plutôt qu'il s'agit de meilleures représentations des ambiguïtés plus
que de meilleures analyses, mais ce point peut être discuté...).
La partie trois (morphologie et syntaxe), comme son nom l'indique, se
concentre sur les aspects morphologiques et syntaxiques des langues
naturelles. De nombreux exemples sur l'anglais et l'allemand, et des
comparaisons élaborées des deux (en particulier sur les différences
entre l'ordre libre en allemand et l'ordre contraint en anglais),
montrent les fonctionnements possibles au niveau morphologique et les
grammaires qu'on peut envisager de mettre en ¦uvre. On part de petits
exemples (inflexions, néologismes, allomorphes, en anglais et en
allemand) qui sont systématiquement étendus, afin de montrer des
constructions de plus en plus complexes et les dérivations qui sont
appliquées. Ce chapitre montre la possibilité d'utiliser un formalisme
unifié morphologie-lexique-syntaxe dans le cadre des LAG, mais
n'apporte pas grand-chose d'autre à la théorie de la
morphologie. L'auteur aurait pu développer une comparaison détaillée
avec d'autres méthodes plus classiques (en particulier les analyses
procédurales, à la Winograd ou déclaratives, à la Pitrat - avec lequel
les mécanismes de stockage ont d'ailleurs de fortes relations).
Le chapitre 15 montre ensuite l'usage possible de ces analyses
morphologiques dans le cadre des traitements de corpus et des analyses
distributionnelles qui leur sont liées, et le chapitre 16 aborde les
notions de base de l'analyse syntaxique (valence, accord et ordre des
mots). Il ajoute à ces principes traditionnels le principe supérieur
d'association-gauche. Est effectuée alors une analyse détaillée des
contraintes sur l'ordre des mots, plus libre en allemand, figé en
anglais (personnellement, j'aurais inversé les deux paragraphes, le
traitement de l'anglais me paraissant plus simple à comprendre).
Le chapitre 17 donne divers exemples concrets sur le traitement de
l'anglais, et le 18 de nombreux exemples en allemand, qui sont
comparés avec les traitements de l'anglais. Là aussi, j'ai été un peu
gêné par l'ordre de présentation : le paragraphe 18.1 présentant des
réflexions générales sur les processus standard d'analyse syntaxique
me semblerait plus à sa place dans le chapitre 16, ainsi que le
paragraphe 18.3 qui développe des rapprochements élaborés et
intéressants entre les positions des verbes en anglais et en
allemand. Nonobstant ce détail sur l'ordre de présentation, ces
différents éléments sont d'excellentes illustrations des phénomènes
étudiés.
Enfin, la quatrième partie (sémantique et pragmatique) traite (bien
sûr !) de la sémantique et de la pragmatique. Le chapitre 19 développe
les différences fondamentales entre trois types de sémantiques : des
langages formels logiques, des langages de programmation et des
langues naturelles, et approfondit la possibilité d'appliquer la
sémantique logique aux langues. Contextes intensionnels, attitudes
propositionnelles et le phénomène du vague illustrent le fait que les
différents types de sémantiques sont fondés sur des ontologies
distinctes (phénomène illustré par la considération de divers
paradoxes classiques dans le chapitre 20 et par les différences entre
propositions absolues et propositions contingentes dans le chapitre
21).
L'auteur développe ensuite une réflexion plutôt philosophique sur le
fait qu'une interprétation sémantique dans les langues naturelles
entraîne une augmentation de la complexité et indique comment cela
peut être évité dans la théorie SLIM. Les deux derniers chapitres
donnent des exemples détaillés des représentations des différents
niveaux de la " machine SLIM " respectivement en position de receveur
et de producteur ; ce chapitre est, là encore, une bonne illustration
de l'ensemble de l'approche.
Si l'on se place dans le domaine des sciences cognitives, ce livre qui
se veut très interdisciplinaire, présente quelques manques
significatifs : rien ne concerne la neurobiologie du langage, rien non
plus sur l'apprentissage, sur l'acquisition de connaissances
linguistiques, et très peu de choses sur l'interprétation des "
erreurs " (entrée non grammaticales, fautes de frappe ou de
syntaxe...), phénomène pourtant fondamental de la communication
homme-machine.
Néanmoins, il s'agit d'un livre très riche, composé de petits
chapitres agréables à lire, complétés par des exercices, et, comme il
comporte déjà 534 pages, on ne peut guère lui reprocher de n'avoir pas
tout pris en considération ! Malgré les quelques restrictions de
détail évoquées dans l'analyse précédente, ce livre est très
instructif ; il présente clairement les éléments de base du traitement
automatique des langues, ainsi que les problèmes fondamentaux qu'il
pose. Sur ces bases, il propose une théorie grammaticale originale et
intéressante, et en montre quelques applications possibles.
La longueur de la présente analyse, même si celle-ci est parfois assez
critique, est en elle-même un acte de langage qui montre bien tout
l'intérêt que j'ai pris à la lecture de ce livre !
______________________________________________________________________________
Footnote
1. Les premiers n'ont pas de solution évidente, nécessitent le
développement de théories élaborées, ou permettent la mise en évidence
de principes linguistiques généraux et sont traitables par un petit
nombre de règles générales (e.g., relativisation, causation, mouvement
de groupes, etc.). À l'opposé, les problèmes " utiles " sont ceux pour
lesquels il existe des solutions évidentes ou pour lesquels aucun
principe général ne peut être mis en évidence ; il suffit alors
d'ajouter des règles particulières pour traiter chacun de ces
problèmes (ponctuation, expressions de dates, idiomes, etc.). Ces
derniers problèmes sont difficiles à prévoir et demandent de très
grandes quantités de connaissances. Notons qu'il est tout aussi
essentiel de résoudre les deux types de problèmes pour disposer de
programmes qui tournent ! Néanmoins, si on s'intéresse surtout aux
aspects théoriques, on pourra négliger les seconds, pour lesquels des
solutions simples existent potentiellement mais peuvent être lourdes à
mettre en ¦uvre. Par ailleurs, l'attitude de certains linguistes
consistant à faire un recensement exhaustif de toutes les figures de
la langue (Gros, Mel'cuk) implique que tous les problèmes seraient du
second type.