Retour à l'accueil Remonter

1. Introduction

Les textes constituent à la fois le matériau premier et la finalité des juristes. Un avis légal est émis suite à un raisonnement juridique mené à partir d'informations provenant de textes juridiques. Le volume de l'ensemble de ces textes juridiques est toujours imposant. Au Québec, l'ensemble des lois refondues (1985) comporte plus de 520 lois contenant au-delà de 80 000 articles; à ces lois s'ajoutent au moins 2 000 règlements. On estime, de plus à 50 000 le nombre de jugements rendus par les différents tribunaux judiciaires du Québec.

Dans la foulée des développements de l'informatique documentaire à la fin des années soixante, les sciences juridiques ont décelé le potentiel de l'ordinateur pour gérer et accéder aux textes pertinents à l'exercice de leur expertise. C'est ainsi que la Société québécoise d'information juridique (SOQUIJ) a été mise sur pied en 1976 avec le mandat de promouvoir la recherche, le traitement et le développement de l'information juridique en vue d'en améliorer l'accessibilité au profit de la collectivitéÎ [Montpetit, 1992:1]. Le très grand volume de textes, de même que la technologie disponible posent des problèmes importants quant à l'adéquation des segments de textes repérés par rapport à la requête d'information qui est formulée par le juriste.

Par ailleurs, le regain d'intérêt pour l'intelligence artificielle dans les années soixante-dix qui a, entre autres, donné les systèmes experts et les modèles de représentation des connaissances a eu des répercussions sur les sciences juridiques. De nombreux projets de construction de systèmes experts appliqués à des domaines du droit ont été entrepris, plusieurs congrès d'envergure ont eu lieu. Les publications qui ont accompagné ou suivi ces projets ont mis à jour un certain nombre de problèmes relatifs aux systèmes experts en tant que dispositifs informatiques et à leur finalité qui était la modélisation des processus décisionnels particuliers aux différents domaines du droit.

Dans la présente contribution, nous allons d'abord examiner la problématique rattachée à ces deux technologies informatiques pour en dégager une fonction qui, dans les deux cas, s'avère nodale : l'interprétation ou l'accès au contenu conceptuel des textes juridiques. Puis, nous allons rappeler le modèle computationnel de la lecture experte qui permet d'assister cette fonction interprétative. Enfin, nous allons tenter d'illustrer notre propos par la modélisation de l'interprétation d'un concept flou : la bonne foi dans le contexte de la reprise de possession d'un logement par le locateur.

2. Problématique reliée au recours à líordinateur

2.1 Les bases de données textuelles

La mise au point de périphériques permettant un stockage de grandes masses de données à faible coût a permis l'extension aux textes intégraux de la technologie des bases de données, utilisée dans un premier temps pour les références bibliographiques. Pour une historique de la recherche textuelle dans le domaine du droit, voir [Bing, 1984]. La technologie des bases de données textuelles couplée à celle des réseaux de télécommunication rendent possible un repérage en ligne (on line) díinformation dans les textes juridiques. Les bénéfices escomptés étaient la réduction du volume occupé par les textes juridiques, l'assurance que la version consultée est la plus récente, une accélération du temps requis pour leur consultation, de même qu'une accessibilité accrue. Il devenait possible à plusieurs personnes de consulter en même temps dans des lieux différents les mêmes documents juridiques. Toutefois, ces bénéfices n'ont pas encore surpassé les inconvénients ou irritants causés par le recours à l'ordinateur pour les juristes. Ces irritants sont moins liés à la spécificité du texte juridique qu'à la technologie elle-même.

Jusqu'à tout récemment, pour effectuer un repérage en ligne d'informations pertinentes, le juriste devait formuler sa requête dans les termes d'un langage díinterrogation qui était prévu pour optimiser la recherche au détriment de l'aisance d'utilisation. L'utilisation d'opérateurs booléens pour établir une stratégie de recherche efficace nécessite une familiarisation sinon un entraÎnement de la part de l'utilisateur. Plusieurs efforts ont été faits pour pallier à ce problème; parmi les solutions explorées, mentionnons la formulation des requêtes en langue naturelle et le dialogue dirigé par un système expert qui assiste l'utilisateur dans la formulation de sa requête [Côté, 1992].

Deux mesures permettent d'évaluer l'efficacité du repérage de l'information étant donnée une requête : les taux de rappel et de précision. Le taux de rappel mesure la proportion de documents pertinents qui n'ont pas été repérés; alors que le taux de précision indique la proportion de documents non-pertinents qui ont été repérés. Le mode de repérage dit plein texteÎ présente les pires taux. Seuls les passages de texte présentant les mots de la requête sont repérés, de sorte que lorsque ceux-ci sont substitués par un synonyme ou un pronom, les passages sont ignorés. De plus, rarement toutes les occurrences des mots sont pertinentes, soit parce que ceux-ci présentent plusieurs acceptions ou parce que les thématiques diffèrent.

Pour améliorer la performance du repérage, le recours à une forme ou une autre d'indexation s'avère essentielle. L'indexation, dont il est ici question, n'est pas l'assignation d'une adresse aux mots du texte afin d'accélérer le repérage mais bien une catégorisation de segments du texte au moyen de descripteurs qui sont structurés en un thésaurus. La nécessité d'un accès conceptuel et analogique à l'information contenue dans les textes juridiques a été démontrée par Ashley qui a proposé une méthode d'indexation par dimensions ou caractéristiques déterminées importantes par la cour pour fonder la décision [Ashley, 1988]. Comme cette contribution ne porte pas come telle sur l'indexation des textes juridiques, nous nous contentons de mentionner qu'il s'agit d'une opération cognitivement complexe qui dans tous les cas, met en jeu une dimension d'analyse et surtout d'interprétation du contenu des textes. S. Bertrand-Gastaldy [1990] fournit une présentation détaillée de la problématique l'indexation. Il va sans dire que cette opération, qui nécessite un personnel hautement qualifié, engendre des coûts élevés, de sorte qu'il faut un marché potentiel suffisant pour justifier cette entreprise.

La pratique de l'indexation est bien antérieure à l'avènement des bases de données textuelles. En effet, ce que l'on pourrait appeler la chaÎne de traitement jurisprudentielleÎ comporte, dans l'ordre, les opérations suivantes : la sélection, la classification, le résumé et líindexation des décisions motivées jugées pertinentes. Les recueils de jurisprudence comportent un index qui présente en ordre alphabétique, la plupart du temps sur plusieurs niveaux de généralité, la liste des descripteurs utilisés accompagnés de la référence des textes auxquels ils ont été assignés.

Quoiqu'essentielle, puisqu'elle permet un accès aux textes par les concepts peu importe leur expression, cette opération pose deux ordres de problèmes. Le volume des textes qui peuvent être indexés dans un temps donné, dans un cadre où les ressources sont limitées, est de beaucoup inférieur au volume des textes qui pourraient être avec profit diffusés. Dans le contexte québécois, cette question se posera avec acuité lors de la réalisation, par le ministère de la Justice du Québec, du système de rédaction et de diffusion électronique des jugements [Laferrière, 1992]. Des recherches sont présentement en cours pour développer une assistance informatique à partir d'un modèle de la façon de faire actuelle des indexeurs; le système prendra la forme d'un système expert [Bertrand-Gastaldy, 1992].

Par ailleurs le thésaurus qui est en fait le répertoire structuré des descripteurs qui seront utilisés pour l'indexation et, subséquemment, pour le repérage détermine líaccès aux textes. Il s'agit d'une limitation a priori des lectures et relations qui sont le fait des lecteurs; tel est le prix à payer pour une plus grande efficacité. Si un recours aux descripteurs s'avère satisfaisant dans la majorité des cas d'usage courant des textes juridiques, il est des cas où se dessine le besoin d'un dipositif souple et même dynamique qui permette d'étudier une problématique donnée, reliée à l'interprétation d'un concept ou encore d'une règle appartenant au domaine juridique.

2.2. LES SYSTÈMES EXPERTS

Dans la foulée des recherches en intelligence artificielle, de nombreuses recherches ont été entreprises en sciences juridiques, notamment dans les domaines de la représentation des connaissances et des systèmes experts. Pour un historique, voir entre autres [Tyree, 1989]. Ces recherches avaient un but plus ambitieux que celui de faciliter l'accès à l'information juridique : simuler le raisonnement (emulate the reasoning process of a lawyer [Susskind, 1986: 168]) d'un juriste qui lui permet soit de proposer des solutions à des litiges ou encore de rendre des décisions.

2.2.1 La modélisation des connaissances

Cette simulation du raisonnement est effectuée par le biais de règles de production ou de clauses logiques permettant un accès associatif à des faits qui invoqueront d'autres règles ou clauses, etc. La formulation des règles ou des clauses nécessite une phase préalable de modélisation des connaissances. Cette opération s'est avérée cruciale pour la construction des systèmes experts:

Knowledge representation has been identified as the most important issue facing the field of AI and Law [McCarty, 1990: 30]

Dans le domaine juridique, cette connaissance dont on veut faire le modèle recherché réside, pour une bonne part, dans la capacité d'interpréter les textes juridiques. La plupart du temps, le problème de la modélisation de l'interprétation juridique a été envisagé de la façon suivante par les constructeurs de systèmes experts [Kowalski, 1979] :

1) en normalisant le contenu même des textes de lois sous la forme de SI prémisse ALORS conclusion;

2) en ajoutant une structure de contrôle qui permette la résolution de litiges ou la prise de décision à partir des règles;

3) et en ajoutant de l'information heuristique.

La structure de contrôle est en fait le principe de réduction des problèmesÎ [Hofstadter, 1979]. Le problème initial est divisé en sous-problèmes de plus en plus élémentaires. Cette division se poursuit jusquíà ce quíun niveau soit atteint où les sous-problèmes peuvent être résolus. En PROLOG, la division en sous-problèmes se fait par permutation d'arguments lorsque, dans deux clauses, les prédicats sont les mêmes; cette procédure est appelée unificationÎ. Les sous-problèmes sont résolus par unifications avec des clauses sans prémisse et dont les arguments des prédicats sont des constantes; ce type particulier de clause constitue les faits. Il est apparu très tôt que cette subdivision récursive des problèmes entraÎnait une explosion combinatoire dont les conséquences allaient de la dégradation de la performance du système jusqu'à l'impossibilité de computation selon la taille de l'espace du problèmeÎ et l'ampleur des ressources computationnelles disponibles. Plusieurs stratégies computationnelles locales ont été développées pour pallier à ce problème, entre autres l'ordonnancement des clauses concurrentes, formant un ensemble de conflit, de façon à ce que celle dont la probabilité de succès est la plus élevée soit déclenchée en premier [McEnery, 1989]. Toutefois, c'est du côté de la compréhension de la cognition humaine que la solution semble résider. Les humains, au fil de leur pratique, développent des connaissances qui, bien qu'incertaines, leur permettent de raccourcir l'espace de recherche d'un solution à un problème; ces connaissances sont appelées heuristiquesÎ.

La normalisation des textes de lois sous la forme de règles de production ou de clauses a d'abord été conçue comme le passage (mapping) díune structure de symbole, la langue juridique, à une autre structure, celle de la logique des prédicats du premier ordre en l'occurrence. Une illusion de transparence est créée par l'implicitation du processus díinterprétation. Or, il s'est très tôt avéré que les objets textuels n'étaient pas directement ni nécessairement réductibles à une logique connue ainsi qu'à des composantes bien délimitées :

In many legal domains it is therefore a mistake to attempt to represent legal knowledge in the surface level langage [Kowalski, 1991: 22]

Plusieurs chercheurs, inspirés sans doute des travaux en linguistique, ont démontré l'importance de mettre à jour la structure profonde des textes juridiques. Cette structure profonde, indépendante de la surface des textes, serait, dans le cas de la jurisprudence, constituée de patrons de faits qui justifient les décisions [Smith, 1987]. En plus des problèmes syntaxiquesÎ, la normalisation des textes juridiques pose des problèmes sémantiquesÎ :

Besides the 'syntactic difficulties' inherent in normalizing statutes in the form of rules, there are 'semantic' difficulties such as the presence of conflicting rules, imprecise terms and incompleteness. [Vossos, 1991:32]

Les règles de droit contradictoires, de même que les concepts flous, sont des règles et des concepts qui, avant d'être transposés, doivent être l'objet d'une interprétation juridique.

Les règles de droit ne sont habituellement pas contradictoires en elles-mêmes, c'est plutôt qu'elles donnent lieu à des interprétations alternatives et que le constructeur du système expert est à la recherche de l'interprétation unique qui est vraie :

The usual way of constructing legal expert systems is to embody a single structural interpretation of the set of legal rules that are the basis for the system. [Allen and Saxon, 1991: 61]

La plupart des causes de ces interprétations alternatives sont attribuables à des facteurs textuels d'ambiguïté [Allen and Saxon, 1991] dont nous faisons ici l'économie de la nomenclature. La plupart de ces ambiguïtés ne peuvent être levées avec le recours à une analyse linguistique seule. En effet, le texte est le produit díun faisceau de forces parfois contradictoires, telles:

- la thématisation qui met en valeur ce de quoi l'on parle;

- l'anaphorisation qui permet de substituer un terme par un pronom ou un autre terme qui le recatégorise;

- l'intertextualité qui établit des rapports avec d'autres textes apparentés;

- l'interdiscursivité qui met l'accent sur les principaux discours actifs dans un milieu proche de la personne qui écrit.

Dans le cas qui nous occupe, le texte ne sera compris qu'à la suite d'une interprétation juridique.

Par ailleurs, une des composantes de la représentation de la connaissance est la description compositionnelle des concepts en primitives sémantiques. De telles théories logico-algébriques permettent un calcul sur la représentation produite qui peut être soit en schèmes structurés, tels les frames, les graphes conceptuels et les scénarios, ou en schèmes construits selon la logique des prédicats du premier ordre. Les concepts flous (open texture concepts) [Gardner, 1987] sont les concepts à l'oeuvre dans les textes juridiques dont la description ne peut être faite une fois pour toute. Il en est ainsi parce que ces concepts sont dynamiques, et que leur signification change lors de leur application d'un cas à un autre [McCarty, 1981], ou parce que les définitions qui fourniraient les conditions nécessaires et suffisantes pour leur délimitation sont absentes [McCarty, 1989] ou encore parce qu'il s'agit de concepts trop abstraits [Branting, 1991].

Ces deux phénomènes des règles contradictoires et des concepts flous rencontrés lors de líingénierie cognitive mettent en relief la faiblesse d'une sémantique immanente qui considère que les termes du texte réfèrent directement à des concepts et que les énoncés réfèrent directement à des règles juridiques. Une telle sémantique néglige le contexte díoccurrence des termes et des énoncés en les tenant pour de simples variables, alors que pour une sémantique interprétative [Rastier 1989], le contexte participe, dans tous les cas, à la détermination sinon à l'élaboration du sens díun concept ou d'une règle. Qui plus est, líéquivocité est une donnée fondamentale des textes:

En d'autres termes, et bien que toute notre tradition herméneutique milite contre cette conclusion, le sens díun texte níest pas de líordre du vrai, mais du plausible. Plutôt que de révoquer les interprétations jugées impropres, il convient donc de la hiérarchiser, en graduant leur plausibilité relativement à une stratégie donnée [Rastier, 1991: 160]

Ainsi, la représentation de la connaissance à partir des textes, juridiques ou autres, demande de déplacer les efforts, généralement tournés vers líélimination des ambiguïtés, vers l'intégration d'interpétations plurielles. Pour mener à bien une logicisation des énoncés textuels, on devra d'abord colliger et classer les contextes d'occurrence des termes désignant un concept ou énonçant une règle à partir d'un corpus de textes pertinents: lois, jurisprudence et doctrine. Ce classement est une opération cognitive qui nécessite la médiation de la compréhension par un juriste qui, selon les cas, produira une ou plusieurs interprétations. Il y a donc une nette distinction entre les connaissances véhiculées par un texte et les connaissances que requiert son interprétation.

2.2.2 Les systèmes experts ne permettent pas un traitement sémantique mais seulement syntaxique de la connaissance

Les systèmes experts ont été pensés et développés dans le cadre de recherches dans le domaine de l'intelligence artificielle. Leur finalité était anthropomorphique c'est-à-dire imiter le mieux possible le raisonnement humain, au niveau de la performance du moins [Buchanan 1984]. C'est ainsi qu'une confusion entre le formalisme et le substrat auquel il síapplique s'est instaurée et, par la suite, a été cultivée jusqu'à générer des attentes qui, comme nous le verrons plus loin, ne pourront jamais être comblées par un automate. Étant donné que MYCIN, le plus célèbre des systèmes experts, visait le raisonnement clinique dans le domaine des maladies infectieuses du sang et de la méningite, on dira que les systèmes experts font du diagnosticÎ. L'exécution du système expert s'appellera une consultationÎ et la trace d'exécution sera l'explicationÎ. Est-il possible que cette confusion touche les systèmes experts en droit où la logique, comme mode díaccès associatif à líinformation, a été confondue avec la logique comme justification du raisonnement juridique; la règle de droit, avec la règle d'inférences?

Une telle confusion explique qu'on a tenté de pallier aux insuccès des systèmes experts à imiter le raisonnement d'un juriste en proposant des remaniements au niveau de la logique du moteur d'inférences ou de la représentation des connaissances. Ces remaniements vont dans le sens d'une logique déontique [Jones, 1990], d'une logique temporelle [Poulin, 1989] ou encore d'une logique modale [Fattibene, 1989], etc. Bien que toutes ces contributions améliorent la qualité ou l'envergure du traitement des symboles, structurés ou non, qui représentent les concepts juridiques, le traitement demeurera toujours syntaxique.

En effet, la logique propositionnelle de même que la logique des prédicats du premier ordre ne permettent que des manipulations syntaxiques d'où toute signification est totalement exclue. Seul un observateur extérieur est capable, en interprétant une configuration de symboles, de lui conférer une dimension sémantique. Pour Dennet, la circularité ou líenchevêtrement de mécanismes syntaxiques ne change rien à líaffaire :

[...] certains trucs sont élégants et font appel à des principes profonds díorganisation mais finalement tout ce que líon peut espérer produire sont des systèmes qui semblent distinguer des significations en distinguant en fait des choses qui co-varient de manière fiable avec des significations. [Dennet, 1990: 86]

Dans les langages formels la référence entre les expressions et les objets est directe, alors que dans les langues naturelles, les signes ont une signification distincte de leur référence, cette dernière se trouve médiatisée par le processus de la communication qui implique un destinataire, un destinateur ayant chacun leur culture, leurs attentes et leurs représentations particulières, etc.

Par ailleurs, dans cette course à la simulation du raisonnement humain, les forces propres aux automates par rapport à la performance humaine sont oubliées. Les automates effectuent un traitement de l'information qui, bien qu'uniquement syntaxique, est fiable et efficace. Nous soutenons que les systèmes experts, tout comme les langages de programmation en général níimposent pas en eux-mêmes une philosophie particulière quant à leur utilisation. Il s'agit de méthodologies computationelles diverses quant à leur modalité, mais qui ont toutes en commun de contrôler líorganisation des instructions accomplies par l'ordinateur par des bifurcations conditionnelles qui permettent de choisir à un moment donné líune de plusieurs possibilités, en fonction de la valeur díun résultat calculé ou obtenu à une étape antérieure. Il s'agit là de l'essence du calcul symbolique. Dans les sections qui suivent, nous proposons le recours à la technique des systèmes experts, non pas pour simuler mais assister líinterprétation des textes juridiques en accomplissant des tâches où l'automate est plus performant que l'humain.

3 Le processus interprétatif

Nous avons vu que dans les deux cadres d'utilisation de l'ordinateur, la recherche d'information dans les bases de données textuelles juridiques de même que la modélisation des connaissances, peu de supports informatiques ne sont offerts pour líinterprétation qui joue pourtant un rôle prépondérant. Dans le premier cas, elle doit être faite partiellement par l'utilisateur, autant pour formuler une requête à líaide de mot-clés pertinents que pour discriminer, parmi tous les documents repérés, ceux qui contiennent réellement l'information reherchée. Dans le deuxième cas, la normalisation des textes juridiques, sous la forme de règles de production ou de clauses, déplace l'objet de la modélisation de l'interprétation juridique vers le contenu des textes qui sont interprétés. Ce déplacement a pour effet d'impliciter l'interprétation juridique de telle sorte que la base de règles obtenue ne sera jamais équivalente au texte, mais une interprétation de ce dernier effectuée lors de l'ingénierie de la connaissance. L'objectif de la présente contribution est de revenir à une modélisation de l'interprétation juridique même.

Opération cognitive fondamentale, l'interprétation pourrait être définie comme un processus intégrateur qui permet de générer des significations à partir de données perceptuelles élémentaires [Meunier, 1993]. De plus, comme on interprète toujours pour une fin donnée et à partir díun corpus de textes donné, il n'y a donc pas de mesure absolue pour en évaluer le résultat. Étant donné cette définition, l'interprétation ne peut être réduite à la connaissance et à la validation des conditions de vérité des énoncés.

Par ailleurs, des expérimentations sur le terrain ont démontré que le raisonnement humain était hautement inconsistant, autant pour la catégorisation que pour líinterprétation des configurations. À cet effet, Dennet [1990: 72] rapporte des recherches en psychologie sociale cognitive qui suggèrent que nous ne sommes que minimalement rationnels, étonamment prompts à en arriver à des conclusions ou à nous laisser influencer par des traits logiquement non pertinents des situations.

C'est ainsi que le recours à l'assistance de l'ordinateur trouve sa pertinence afin de fournir constance, consistance et exhaustivité. Toutefois, dans quelle mesure líinterprétation cognitive peut-elle être décomposée en opérations élémentaires sur des symboles et reproduite à volonté? Dans quelle mesure peut-on demeurer dans un paradigme calculatoire sans évacuer la marge díindétermination, les zones de flou et les erreurs inévitables engendrées par les circonstances mêmes de l'interprétation? Telles sont les questions dont les réponses sont cruciales pour situer la place et l'intérêt du recours à l'ordinateur.

Pour fournir une assistance computationelle pertinente à un utilisateur dans l'accomplissement d'une tâche d'interprétation, nous devons auparavant établir un modèle de cette opération. Dans une première étape, il nous semble opportun de sélectionner un cadre épistémologique pour réaliser cette modélisation. Pour ce faire, nous allons tenter de rattacher l'interprétation à un des grands types de raisonnement : inductif, déductif ou abductif. L'induction infère quelque chose de différent que ce qui est observé; ce raisonnement qui va des cas particuliers à la règle permet ainsi en quelque sorte de découvrir des lois ou régularités. La déduction s'inscrit dans un processus de démonstration où on conclut des proprositions prises pour prémisses, déjà démontrées ou autoposées, d'autres propositions. Quant à l'abduction, rappelons que c'est Pierce qui a introduit l'abduction en épistémologie; il la définit comme

... une méthode pour former une prédiction générale sans assurance positive qu'elle réussira dans un cas particulier ou d'ordinaire, sa justification étant qu'elle est le seul espoir possible de régler rationnellement notre conduite future, et que l'induction fondée sur l'expérience passsée nous encourage fort à espérer qu'elle réussira. [Pierce, 1867: 2.270]

L'abduction qui est présentée peut être vue comme une synthèse ordonnée des deux autres types de raisonnements qui prend en compte le décalage entre les objets et les règles que l'on pourrait en tirer. Il suggère les hypothèses ou idées générales que la déduction développe et que l'induction met à l'épreuve [Deledalle, 1990].

Le cadre épistémologique retenu conditionne en grande partie l'implantation computationnelle du modèle. Ainsi, par exemple, si un cadre déductif semble adéquat, le problème à résoudre sera représenté par un espace d'états et la recherche d'une solution qui se fera à l'intérieur de cet espace de recherche est guidée par un but; le mode de représentation sera la logique des prédicats du premier ordre. Le raisonnement de type abductif nous semble le plus conforme à la définition cognitive de l'interprétation que nous avons retenue précédemment. Nous allons tenter de justifier le choix du raisonnement abductif et d'en déterminer l'implantation computationnelle.

L'interprétation est un problème, essentiellement de nature qualitative, relié au pouvoir créatif de líesprit qui cherche à établir des relations entre des symboles, saisis séparément, pour identifier un schème et tirer de ce schème une ou plusieurs significations. Nous distinguons donc deux temps dans l'interprétation, la découverte du schème et l'assignation d'une signification à celui-ci. Pour identifier les schèmes (type), qui répondent potentiellement aux motivations de base du projet interprétatif, il faut trouver une configuration particulière d'indices qui prenne en compte l'ensemble des formulations des occurrences (token) d'apparition dans un corpus donné. L'identification d'un tel schème est assimilable à la formulation d'une hypothèse en ce que l'application de règles s'avère inadéquate, car il s'agit d'un processus heuristique de construction artificielle où certains symboles sont privilégiés et d'autres considérés comme du bruit afin d'isoler des régularités.

S'il est impossible de décomposer un processus heuristique en une suite de règles, il est toutefois possible de décomposer ce dernier en étapes. La première étape consiste à isoler puis à organiser et codifier le domaine des phénomènes pertinents. Dans le cas des textes, il s'agit des contextes d'occurrences de termes qui, a priori, nous semblent pertinents en regard de l'objectif de l'interprétation. Les contextes retenus sont alors regroupés en vertu des régularités qu'ils présentent. Les groupes obtenus constituent en quelque sorte des métacontextes qui, suite à une décontextualisation et à une formalisation deviendront des ensembles de relations logiques explicites entre des variables. Ces variables représentent, en fait, des paradigmes, c'est-à-dire des séries de termes différents mais qui tiennent dans les contextes des rôles équivalents. Pour ordonner, entre eux, les termes du paradigme, différentes échelles seront découpées et, pour chacune díelles, des gradations seront établies. Ces échelles et leurs gradations seront exploitées lors de l'attribution de la signification. Lors de l'étape de validation, ces variables deviendront des indices dans la mesure de leur présence effective dans les textes et non pas de leur projection par un lecteur en vertu de son expérience ou de son expertise. C'est donc sur le mode de l'émergence qu'apparaÎssent des règles de concaténation des indices en des schèmes.

Par la suite, les schèmes mis à jour doivent être testés sur l'ensemble du corpus afin d'un éprouver la validité et la couverture. Cette validation se fait par le biais d'une catégorisation à partir des paradigmes précédemment constitués. Cette catégorisation consiste à marquer les termes du texte du nom de l'indice qu'ils représentent. Un calcul qualitatif aura lieu sur ces indices potentiels pour dépister, par cumul ou agrégation, les schèmes pertinents. Ce calcul est constitué d'opérations élémentaires qui sont : le tri, le classement, la combinaison, la comparaison, la susbstitution, la transcodification (traduction díun code à un autre), le repérage par appariement, etc. Ces opérations, appliquées aux objets sur lesquel on opère, termes ou indices, dans un ordre déterminé, sont répétées un très grand nombre de fois. Il est à noter qu'autant les indices que les schèmes présentent la propriété de la compositionalité, ce qui autorise une certaine réalisation de la complexité.

Pour ce qui est de l'assignation d'une signification au schème, étant donné que l'automate ne peut qu'effectuer un traitement syntaxique de l'information, l'ordinateur n'est que peu utile. Il ne peut guère fournir assistance autre que de gérer et d'appliquer une table de correspondance entre des schèmes dépistés à l'aide des indices et des significations qui auront été préalablement inscrites dans la table. L'accès aux significations est directe, car líassociation qualitative est difficile à implanter dans un ordinateur.

En somme, l'ordinateur peut fournir une assistance appréciable pour l'interprétation dans les phases de recueil des contextes. Une simple opération de concordance (KWIC key word in context) permet de repérer exhaustivement les contextes qui fourniront la matière première pour constituer les paradigmes qui, après validation et décontextualisation, deviendront les schèmes. Les schèmes seront par la suite décomposés en indices qui seront projetés sur les textes. Il s'agit là d'un dispositif grossier certes, mais qui pourra aider à discriminer des configurations signifiantes malgré la diversité et les fluctuations dans les formulations. C'est ce dispositif que nous avons appelé la lecture experte dont la présentation succincte sera donnée dans la prochaine section.

4. La lecture experte

4.1 LA LECTURE EST UNE EXPERTISE

Dans la foulée de précédents travaux, projets de recherches ou projets pilotes dans l'administration publique, la lecture, en tant que processus cognitif individuel et collectif, apparaÎt comme une expertise. Une expertise c'est la maÎtrise par un individu de l'accomplissement d'une tâche dont les fondements sont la plupart du temps implicités.

De manière générale, toute personne pratiquant intensément une activité acquiert des automatismes. Cette automatisation apporte une plus grande efficacité à l'expert, qui agit alors plus au niveau réflexe qu'au niveau conscient(...). Mais l'automatisation limite aussi l'expert lors d'un accès conscient à l'activité. Ainsi, l'expert a du mal à expliquer ce qu'il fait (il possède un savoir-faireÎ mais n'a pas de disposition pour le faire savoirÎ). [Gallouin, 1988: 159].

L'expert se différencie du non-expert en ce qu'il possède une représentation interne, schématique de la tâche qui lui permet de discriminer ce qui est important de ce qui ne l'est pas et en même temps qui lui permet de voir un grand nombre de détails. Là où les autres ne voient que des cas particuliers sans liens, l'expert distingue des patrons et des structures.

Le propre de l'expertise des lecteurs est de mettre en oeuvre des stratégies efficaces de décodage et d'interprétation du contenuÎ des textes afin d'en extraire de l'information pertinente. Les critères et motivations qui établissent cette pertinence sont toujours extérieurs au processus de lecture, mais jouent toutefois un rôle important dans les stratégies mises en oeuvre. En effet, les lecteurs accomplissent, avec l'information obtenue, des tâches diversifiées, telles : l'évaluation d'un dossier, l'attribution d'un contrat, etc. Dans le cas qui nous occupe, les juristes vont lire les textes juridiques pour émettre un avis légal, pour déterminer la portée d'un concept, pour extraire une règle de droit, etc.

Claude Thomasset, dans son texte sur La lecture des textes juridiques [1992], isole cinq niveaux de lecture : lexicale (le sens commun), conceptuelle (repérage des concepts juridiques), intertextuelle (le réseau des contextes d'occurrences pertinents des concepts juridiques), l'analyse des principes généraux qui permettent une interprétation conforme aux intentions de l'auteur, et enfin l'analyse symbolique liée à la conception de l'être humain dans nos sociétés occidentales et aux valeurs économiques qui animent le système économique et de consommationÎ. Le modèle computationnel de la lecture experteÎ fournit support et assistance pour l'accomplissement des trois premiers niveaux. Quant aux deux autres, ils relèvent de l'aspect signification qui est laissé de côté dans le cadre de la présente contribution.

Ce terme de lecture experteÎ désigne les processus de décodage et d'interprétation du contenuÎ effectués par un expert du domaine avec l'assistance d'un système informatique. La conception d'un tel système exige de concilier la méthodologie établie de l'analyse des textes par ordinateur (ATO) [Bardin, 1977] avec les données empiriques tirées de l'observation de lecteurs. C'est ainsi que les opérations fondamentales seront quelque peu réaménagées.

4.2 LES OPÉRATIONS DE L'ATO

Le processus analytique est habituellement conçu en quatre opérations successives : le découpage des unités significatives du texte, la description de ces unités, l'extraction d'informations à partir des descriptions et l'interprétation des informations extraites. On arrive généralement à effectuer au moyen de l'ordinateur, à des degrés divers d'automatisme et avec plus ou moins de succès, les trois premières étapes. Cependant, à notre connaissance, aucun système basé sur l'un et/ou l'autre des trois modèles de traitement suivants : statistique [Lebart et Salem, 1988], linguistique [Coulon et Kayser, 1986] ou associationniste [Cotrell et Small, 1983; Waltz et Pollack, 1985], ne s'est vraiment attaqué à l'interprétation qui pourtant constitue l'étape cruciale de l'analyse. L'apparente impuissance de ces paradigmes s'explique en partie par la nature subjective de l'opération cognitive de l'interprétation. Elle s'explique aussi par la stratégie étapisteÎ qui est habituellement mise en oeuvre dans la conception et le développement des systèmes d'ATO. Étant donné les difficultés rencontrées à chacune des étapes, celles-ci deviennent des finalités.

Le découpage du texte en mots - chaÎnes de caractères délimitées par des blancs - ne donne pas pour autant des unités significatives. Celles-ci sont souvent composées de plusieurs mots et leur délimitation peut donner lieu à des traitements élaborés. Ainsi, par exemple, les expressions traitement de textesÎ et assemblée généraleÎ sont des multi-termes, aussi appelés dans d'autres contextes segments répétésÎ, synapsiesÎ ou encore unités polylexicalesÎ. Des traitements plus ou moins sophistiqués ont été mis à contribution pour leur dépistage [Paquin, 1991; David et Plante, 1991]. En dernière analyse, le problème s'avère parfois insoluble sans le recours à une connaissance étendue du domaine de référence [Bertrand-Gastaldy, 1990].

La description linguistique des unités et de leurs relations à l'intérieur de la phrase est elle-même l'objet d'une stratégie étapisteÎ dont chacune des étapes constitue en elle-même un vaste champ de recherches. Selon cette stratégie, une série de descriptions linguistiques doivent successivement être réalisées à partir du résultat des précédentes. D'abord, on procède à une description morphologique hors contexte de chacun des mots à l'aide d'un dictionnaire. Dans le cas où plusieurs morphologies sont possibles, une description en contexte est nécessaire pour déterminer, à l'aide des mots voisins, laquelle des formes possibles est effectivement réalisée. Puis, une description syntaxique vient préciser les relations qu'entretiennent les mots à l'intérieur des propositions et les relations entre les propositions à l'intérieur de la phrase [Coulon et Kayser, 1986:107].

Une telle stratégie repose sur les postulats qu'un texte est composé d'un ensemble de structures dont les principes d'organisation peuvent être explicités et que, quoique intereliées, ces structures sont suffisamment distinctes pour être décrites les unes après les autres. Or rien n'est moins sûr. La désambiguisation d'une catégorie morphologique exige parfois une analyse syntaxique complète ou encore le recours à un contexte étendu.

Par ailleurs, la description syntaxique d'un texte, même si elle permet à terme d'accéder à une certaine sémantique relationnelle des unités, ne contribue qu'en partie à la description des niveaux supérieurs d'organisation du texte, telle la structure argumentative ou encore les figuresÎ [Dubois 1970], dont la prise en compte est pourtant essentielle à l'interprétation du texte. C'est qu'un texte n'est pas seulement un fait de langue mais aussi de discours. Ce dernier aspect fait appel à des connaissances externes au texte analysé, celle des autres textes et celle des conventions sociales qui en régissent la production [Foucault, 1969]. Voilà pourquoi l'étiquetage contextuel de catégories autres que linguistiques aux unités significatives est si difficile à réaliser à l'aide de l'ordinateur.

Plutôt que de réduire la complexité du processus analytique en le découpant en étapes et que de consacrer des efforts théoriques et computationnels à la résolution automatique de tous les problèmes qui se posent pour chacune des étapes, nous proposons de focaliser sur les besoins et les pratiques de ceux qui effectuent l'analyse des textes, les lecteurs. Au lieu de chercher à mettre au point un algorithme général d'ATO, nous mettons l'accent sur la modélisation d'une lecture particulière des textes. Cette lecture consiste en grande à déchiffrer les schèmes interprétatifs dont nous avons parlé lors de la section sur l'interprétation et qui sont obtenus par un raisonnement abductif. Ces considérations nous ont amené à proposer des réaménagements aux opérations de description des textes et d'extraction de l'information pertinente.

4.3 LE DÉCHIFFRAGE DE SCHÈMES INTERPRÉTATIFS

La description consécutive à la segmentation sera beaucoup plus superficielle puisque tous les mots d'un texte ne sont que rarement pris en compte par le lecteur. La plupart du temps, un filtrage plus ou moins sévère est effectué en vertu de ses objectifs, de sa connaissance du domaine de référence, etc. Ainsi, la lecture se trouvera d'autant accélérée que le filtrage sera sévère. Les analyses contextuelles pour la désambiguïsation des termes auxquels des catégories multiples auront été attribuées ne seront effectuées, lors de l'étape de l'extraction, que si les occurrences sont conservées. Cette ambiguïté peut être aussi bien morphologique (par ex.: le mot étéÎ qui peut être un nom commun ou un participe passé) que sémantique (par ex.: le terme église peut aussi bien désigner l'institution que le bâtiment où se déroule le culte). La résolution automatique de ces ambiguïtés, qui exige un investissement considérable pour déterminer l'ensemble des règles contextuelles nécessaires, constitue un des facteurs d'empêchement dans le développement des systèmes d'ATO. Dans le cadre de la lecture experte, la description permet essentiellement de réduire sensiblement le nombre de formes en présence et, par conséquent, le nombre de configurations différentes qui mènent à un schème interprétatif donné.

De plus, dans le cadre de la lecture experte, l'opération d'extraction de l'information pertinente à partir de la description sera revue en profondeur. Dans le cadre traditionnel de l'ATO, l'extraction se fait par un patron de fouille qui peut être arbitrairement complexe. Selon le système utilisé, le langage d'interrogation permettra la troncature et les masques sur les chaÎnes de caractères, il permettra aussi de tester les valeurs de propriétés déposées lors de la description et de contraindre l'adjacence. Toutefois, dans tous les cas, les requêtes sont booléennes dans la mesure où l'ensemble des contraintes doivent être réalisées pour que l'information soit extraite.

Toutefois, ce n'est pas tout à fait ainsi que le lecteur fonctionne, car, même sans la co-présence de tous les indices, celui-ci peut quand même accéder à l'information du texte. Son expertise lui permet de lire entre les lignesÎ, de combler l'absence d'indices ou encore de discriminer la relation probable entre les indices lorsque les configurations s'avèrent ambiguës. C'est ainsi que, plutôt que de parler d'extraction, on parlera de déchiffrage. Déchiffrer c'est aussi prédire dans la mesure où le lecteur utilise des configurations types d'indices déjà relevés précédemment au cours de la lecture ou lors de lectures précédentes. Dans le cadre des théories cognitives, on pourrait dire que le lecteur a en tête des prototypesÎ, les schèmes interprétatifs, réalisés dans les textes dans un état plus ou moins complet, qu'il cherche à retrouver [Taylor, 1989]. Avant de développer un exemple de lecture experte appliqué aux textes juridiques, quelques mots sur la façon dont la lecture experte est implantée.

L'assignation d'une signification au schème interprétatif est aussi vue comme une mise en relation soit avec d'autres indices ou avec des éléments externes appartenant au monde de référence ou encore à la culture du lecteur.

4.4 L'IMPLANTATION DE LA LECTURE EXPERTE

L'élaboration des schèmes interprétatifs, de même que les opérations de segmentation et de description des unités pertinentes des textes se font à l'aide du Système d'Analyse de Texte par Ordinateur SATO [Daoust, 1992]. Quant à l'opération de déchiffrage, elle est plutôt effectuée par un système à base de connaissances (SBC). Nous avons déjà fait mention (section 3) de l'utilité de travailler sur les contextes d'occurrences pour élaborer les schèmes interprétatifs; SATO offre des fonctionnalités intéressantes pour produire interactivement les concordances requises sur de très grands corpus de textes et ce, avec un micro-ordinateur.

SATO offre, en plus, des fonctionnalités très efficaces pour décrire les unités pertinentes du texte. Étant donné qu'il n'y a pas une mais de multiples lectures possibles des textes, les descriptions seront variées. Celles-ci seront déterminées lors de la mise au point des schèmes interprétatifs et pourront être hors contexte ou en contexte. Si la description porte sur les mots, elle sera consignée dans des dictionnaires qui seront projetés sur le lexique des textes. Par contre, si la description porte sur des expressions complexes, elle sera assignée par le biais de concordances. Les concordances pourront aussi être utilisées pour implanter des règles de désambiguation. Ainsi, par exemple, si l'on retrouve le terme membreÎ dans le voisinage immédiat du terme égliseÎ on est sûr qu'il s'agit de l'institution et non pas de l'édifice.

Quant à la segmentation différente des mots, elle pourra être faite, soit par des concordances suite à une description morphologique (nom_commun + préposition + nom_commun), soit par des logiciels développés à cet effet dont TERMINO™ [David et Plante, 1991].

L'opération du déchiffrage des schèmes interprétatifs est formalisée en règles de productions pour former un SBC; les unités pertinentes des textes, regroupées et décrites avec SATO, deviennent des faits. Il s'agit là d'une approche qui tranche radicalement avec la pratique usuelle en ATO qui est d'utiliser un langage d'interrogation pour formuler des patrons. Le générateur de SBC uilisé est celui incorporé dans l'Atelier Cognitif et TExtuel (ACTE) [Paquin et Daoust, 1993].

Une telle implantation présente les avantages suivants. La complexité du dispositif computationnel requis se trouve diminuée en termes d'apprentissage du système de sorte qu'une initiation à la programmation n'est donc pas requise. Comme le système est développé par les utilisateurs eux-mêmes, la prise en compte des objectifs reliés à leur tâche est assurée alors que ces objectifs sont habituellement négligés sinon méconnus par les systèmes d'analyse de texte. De plus, une approche par SBC permet un développement modulaire des systèmes. On commence par un prototype aux dimensions modestes, quelques dizaines de règles qui sont immédiatement testées sur des données d'un corpus d'apprentissage afin de valider autant les schémas d'interprétation que les listes d'indices constituées pour leur déchiffrage. Puis, graduellement, le prototype est étendu au domaine entier. Par ailleurs, un gros volume de textes peut être l'objet d'un traitement fin sans dégradation des performances du dispositif.

Qui plus est, les SBC nous permettent d'implanter cette capacité de prédiction du lecteur qui lui permet de déchiffrer l'information, même en l'absence d'indices qui sont pourtant nécessaires. Le mécanisme du cumul de coefficients numériques est utilisé [Buchanan et Shortliffe, 1984]. Le moteur d'inférences propage l'incertitude ou encore la confiance tout au long de la chaÎne inférentielle. Les formules de cumul, selon la conjoncture, provoquent, soit une atténuation, soit un renforcement du coefficient d'un fait donné. Un renforcement aura lieu lorsqu'un fait est inféré plus d'une fois, c'est-à-dire, dans le cadre de la lecture experte, lorsque plus d'un indice menant à un schème interprétatif donné auront été dépistés.

D'une part, une configuration particulière d'indices peut être associée à un schème donné malgré l'absence de certains indices, pourtant jugés nécessaires lors de son élaboration. Le système fera quand même l'association mais avec un coefficient de certitude moindre qui, à son tour, provoquera une atténuation de la certitude lors de l'association subséquente du schème avec la signification correspondante. L'utilisation des coefficients permet un dépassement du cadre strict de la logique booléenne. En effet, comme le modèle prévoyait associer un schéma interprétatif à une conjonction d'indices, si l'un d'eux venait à manquer, sans le recours aux coefficients, l'association n'aurait pu être établie. D'autre part, les indices sont associés individuellement à un ou, le cas échéant, à plusieurs schèmes interprétatifs avec un faible coefficient qui sera renforcé au fur et à mesure du déclenchement des règles filtrant les autres indices. Ce dispositif permet une réduction de la complexité des règles nécessaires pour implanter un modèle de lecture donné en dépassant l'unicité pour déboucher sur des associations plurielles mais différenciées.

La mise en relation du schème interprétatif avec la signification correspondante est elle aussi implantée dans le SBC. En fait, la distinction entre le schème interprétatif et la signification est ténue à ceci près que dans le premier cas la relation est plus objective.

En somme, la lecture experte pourrait être résumée dans la chaÎne de traitements suivante. D'abord les regroupements pertinents d'unités sont opérés à l'aide de SATO par des patrons de fouille sur des chaÎnes de caractères ou sur des catégories morphologiques préalablement projetées au lexique et en partie désambiguisées. Ensuite, les mots et segments pertinents du texte sont transformés en indices suite à une description effectuée par SATO manuellement, par la projection sur le lexique de dictionnaires, ou par en contexte par des patrons de fouille. Cette description peut être plurielle : sémantique, actantielle, distributionnelle, etc. Puis, une à une, des entités logiques du texte, telles les paragraphes, les articles, les chapitres, etc. sont constituées en faits de départ et soumis au SBC. Pour chacune des entités, une chaÎne inférentielle est initiée. Les règles qui testent les indices en présence sont une à une validées et, lorsque l'ensemble des indices testés sont présents dans la base de faits, les schèmes interprétatifs sont inférésÎ, c'est-à-dire qu'ils acquièrent le statut de faitsÎ. Au cycle d'inférences suivant, les règles qui testent les schèmes interprétatifs affirmés sont validées et, le cas échéant, des significations sont à leur tour inféréesÎ et le tout est consigné dans un rapportÎ qui peut être imprimé et conservé pour traitement statistique ou encore pour enrichir le système étant donné les chaÎnages inférentiels les plus fréquents. Plus tard, les éléments du rapport peuvent, à leur tour, constituer les indices d'une méta-analyse et ainsi de suite.

La schématisation suivante représente la chaÎne de traitement de la lecture experte :

5. Un exemple : la bonne foi

Cette section a pour unique objectif d'illustrer les notions de schème interprétatif et de lecture experteÎ dans le domaine juridique. Toutefois, contrairement aux situations réelles de développement, le travail n'est pas supervisé par des juristes. Le thème retenu pour l'illustration est celui de la définition du concept flou de bonne foiÎ dans le contexte de la reprise de possession d'un logement par le locateur. Le corpus de textes utilisé comporte quarante six décisions qui comptent en moyenne une page chacune. Une partie de ces décisions ont fait l'objet d'une publication alors que les autres ont été fournies par la Régie du Logement et saisies par nos soins.

La détermination d'un schème interprétatif se fait à partir de contextes d'occurrences de termes dénotant le concept-clé, ici la bonne foiÎ. Contrairement à une autre expérimentation qui avait été menée pour le concept de bâtimentÎ dans un corpus de règlements de zonage de la Ville de Montréal [Paquin et Dupuy, 1991] où un contexte de l'envergure de la phrase suffisait généralement pour cerner le concept, il est impératif pour le concept de bonne foiÎ d'élargir le contexte à tout le texte de la décision. La raison de cette différence réside en grande partie dans le statut de l'objet désigné par ces concepts.

Le bâtimentÎ est une entité physique, et, à ce titre, est appréhendé par ses caractéristiques ou traits saillants; le concept est donc principalement élaboré par des compléments du nom (par ex.: la largeur du bâtiment, l'alignement frontal du bâtiment, etc.) qui lui fournissent en quelque sorte une substance, des ancrages dans l'espace et le temps, une finalité, etc. La bonne foiÎ est une qualité abstraite qui ne fait pas l'objet d'une description, mais d'une démonstration ou d'une preuve. En effet, dans le voisinage immédiat du terme bonne foiÎ on ne retrouve que rarement des déterminants ou spécifieursÎ qui construisent le concept. Soit que le concept est inclus dans un cadre prescriptif :

Le Code civil à l'article 1659.3 impose au locateur le fardeau de démontrer "qu'il est de bonne foi, qu'il entend réellement reprendre possession du logement pour la fin mentionnée dans l'avis et qu'il ne s'agit pas d'un prétexte pour atteindre d'autres fins".

soit que le concept est inclus dans un cadre délibératif:

... la Régie est d'opinion que le locateur a établi sa bonne foi ...

En défense, la locataire doute sérieusement de la bonne foi du locateur...

La présence ou l'absence de bonne foiÎ chez un individu ne peut être directement démontrée ou prouvée; le recours à la description d'agissements est essentielle. C'est ainsi que la plupart du temps, ce concept est construit de façon négative par la narration d'une ou plusieurs situations attestées de manquement. Cette narration est composée en partie de verbes ou d'actions nominalisées qui désignent des agissements et comportements reliés à la mauvaise foi:

- accrochage - contourner

- déloger - dire des bêtises

- évincer - harcèlement

- menace - prétexte

- règlement de compte

- subterfuge - tracasseries

- vengeance

La narration est aussi en partie composée de noms qui qualifient le climat entourant la reprise de possession:

- agressivité - animosité

- conflit - dispute

- litige - mauvaises relations

- relation tendue - relations difficiles

- tension

D'autres termes enfin désignent les motivations inacceptables pour la reprise de possession :

- hausse de loyer - expulsion

- subdivision - vente

Le schème interprétatif relié au concept de bonne foiÎ pourrait, si l'on accepte l'analyse qui précède, ressembler à la formule suivante. Dans un contexte de reprise de possession, le locateur a eu des agissements qui ont engendré un climat désagréable pour le locataire qui manifestent des motivations inacceptables eu égard à l'article 1659.3 du Code civil et à son interprétation dans la jurisprudence et la doctrine :

REPRISE DE POSSESSION +

AGISSEMENTS DU LOCATEUR +

CIRCONSTANCES +

MOTIVATIONS INACCEPTABLES

MAUVAISE FOI

Dans ce cas, implanter la lecture experte consistera à concevoir des dictionnaires pour la catégorisation des agissements du locateur et des motivations inacceptables. Dans le cas où il est question de reprise de possession, les dictionnaires sont appliqués et une catégorisation est effectuée. Voici un exemple d'une décision catégorisée:

Lors de l'audition, les parties sont présentes. Il est admis un bail à durée indéterminée au coût mensuel de $215.00.

Il est prouvé un avis dans la forme et les délais prescrits par la loi pour la reprise de possession.

Le locateur met en preuve qu'il entend reprendre possession de ce logement pour l'habiter occasionnellement lui-même. [...]

La locataire explique qu'elle craint que le locateur veuille simplement vendre*motif=vente la maison en évinçant*agissement=éviction la locataire. Elle déclare que les relations avec le locateur sont difficiles*climat=mauvaises relations au niveau des réparations et qu'il l'a souvent menacée*agissement=menace d'expulsion*motif=expulsion.

Le raisonnement qui sera tenu à l'aide du système expert sera négatif. Plus il y aura d'indices, c'est-à-dire de termes du textes qui auront reçu des catégories, plus la mauvaise foi sera inférée. La bonne foi sera, par contre, inférée en l'absence d'indices.

6. Conclusions

Dans la présente contribution nous avons critiqué l'absence de prise en compte de l'interprétation lors du recours à l'ordinateur pour le traitement des textes juridiques, autant dans une perspective documentaire où l'accent est mis sur l'indexation des textes en vue d'un repérage conceptuel des textes, que dans une perspective d'intelligence artificielle où l'accent est plutôt mis sur la représentation des connaissances juridiques et la simulation du raisonnement juridique.

Comme solution, nous avons proposé d'enrichir les pratiques documentaires et de formalisation logique d'études empiriques sur le comportement du lecteur indexeur ou modélisateur face aux textes. L'étude de la performance humaine et des stratégies utilisées lors de líinévitable interprétation nous apparaÎt centrale. Cette étude est validée par des simulations des manipulations relationnelles de symboles à partir des textes au moyen de la technologie des systèmes à base de connaissances.

Cette solution présente les avantages suivants. Elle permet une réduction des décisions méthodologiques a priori qui peuvent entrer en contradiction avec les procédures intellectuelles du lecteur. Elle exerce, de plus, une pression vers le codage uniforme des données par l'explicitation le plus à fond possible d'un grand nombre de savoir-faire et díopérations intellectuelles qui habituellement demeurent implicites.

Elle fournit en même temps une occasion díune réflexion épistémologique féconde sur le paradigme informatique, les systèmes experts, qui est en voie de devenir la norme de modélisation. Elle participe à définir la place qui revient à líhumain et à líordinateur dans le traitement cognitif de l'information tout en sonnant le glas des systèmes formels décidables, complets et totalement cohérents.

En dernière analyse. la question de recherche derrière la lecture experte c'est de déterminer dans quelle mesure il est possible d'amener l'ordinateur à assister des traitements cognitifs reliés directement à l'interprétation des textes.


Références

Allen, L. E. and Saxon, C. S.  1991 "More IA Needed in AI: Interpretation Assistance for Coping With the Problem of Multiple Structural Interpretations, Proceedings of the Third International Conference on Artificial Intelligence and Law, ACM: 53: 61.

Ashley, K. D.  1988  "Arguing by Analogy in Law: A Case Based Model", Analogical Reasoning, Kluwer Academic Publishers: 205-224.

Bardin, L.  1977  L'Analyse de contenu, Presses Universitaires de France.

Bertrand-Gastaldy, S., Daoust, F., Meunier, J.-G., Pagola, G. et Paquin, L.-C.  1992  "Un prototype de système expert pour l'aide à l'analyse des jugements", Actes du congrès Informatique et droit de l'AQDIJ, volume C1.3.

Bertrand-Gastaldy, S.  1990  "L'indexation assistée par ordinateur : un moyen de satisfaire les besoins collectifs et individuels des utilisateurs de bases de données textuelles dans les organisation", ICO Québec: Gestion de l'information textuelle 2 (3), 1990 : 71-91.

Bing, J.  1984  Handbook of Legal Information Retrieval, North Holland, Part III.

Branting, L. K.  1991  "Reasoning with Portions of Precedents", Proceedings of the Third International Conference on Artificial Intelligence and Law; ACM: 145-154.

Buchanan, B. G. and Shortliffe, E. H.  1984  Rule-Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project, Addison-Wesley.

Côté, P.  1992  Approches ergonomiques des interfaces personne-machine pour la recherche d'information en ligne, ICO, Intelligence artificielle et sciences cognitives au Québec (4) 1-2: 9-16.

Cotrell, G. W. et Small, S. L.  1983  "A connextionnist scheme for modelling word sens disambiguation". Cognition and Brain Theory 6: 89-120.

Coulon, D. et Kayser,D.  1986  "Informatique et langage naturel: présentation générale des méthodes d'interprétation des textes écrits", Technique et science informatique 5 (2).

Daoust, F.  1992  Système d'Analyse de Texte par Ordinateur version 3.6, manuel de référence, Centre ATOïCI, Université du Québec à Montréal.

David, S. et Plante, P.  1990  "Le progiciel TERMINO : de la nécessité d'une analyse morphosyntaxique pour le dépouillement terminologique", Actes du Colloque international 'Les industries de la langue: Perspectives des années 1990'., Montréal: 71-88.

Deledalle, G.  1990  "Abduction", Auroux, S. éd. Encyclopédie philosophique universelle vol.2 Les notions philosophiques, Presses Universitaires de France: 4.

Dennet, D. C.  1990  La stratégie de l'interprète, Gallimard trad. fr. de Engel F., The Intentional Stance, Bradford Book 1987.

Dubois, J. et al.  1970  Rhétorique générale, Larousse.

Fattibene, P., Martinelli, M. et Simi, M.  1989  "Automated legal reasonong using a theorem prover for modal logics" Proceedings of the Third Conference 'Logica Informatica Diritto' vol. 2: 357-371.

Foucault, M.  1969  L'Archéologie du savoir, Gallimard.

Gallouin, J.-F.  1988  "Systèmes experts et psychologie cognitive", Micro-Systèmes, décembre.

Gardner, A.  1987  An Artificial Intelligence Approach to Legal Reasoning, M.I.T. Press.

Grosz, B.J. et al.  1986  Readings in Natural Language Processing.

Hofstadter, D.  1979  Gödel, Escher, Bach : an Eternal Golden Braid, Basic Books.

Jones, A. J. I.  1990  "Deontic Logic and Legal Knowledge Representation", Ratio Juris (3) 2.

Kowalski, A.  1991  "Case-Based Reasoning and the Deep Structure Approach to Knowledge Representation" Proceedings of the Third International Conference on Artificial Intelligence and Law, ACM: 21-30.

Kowalski, R. A.  1979  Logic Programming for Problem Solving, North Holland.

Laferrière, M.  1992  "Constitution d'une banque centrale de jugements des tribunaux judiciaires québécois" Actes du congrès Informatique et droit de l'AQDIJ, volume C1.1.

Lebart, L. et Salem, A.  1988  Analyse statistique des données textuelles. Dunod.

McCarty, L. T and Sridharan, N. S.  1981  "The Representation of an Evolving System of Legal Concepts: II. Prototypes and Deformations." Proceedings IJCAI-81.

McCarty, L. T.  1989  "AI and Law: How to Get There fron Here" Proceedings of the International Conference on Expert Systems in Law.

McEnery, A. M. and Bench-Capon, T.   1989  "Battle Management for Prolog Conflict Sets, Proceedings of the Fourth International Conference on Symbolic and Logical Computing: 367-390.

Meunier, J.-G.  1993  "Semiotic primitives and conceptual representation of knowledge", Signs, Search and Communication. Semiotic Aspects of Artificial Intelligence, Walter de Gruyter: 66-89.

Montpetit, M.  1992  "Analyse des jugements des tribunaux judiciaires", Actes du congrès Informatique et droit de l'AQDIJ, volume C1.2.

Paquin, L.-C.  1991  "Du terme au concept", Actes du Colloque international 'Les industries de la langue: Perspectives des années 1990', Montréal: 313-333.

Paquin, L.-C.  1993  Atelier cognitf et textuel version 1.0, manuel de référence, Centre ATOïCI, Université du Québec à Montréal.

Paquin, L.-C. et Daoust, F.  1993  ACTE Atelier cognitif et textuel, version 1.0, manuel de référence, Centre ATOïCI, Université du Québec à Montréal.

Paquin, L.-C. et Dupuy, L.   1991  "Gestion des données textuelles dans les organisations : le dictionnaire de concepts", Actes du colloque 'Repérage de l'information textuelle', Hydro-Québec: 43-50.

Pierce, C. S.  1867  Collected Papers, The Belknap Press of Harvard University Press.

Poulin, D., Mackaay, E., Bratley, P. et Frémont, J.   1989  "Time Server - A Legal Time Specialist" Proceedings of the Third Conference 'Logica Informatica Diritto' vol 2: 733-760.

Rastier, F.  1989  Sens et textualité, Hachette.

Rastier, F.  1991  Sémantique et recherches cognitives, Presses Universitaires de France.

Smith, J. C. and Deedman, C. "The Application of Expert Systems Technology to Case-Based Reasoning" Proceedings of the First International Conference on Artificial Intellignece and Law, ACM.

Susskind, R. E.  1986  "Expert Systems in Law: A Jurisprudential Approach to Artificial Intelligence and Legal Reasonning" Modern Law Review 49.

Taylor, J. R.  1989  Linguistic Categorization, Oxford University Press.

Thomasset, C.  1992  "La lecture des textes juridiques", Lire le droit, langue, texte, cognition, Bourcier, D. t Mackay, P. (éds), LGDJ.

Tyree, A.  1989  Expert Systems in Law, Prentice Hall.

Vossos, G.; Zeleznikow, J.; Dillon, T. and Vossos, V.  1991  "An Example of Integrating Legal Case Based Reasoning with Object-Oriented Rule-Based Systems: IKBALS II" Proceedings of the Third International Conference on Artificial Intelligence and Law, ACM: 31-41.

Waltz, D. et Pollack, J. B.  1985  "Massively Parrallel Parsing: A Stongly Interactive Model of Natural Language Intepretation". Cognitive Science 9:.51-74.