Introduction
Le présent colloque se donne pour objectif de réfléchir
sur les rapports entre les sciences sociales et l'intelligence
artificielle (ci-après IA). Bien que, comme nous le verrons
plus loin, le terme "intelligence artificielle" connaisse
une certaine disgrâce, il n'en demeure pas moins qu'il permet
de désigner une réalité bien présente
dans les transformations actuelles de nos sociétés.
Il nous faut donc nous interroger sur la place ó ou devrions-nous
dire l'absence ó de la sociologie dans les développements
de cette approche, mais également sur le désintérêt
du sociologue lui-même pour ces questions. Il sera beaucoup
question, dans ce colloque, des connaissances et de leur exploitation
dans l'entreprise. Ma perspective est indirectement reliée
à cette question puisque je m'intéresse au traitement
et à l'analyse de textes, lesquels constituent l'un des
supports privilégiés de cette connaissance. Je
ne me placerai pourtant pas du point de vue du sociologue des
organisations, mais je m'interrogerai sur la meilleure stratégie
informatique pour rencontrer les exigences de l'analyse sociologique
de textes à travers leur mise en valeur informatique.
L'intelligence artificielle en
question Il est possible
de dire que le projet de simuler les processus intelligents de
manière artificielle a été à la fois
la condition d'énormes avancées scientifiques et
technologiques et un leurre visant à convaincre bailleurs
de fonds et utilisateurs potentiels d'investir massivement dans
son développement. La critique de l'IA porte à
deux niveaux. Le premier consiste à rappeler l'histoire
de ses désillusions réitérées au terme
de chacune des phases de son développement. Cette critique,
très bien menée par Dreyfus (1979,1984), montre
comment l'IA s'est développée par étapes
successives, présentées chacune comme devant résoudre
les échecs cumulés jusqu'alors. Dreyfus reprend
de Bar-Hillel l'idée du "sophisme du premier pas",
cet enthousiasme débordant au point de départ d'une
phase de développement de l'IA. On assiste, à ce
moment, à des prédictions sur les résultats
attendus qui sont délirants : "la simulation de l'intelligence
est à portée de main...". Mais, devant des
résultats décevants, on initie une nouvelle direction
de recherche qui est proclamée encore plus prometteuse.
Cette conviction, naïve ou intéressée, est
encore aujourd'hui le fait de chercheurs de pointe, mais il existe
de plus en plus de critiques venant aussi bien de l'intérieur
que de l'extérieur de l'IA.
En effet, le second niveau de la critique
s'intéresse au fondement de l'IA. Critique de la raison
instrumentale (Weizenbaum, 1976, 1981), critique de la raison
artificielle (Dreyfus, 1979, 1984), critique du modèle
de la représentation (Flores et Winnograd, 1986, 1989),
toutes contestent le projet de reproduire ou de simuler des processus
intelligents complexes. Weizenbaum critique d'emblée la
pensée scientifique rationaliste et mécaniste et
remet en question la prétention de celle-ci à penser
tout le réel. La connaissance humaine échappe,
selon lui, au formalisme logique et l'IA, en tant qu'aboutissement
ultime de cette pensée, devrait s'interdire de se substituer
à certaines fonctions humaines qui ne peuvent relever de
la technique. C'est donc l'éthique qui fonde sa critique
de la science et de l'IA. Dreyfus adopte un point de vue phénoménologique
qu'il oppose à la position plus moralisante de Weizenbaum.
S'appuyant sur le fait que l'être humain est toujours déjà
en situation, il en déduit un recours nécessaire
au contexte, ce dernier se manifestant dans les desseins, le corps,
les besoins et les désirs. Tout cela étant muable
en permanence, aucun fait n'est pourvu d'une signification stable
ou universelle. Aux deux questions qu'il formule : est-ce que
l'être humain traite l'information à l'aide de règles
formelles? est-ce que toute conduite humaine peut faire l'objet
d'une formalisation?, il doit répondre non. La faculté
de comprendre renvoie à l'être humain dans son corps,
inséré dans le monde matériel et formé
à sa culture. Aucun système de règles n'est
concevable dans ce contexte évolutif. Par ailleurs, la
simulation formelle de cette complexité appellerait une
régression à l'infini de systèmes de règles
ó ou de contextes ó dont on peut penser qu'aucun
algorithme ne puisse rendre compte.
Avec le livre de Terry Winnograd et
Fernando Flores (1986, 1989), la discussion s'est précisée.
Dans la foulée du développement des sciences cognitives
et de l'importance grandissante accordée à la représentation
et au traitement de la connaissance, c'est la notion de représentation
qui est désormais questionnée. Les auteurs ne rejettent
pas le point de vue rationaliste "pour la génération
de règles et le traitement d'opérations au moyen
de représentations symboliques" (Winnograd et Flores,
1989, p. 110) dans le cas d'applications particulières.
Le modèle scientifique permet de développer des
applications en réponse à des besoins, mais on ne
doit pas se faire d'illusion sur sa capacité d'expliquer
le sens. Ils contestent l'hypothèse, à la base
des théories de la cognition, selon laquelle les objets
du monde auraient des propriétés indépendantes
susceptibles d'être "représentées"
dans un quelconque formalisme, pour être l'objet d'un traitement
subséquent. La connaissance ne résulte pas d'opérations
formelles, chez l'individu, dans le but de saisir des propriétés
d'un monde objectif. Elle est sociale et provient de la participation
des individus à des modèles orientés d'opinions,
d'actions et de croyances. La cognition peut utiliser des représentations,
mais elle n'est pas fondée sur des représentations.
L'informatique actuelle, essentiellement fondée sur la
manipulation de symboles ó représentations ó,
ne saurait se substituer à l'intelligence.
Chez tous ces auteurs, il y a donc remise
en question des prétentions de l'IA. Aucun ne conteste
la pertinence ou l'utilité de la formalisation de certaines
tâches "intelligentes". Cependant, l'IA se voit
confisquer son projet global de simuler ou de reproduire des comportements
intelligents complexes. Doit-on, pour autant, se tourner exclusivement
vers une perspective d'ingénierie et abandonner le terrain
de la modélisation? En effet, certaines nouvelles perspectives
ne se dessinent-elles pas avec la venue du néo-connexionnisme,
du traitement parallèle massivement distribué et
de théories comme celle de l'énaction (Varela, 1988,1989)?
Évitant de succomber au sophisme du premier pas, il me
semble que l'avenir de l'IA se joue dans cette tension entre redéfinition
perpétuelle de nouveaux modèles et développement
d'outils et de techniques de plus en plus évolués.
Méconnaissance du social
ou absence du sociologue
La littérature en IA comporte très peu d'allusion
au social, si ce n'est à travers l'évocation de
contextes plus ou moins élargis ou, encore, de la métaphore
du globe terrestre. Cette métaphore permet de schématiser
le contexte global ó ou social ó sous la forme d'une
sphère dont on présume qu'elle évoque la
réalité du monde. La sociologie n'est que très
rarement mentionnée dans l'énumération des
disciplines impliquées en IA. Les auteurs cités
plus haut, tout en rappelant inlassablement la dimension sociale
de la connaissance, s'appuient avant tout sur une phénoménologie
du sens commun ou une théorie des actes de paroles. Varela
(1989), quant à lui, représente une exception quand
il élargit le cadre de référence à
Foucault dont les travaux ont eu beaucoup d'influence en sociologie.
Mais celle-ci, en tant que discipline vouée à la
théorisation et à l'analyse du social, est absente
du débat.
Il y a deux façons de concevoir
l'interaction entre l'IA et la sociologie, du dehors ou du dedans.
Le sociologue a privilégié la première,
c'est-à-dire l'étude des impacts ou des effets du
développement des nouvelles technologies informatiques,
principalement dans les situations de travail. Cette approche
est éminemment nécessaire, ne serait-ce que du fait
de l'idéologie à l'oeuvre derrière la redéfinition
des rapports sociaux induite par ces transformations. Une seconde
approche serait pourtant tout aussi nécessaire. Il s'agit
de la place que pourrait prendre la sociologie dans la réflexion
sur la nature du langage et de la connaissance, objets maintenant
privilégiés de l'IA. C'est en ce second sens que
je dis que le sociologue est absent.
Cette absence se manifeste particulièrement
dans le domaine de l'IA qui s'occupe du traitement informatique
des langues naturelles (TLN). L'intérêt du sociologue
pour le traitement des langues naturelles devrait découler
de la nature sociale du langage ó situation sociale de
la communication ou du discours, nature sociale du communiqué
ó. Mais avant de revenir sur la contribution potentielle
du sociologue, voyons d'abord comment le TLN s'est heurté
au problème de la complexité du langage. L'évolution
de ce domaine, à travers ses phases successives de développement,
prouve bien que le traitement informatique des langues naturelles
a dû reconnaÎtre progressivement la complexité
des aspects du langage. A chacune des étapes de développement,
on a reconnu les limites de couverture des modèles élaborés
et réévalué les difficultés liées
à la compréhension automatique de la langue. En
plus d'élargir la perspective au plan strictement linguistique,
on a introduit de nouveaux modèles de représentation
de la connaissance, tenté d'élargir la contextualisation
des phénomènes de discours en incorporant des données
extra-linguistiques et développé de nouvelles approches
en logique (logique naturelle, logique floue,...).
La question demeure de savoir comment
l'IA peut gérer la complexité croissante associée
à l'évolution des modèles de traitement de
la langue naturelle. Si l'on admet que toute démarche
scientifique est avant tout une manière de réduire
cette complexité afin de rendre possible la description,
la compréhension ou l'explication de certains aspects de
la réalité, il faut se demander s'il est alors
possible de recomposer cette complexité? La démarche
retenue en IA laisse croire que cette recomposition peut s'effectuer
par addition ou adjonction de ces divers niveaux aspectuels.
Par exemple, Sabah (1988) reprend les divisions de la linguistique
comme autant de niveaux ó morphologique, syntaxique, sémantique
et pragmatique ó permettant la compréhension de
la langue. Cette façon de voir implique, d'une part,
que chacun des niveaux a une certaine autonomie et, d'autre part,
que l'ensemble doit être, à un moment donné,
recomposé pour reproduire la complexité du langage.
Le postulat d'autonomie des niveaux entraÎne une stratégie
de recherche étapiste visant la résolution successive
des problèmes qui leur correspondent. Tout en reconnaissant
l'efficacité de cette approche dans l'accomplissement de
tâches spécifiques, la critique de l'IA la considère
comme globalement erronnée du point de vue d'une éventuelle
compréhension du sens par une machine. En effet, elle
ne peut permettre de résoudre le problème de la
recomposition de la complexité du sens.
Il est donc nécessaire de considérer
les représentations correspondant à ces divers niveaux
comme autant de constructions qui doivent être distinguées
de celle que l'on suppose être une représentation
"naturelle" que l'on voudrait simuler. Aucune théorie
globale de cette représentation naturelle n'est présentement
disponible et aucun formalisme ne peut, à terme prévisible,
en rendre compte, si toutefois elle existe comme système
de traitement symbolique. Il nous faut donc tirer la conséquence
qui s'impose, soit de concevoir l'informatique comme plateforme
de modélisation partielle et de développement d'outils
spécialisés pour la manipulation d'objets construits.
C'est dans ce contexte global que le
sociologue doit s'interroger sur sa contribution potentielle à
l'IA. Deux questions se posent alors à lui. Du côté
de la modélisation, la sociologie peut-elle fournir un
cadre formel permettant de programmer les aspects sociaux de la
connaissance et du langage susceptible de s'ajouter aux autres
niveaux de description ou de représentation? Dans une
perspective davantage orientée vers les outils, la sociologie
peut-elle proposer des règles de représentation,
d'inférence et d'interprétation pour tirer profit
dès maintenant de certaines technologies informatiques?
C'est dans cette seconde perspective
que J.C. Gardin (1987) conçoit l'usage de la technologie
informatique dans les sciences humaines. Se situant dans une
perspective rationaliste, Gardin vise à disposer d'outils
mettant à la fois à l'épreuve des représentations
construites par les diverses disciplines des sciences humaines
et permettant d'accroÎtre le potentiel de description et
d'explication de celles-ci. Il se situe dans le cadre restreint
des systèmes experts dont il veut exploiter les ressources
pour "parvenir à une meilleure maÎtrise des
raisonnements de sciences humaines, avec ou sans l'IA" (Gardin,
1988. page 250).
La réflexion de Gardin sur l'application
de la technologie des systèmes experts au raisonnement
archéologique nous permet peut-être de comprendre
pourquoi la sociologie est absente du développement en
IA. Certes, elle peut offrir un cadre général pour
comprendre les aspects sociaux de la connaissance ó sous
la figure des idéologies, de la culture ou des savoirs
ó, mais elle ne dispose pas de ces représentations
formellement construites qui puissent être traduites en
symboles et traitées par des règles de production.
Contrairement aux disciplines linguistique, psychologique et
même archéologique, la sociolgogie ne dispose pas
d'un symbolisme de représentation standardisé des
objets qu'elle construit. Elle est, de plus, souvent silencieuse
sur les règles de son raisonnement : comment établit-elle
des inférences, comment procède-t-elle à
l'interprétation? Cela explique peut-être sa timidité
devant le discours envahissant de l'IA. A sa défense la
sociologie peut répondre qu'elle est d'emblée dans
la complexité et qu'il lui est par définition difficile
de segmenter le social en autant de niveaux qui se prêteraient
plus aisément à des représentations formelles.
Si pour cette raison, la sociologie ne peut répondre,
partiellement ou entièrement, aux exigences de formalisation
de l'IA, elle devrait, tout de même, réfléchir
sur la valeur heuristique du recours à la technologie informatique.
Cette dernière n'oblige-t-elle pas le sociologue à
mieux définir les objets qu'il construit et les relations
qu'il suppose entre eux?
C'est donc du point de vue du sociologue
qu'il m'intéresse d'appliquer la technologie informatique
à l'analyse du discours en tant qu'il prend la forme de
textes. Poser le discours comme objet d'analyse est déjà
interpeller l'intelligence artificielle, en rappelant qu'au-delà
de la langue comme système de codes, de la cognition comme
activité de production et d'acquisition de connaissances,
le discours déploie ses propres règles, non seulement
au niveau des actes de paroles dans des situations de communication
restreintes, mais dans la profondeur du social et de l'histoire.
Cette interpellation est un rappel constant à la modestie
qui devrait prévaloir dans le projet de simuler des processus
de compréhension du sens.
Système d'analyse de contenu
assistée par ordinateur Je
présenterai dans les lignes qui suivent les principales
caractéristiques d'un système voué à
l'analyse de textes par ordinateur. Cette initiative, sans se
situer de plain pied dans la recherche en IA, contribue au développement
du domaine du TLN. Le projet d'Analyse de contenu assistée
par ordinateur (SACAO) vise l'intégration systématique
de procédures, existantes ou à développer,
de lecture assistée de données textuelles. Il offre
à des utilisateurs, dans un environnement logiciel relativement
intégré et convivial, le soin de paramétrer
ces procédures en fonction de leurs propres hypothèses
de lecture. Ces procédures ne comportent qu'un minimum
de préconstruction théorique et facilitent un maximum
d'itérativité entre leur application et l'analyse
du texte. Cet environnement répond ainsi aux besoins différents
de diverses catégories d'usagers confrontés aux
problèmes d'analyse de données textuelles.
Ce projet subventionné a vu le
jour dans le cadre de travaux de recherche et de développement
d'environnements logiciels au Centre d'Analyse de Textes par Ordinateur.
Il a été développé par une équipe
de chercheurs dont la formation disciplinaire et les domaines
de spécialisation sont hétérogènes,
mais dont les intérêts convergeaient vers l'analyse
de données textuelles. Le but principal était
de développer des outils fonctionnels pouvant assister,
dans leurs analyses de données textuelles, les chercheurs
en sciences humaines possédant chacun des objectifs particuliers.
La stratégie retenue fut donc critique, empirique et orientée
vers la réalisation technologique d'une approche méthodologique.
L'aspect critique de la démarche s'est manifesté
d'une double manière : nous avons renoncé aux systèmes
clé-en-main et nous avons privilégié l'examen
critique des procédures de traitement déjà
disponibles. Nous avons donc mis davantage l'accent sur une approche
méthodologique réfléchie, mettant en oeuvre
des outils technologiques dans une démarche d'analyse qui
associait le lecteur. Refusant donc une stratégie unique
pour l'analyse, nous avons orienté notre travail vers l'optimisation
des conditions pour une application des outils dans le cadre d'une
démarche d'analyse globale.
L'approche s'intéresse donc au
développement d'outils ou d'applications qui permettent
d'ores et déjà d'accroÎtre la capacité
de lecture de plusieurs manières : accès rapide
et systématique au contenu de grands ensembles textuels,
rigueur et régularité de la lecture, production
d'informations nouvelles par rapport aux formes traditionnelles
de la lecture, introduction de la mesure et de procédures
de validation, etc. Cela ne veut pas dire que toute recherche
fondamentale est pour autant mise à l'écart. Ce
qui est rejeté, c'est l'hypothèse forte de l'IA
selon laquelle les systèmes intelligents devraient avoir
une autonomie décisionnelle complète et donc proposer
des applications automatiques. Comme je l'ai dit plus haut, cette
prétention de l'IA s'est beaucoup atténuée
dans les faitsó par exemple, en réduisant le contexte
à des micro-mondes ó, mais elle en demeure un objectif
consubstantiel. Pour SACAO, l'automatisation n'est recherchée
que sur une base pragmatique et ne constitue pas une condition
première. Le projet met de l'avant une approche hybride,
alliant procédures automatiques et assistées, et
substitue l'idée d'intégration maximale des outils
à l'objectif de complétude et d'automatisme des
systèmes.
J'ai parlé de l'itérativité
entre l'application de procédures et l'analyse de texte.
Cette philosophie s'appuie sur des considérations épistémologiques,
quant à la connaissance des objets langagiers, et entraÎne
une conséquence au niveau de l'ergonomie du système.
SACAO conçoit la connaissance des phénomènes
langagiers comme le produit d'un processus non-univoque de construction
des objets. Cela implique d'abord la coexistence de plusieurs
procès de construction complémentaires (multiplication
des niveaux d'analyse) et potentiellement contradictoires (coexistence
d'approches non exclusivement compatibles), ensuite la nécessité
d'une démarche d'aller-retour entre la constitution des
modèles et leur validation empirique. Cette démarche
favorise la méthode inductive. Evitant la projection de
modèles théoriques préconstruits sur le réel,
nous favorisons, au contraire, l'ajout de descriptions successives
du texte en alternance avec l'exploration de résultats
provisoires. Enfin, la démarche impose le développement
d'une ergonomie interactive du système. L'utilisateur
doit être en plein contrôle du déroulement
des procédures et pouvoir les modifier en fonction des
hypothèses de description provenant de son modèle
ou surgissant au fil de l'analyse. Cela nous éloigne évidemment
de l'automaticité. Si, par contre, des procédures
automatiques sont également appliquées, les instructions
qu'elles produisent comme les résultats qu'elles génèrent
doivent être transparents et leur mise en oeuvre être
sous contrôle du chercheur.
SACAO retient une perspective générale
d'analyse. Sans renoncer à la description linguistique,
il ne lui accorde pas de priorité. Comme je l'ai rappelé
plus haut, la définition de niveaux étagés
de la réalité linguistique implique une démarche
plus ou moins étapiste qui donnerait successivement priorité
à la résolution des problèmes liés
à chacun de ces niveaux. SACAO considère les divers
niveaux de description comme la résultante d'un découpage
et d'une construction différentiels de cet objet, et non
comme les étapes ordonnées d'un parcours obligé
qui mènerait de la description lexico-syntaxique, en passant
par la description sémantique et pragmatique, à
la compréhension globale de la langue naturelle. Nous
avons plutôt retenu une approche privilégiant la
morphologie du discours. Les descriptions linguistiques du texte
serviront de support à l'analyse d'un système sémiotique,
par ailleurs, beaucoup plus complexe. Nous faisons l'hypothèse
que le texte est un espace diversement structuré, qui se
déploie selon un procesus de séquentialisations
multiples (structures narrative, argumentative, thématique,...)
et dans lequel des objets se schématisent pour former des
noyaux de sens. Nous voulons donc repérer les modes de
segmentation qui caractérisent l'organisation d'un texte
et les condensations de sens qui se produisent en certains lieux
privilégiés.
Nous avons divisé SACAO en quatre
modules qui correspondent peu ou prou aux diverses opérations
qui sont produites sur les données textuelles dans le cadre
de leur manipulation informatique. Le premier concerne la gestion
des données. Essentiellement, il s'agit d'assurer, d'une
part, la conservation et l'accessibilité à des banques
de données textuelles et de fournir, d'autre part, des
utilitaires pour leur exploitation. La technologie hypertexte
sera d'un grand secours dans ce domaine et le projet SACAO tirera
profit de ces développements.
Le second module renvoie aux différentes
descriptions de textes qui produisent les données d'analyse.
Toute investigation suppose une intervention technique sur les
unités à analyser. La notion de "donnée"
implique nécessairement un processus de construction des
unités d'analyse et, par là même, une intervention
de re-structuration qui transforme les unités d'information
en données d'analyse. Le module de description fournit
l'occasion de procéder à la structuration initiale
des données. Trois niveaux de description sont prévus
: les niveaux lexical, morphologique et syntagmatique. Ces niveaux
sont autonomes, mais peuvent être conjugués de manière
différente en regard des besoins spécifiques d'une
problématique de recherche ou d'analyse. Dans le premier
cas, il s'agit de structurer le vocabulaire d'un texte à
partir de dictionnaires ou de thésaurus. Des catégories
peuvent ainsi être accolées à des mots en
fonction de divers systèmes de description. Au lexique
des mots, il est possible d'ajouter celui des expressions complexes
(locutions prépositionnelles, adverbiales, usuelles, propres
à un locuteur ou à une famille de locuteurs, techniques,
institutionnelles, onomastiques, etc). Au niveau morphologique,
le module recourt à LCMF ou à BDL afin d'identifier
les dimensions grammaticales (morphèmes lexicaux et grammaticaux).
Au niveau syntagmatique, il est possible de faire usage d'analyseurs
syntaxiques du français. ALSF construit les structures
syntagmatiques projetées par les catégories majeures
du français : les noms, les verbes, les adjectifs et les
prépositions. Il construit les relations qu'entretiennent,
entre elles, ces catégories dans des unités séquentielles.
Un module d'ALSF, servant à construire le groupe nominal,
permet l'analyse préalable à l'identification des
synapsies (expressions complexes) par Termino. Également,
dans le cadre d'une approche de grammaire fonctionnelle, des algorithmes
permettent une description raffinée des structures thématique
et de la détermination présentes dans un texte (Duchastel,
Paquin et Beauchemin, 1991 a et b). Dans le premier cas, le système
identifie le thème de chaque proposition (Halliday, 1985),
détermine le caractère marqué ou non de ces
thèmes et les hiérarchise en fonction de leur situation
dans la structure propositonnelle des phrases. Dans le second
cas, l'algorithme distingue les relations de détermination
contiguës et par expansion permet d'associer, au niveau de
l'exploration, des structures de détermination différentes
en fonction des classes sémantiques d'appartenance des
éléments déterminés.
Le module d'exploration permet un travail
complémentaire à celui effectué par les unités
de traitement du module de description. En effet, les données
construites doivent pouvoir être manipulées à
partir d'opérations de sélection, de regroupement
et de classification. Ce module s'appuie largement sur les fonctionnalités
du logiciel SATO. Pour les unités structurées linéairement
(séquences lexicales), celui-ci permet d'obtenir : des
lexiques fréquentiels d'occurrences ou de cooccurrences,
des concordances basées sur la recherche de mots-clés
ou sur des étiquettes symboliques ou numériques
associées à ces mots. Il est possible de déterminer
la forme et le nombre des chaÎnes de caractères comme
paramètres d'extraction. L'ensemble de ces manipulations
peut être obtenu sur des sous-ensembles des textes, partitionnés
selon divers principes établis par les chercheur. Cette
partition des textes peut répondre aux exigences des traitements
statistiques (échantillonnage) ou à la volonté
de tester des hypothèses sur une portion d'un texte (principe
de la maquette). Elle sert également à la comparaison
systématique d'ensembles construits à partir d'un
ou de plusieurs critères. Enfin, dans le cas des unités
structurées à partir d'une description arborescente
quelconque, des patrons de fouilles, correspondant aux besoins
du chercheur, sont développés ad hoc.
Le dernier module regroupe les diverses
analyses produites sur les données extraites. Il faut
souligner que le concept d'analyse retenu ici n'épuise
pas les possibilités de cette activité. Ainsi,
certaines opérations classées dans le module description
sont, sans contredit, des activités d'analyse. Ainsi,
l'analyse syntaxique produite par un parser est bien de l'analyse
et représente, pour le linguiste, un point d'aboutissement.
Du point de vue que nous adoptons, celui de l'analyse de texte,
elle correspond à une phase préliminaire de structuration
des données. Ce qui nous intéresse, c'est l'analyse
de certaines caractéristiques linguistiques identifiées
dans ce processus de description préalable. Les analyses
produites par ce module portent donc essentiellement sur des lexiques,
plus ou moins qualifiés par les descriptions mentionnées
plus haut, de mots ou de catégories. Ces données
se présentant sous forme de matrice, il est loisible de
recourir à tout système d'analyse statistique disponible
(SPSS, SAS, LOTUS, SPAD_N). SATO permet l'interface entre ces
divers systèmes. Par ailleurs, il offre quelques analyses
statistiques standards (moyenne, écart-type, variance,
fréquence minimum et maximum, score z et distribution procentuelle
des classes de fréquences et d'occurrences). Il offre
également une mesure de distance inter-textuelle permettant
d'identifier les éléments contribuant davantage
à la distance entre deux textes. Je mentionnerai, en terminant,
les nouvelles possibilités offertes par la technologie
des systèmes experts, tel qu'elle est implantée
dans ACTE. Il est possible de modéliser le processus de
la lecture experte, selon le genre de lecteur, et programmer dans
cet environnement des règles d'inférence et d'interprétation.
En conclusion, il est possible d'affirmer
que le projet SACAO permet au sociologue, comme aux autres chercheurs
en sciences humaines, de poser ses propres exigences dans les
stratégies d'analyse de la connaissance et des phénomènes
langagiers. La primauté donnée au contrôle
des diverses étapes du traitement des données textuelles,
facilitée par un environnement qui donne priorité
à l'interaction avec le chercheur, assure que le point
de vue de la sociologie ó ou de disciplines soeurs ó
ne soit pas subordonné à celui du linguiste ou du
cogniticien. C'est avec une attitude de prudence que le sociologue
peut alors s'associer, du dedans, à l'expérience
de la simulation partielle d'opérations intelligentes.
Bourque, G., Duchastel, J., "Restons traditionnels et progressifs". Pour une nouvelle analyse du discours politique, le cas du régime Duplessis au Québec, Montréal, Boréal, 1988, 399 pages. Coulon, D., Kayser, D., "Informatique et langage naturel : Présentation générale des méthodes d'interprétation des textes écrits", in Techniqueset Science informatiques, Vol. 5., no 2, 1986, pp. 103-129 Duchastel, J., Dupuy, L., Daoust, F., "Système d'analyse de contenu assistée par ordinateur (SACAO)" in La description des langues naturelles en vue d'applications linguistiques, Recherche en linguistique appliquée à l'informatique, Centre international de recherche sur le bilinguisme, Université Laval, Québec, 1989, pp. 197-210. Duchastel, J., Paquin, L.C., Beauchemin, J., "Automated Syntactic Text Description Enhancement : Thematic Structure Analysis".in Computers and the Humanities, no. 26.1, 1991. Duchastel, J., Paquin, L.C., Beauchemin, "Automated Syntactic Text Description Enhancement : Determination Analysis",.in The New Medium, Research in Humanities Computing, Oxford University Press, sous presse. Dreyfus, H.L., Intelligence artificielle, mythes et limites, Paris, Flammarion, 1984, 443 pages. Version originale, deuxième édition, 1979. Gardin, J.C. et al., Systèmes experts et sciences de l'homme, Paris, éditions Eyrolles, 1987, 269 pages. Halliday, M.A.K., An Introduction to Functional Grammar, London, Edward Arnold, l985, 1986, 1987, 387 pages. Sabah, G., L'intelligence artificielle et le langage, représentations des connaissances, Paris, Hermès, 1988, Vol. I, 352 pages. Varela. F.J., ConnaÎtre, les sciences cognitives, tendances et perspectives, Paris, Seuil, 1989, 126 pages. Weizenbaum, J., Puissance de l'ordinateur et raison de l'homme, du jugement au calcul, Paris, Éditions de l'informatique, 1981, 195 pages. Édition originale, 1976.
Winnograd, T., Flores, F., L'intelligence
artificielle en question, Paris, PUF, 1989, 295 pages. Édition
originale, 1986. |