EXERGUE
Depuis 2005
Enquête - Septembre 2010

Un cas de plagiat universitaire analysé

Au début de l'été 2010, j'ai rencontré Jean-Noël Darde, maître de conférences à l'Université Paris VIII, qui s'intéresse particulièrement à la question du plagiat dans l'université et tient un site sur la question, "Archéologie du copier coller". Il était venu acheter le livre Philosophie contre intelligence artificielle, dont je suis l'auteur aux éditions Lingua Franca. C'est ainsi que j'ai appris que j'avais été plagié dans une thèse de l'université Paris VIII. Les emprunts portent sur environ 17 000 caractères, soit un peu plus de onze feuillets standard répartis sur vingt-sept pages de mon premier chapitre. J'ai pensé qu'il serait utile de présenter ce cas en mettant en regard la copie et le texte original (avec son contexte).

Les emprunts et les citations sont possibles, spécialement dans un travail universitaire. Mais il est absolument contraire à l'usage (et à la charte des thèses) de ne pas les signaler. On peut considérer que je n'apparais pas parce que je ne suis pas un auteur connu. Ce qui est une pratique universitaire déjà peu élégante. Mais vu la quantité d'emprunts, le préjudice est certain, puisque cela valide l'importance de mon travail et que la notoriété est précisément issue des références qui servent à évaluer les auteurs (et les pays sur le plan international). Un lecteur de la thèse (dont au premier chef les membres du jury) ne peut pas se reporter à l'original si ce point de vue les intéresse. Les lecteurs éventuels pourraient le citer à leur tour et se procurer le livre, m'inviter à une présentation, comme ce fut parfois le cas : à un « Bar des sciences » à Montpellier ; sur France Culture, en janvier 2002, à l'ancienne émission « Net plus ultra » de Jean-Philippe Renoult, avec Jacques Pitrat ; ou justement, invité dans un département voisin de la même Université Paris VIII par le professeur Jean-François Degrémont, directeur du LEMA (Laboratoire d'ethnométhodologie appliquée).

S'attribuer la paternité d'aussi larges extraits est bien une contrefaçon. On peut évidemment emprunter des idées, mais pas reproduire textuellement une aussi grande quantité, surtout sans en mentionner l'auteur. Les anomalies dans l'absence de citation des sources sont aisément repérables par les membres d'un jury, puisque certaines citations ne sont pas référencées. Cette absence de vigilance est peut-être un effet de la lecture rapide, pour ne pas dire plus. Le fait que des auteurs cités dans les extraits plagiés n'apparaissent pas dans la bibliographie est une preuve qu'ils sont inclus dans un autre ouvrage, qu'il faudrait précisément citer.

Avec ce copier-coller, l'auteur de la thèse plagiée s'est épargné le travail de paraphrase. Mais ici, le collage s'apparente aussi au détournement. Dans les commentaires de chaque page, j'ai signalé que le doctorant indélicat a systématiquement supprimé toute la partie critique, en amalgamant le pour et le contre. Évidemment, s'il m'avait cité, il aurait été obligé de signaler, par exemple : « Dreyfus dit ceci, mais Bolo le conteste en disant cela ». Cela lui aurait évité l'incohérence de justifier une opinion avec des arguments qui la critiquent, comme on peut le constater à propos de l'« étiquetage » sur la première page (outre qu'il s'agissait d'un exemple spécifique généralisé confusément pour rétablir l'opinion initiale que je critique).

Ce genre d'opération de détournement est préjudiciable dans une perspective scientifique dans la mesure où cela tend à considérer qu'on peut justifier une chose et son contraire avec les mêmes énoncés. C'est le travail de cohérence qui me semble être la mission de l'université. C'est aussi cet état de confusion que je critiquais dans l'argumentation des adversaires de l'intelligence artificielle.

Passons maintenant à la comparaison pratique :

CONVENTIONS :

Le cadre orange commente chaque page de la thèse, qui est mise en regard des pages originales du livre. Le numéro de page (de la thèse ou du livre) est indiqué entre crochets.

J'ai utilisé les marqueurs jaune et vert pour indiquer les emprunts. L'alternance des deux couleurs permet simplement de faciliter la lecture et de distinguer éventuellement les inversions ou les insertions.

Le marqueur rouge signale les problèmes particuliers.

UNIVERSITE PARIS 8 VINCENNES-SAINT DENIS U.F.R 6

THESE

Pour obtenir le grade de : DOCTEUR

Discipline : Sciences de l'Information et de la Communication

Option : Création et Communication Multimédia

Présentée et soutenue publiquement

Par Joseph TIENTCHEU

Octobre 2003

Titre

COUPLAGE FONCTIONNEL HOMME-MACHINE :
DES COMMUNICATIONS INTERACTIVES ET DE LA GENERATION DES FAITS D'EMOTION

Directeur de thèse : M. Patrick CURRAN

Jacques BOLO


PHILOSOPHIE CONTRE INTELLIGENCE ARTIFICIELLE


Novembre 1996, 376 p.



ed. Lingua Franca, Paris


ISBN : 9782912059000

Dans la page suivante, à part une réorganisation (cavalière, quant au philosophe "contemplatif"), le texte de la thèse reproduit celui de mon livre. La citation n'est pas référencée (autrement que par la licence précédente).

Mais la thèse prend le contrepied sur la partie en rouge. L'aspect critique de la position du philosophe disparaît sans modification de la conséquence. Ce qui enlève forcément de la cohérence au propos (surtout quand on connaît le texte original).








[112]

L'EXISTANT

Puisqu'il est difficile d'atteindre l'absolu, il nous revient d'épouser une sagesse « incomplète ». Nous n'embrassons point le monde dans sa totalité, mais plutôt les moments du monde dans lesquels existe une certaine homéostasie, qui en fait des temps morcelés. Ainsi donc, la sphère de la conscience se rétrécit dans l'action. Agir c'est se cramponner aux propriétés de l'être au détriment de l'être, à une certaine forme de réalité (multimodale et non univoque) au préjudice de la réalité elle-même.

Le degré de notre affranchissement se mesure à l'aune du nombre d'entreprises dont nous nous serons émancipés, comme à notre capacité de convertir tout objet en non objet ou l'inverse. Virtualisation ou réification, réalité virtuelle ou augmentée, qu'importe, le tout c'est que l'on puisse distinguer un dehors et un dedans, pour ne pas basculer dans la confusion.

Mais sert-il à quelque chose de parler d'action ou d'affranchissement à propos d'une humanité pressée qui a oublié que l'on ne s'aurait reconquérir la vie, ni en jouir sans l'avoir auparavant abolie. Construction et déconstruction sont les maîtres mots de notre action.

Un philosophe que nous qualifions de contemplatif disait un jour que :

« Les êtres humains sont ainsi situés que tout ce qu'il leur faut pour se débrouiller avec les choses est réparti autour d'eux, là où ils en ont besoin, et non pas entassé comme dans une malle, ni même aligné sur des rayons soigneusement étiquetés. ».

Le monde pour lui était un endroit merveilleux, hors de la nécessité de la fabrication technique des choses qui l'entoure.Il se contente de constater le résultat de cette organisation.

Mais le monde réel est au contraire n'est organisé que grâce à l'Homme et aux machines. De plus, les choses n'y sont pas aussi soigneusement rangées , elles existent là devant nous selon un principe écosystémique, et pas toujours évident.

Car s'il est bien évident que l'individu vivant se trouve en principe obligatoirement dans un milieu qui permet sa survie, il doit créer les moyens de cette survie par conjonction et disjonction de quelques principes qui s'y trouvent et même en essayant d'y inclure celles qui ne s'y trouvent pas, cette situation est

[...29]

Organicisme et principe du supermarché

On comprend donc bien ce que veut dire le holisme, que le tout est différent de la somme des parties. Mais le problème est – depuis toujours – comment appliquer un slogan aussi général à une situation réelle. En quoi apporte-t-il autre chose qu'un simple signe de reconnaissance entre fidèles ? Un exemple concret montre les limites d'un concept global, spécialement dans le contexte des sciences humaines :

« L'évolution de la population globale n'apprend quasiment rien sur la population locale : par exemple, au cours des trente dernières années, tandis que la population totale de la France augmente de 20 %, cette croissance a dépassé les 100 % dans plus de

[30]

mille communes, […] et dans plus de 10.000 communes, elle diminue en moyenne d'un quart. » (Hervé Le Bras, « Comment évolue le peuplement en France ? Les filaments urbains ? », Propos recueillis par Guitta Pessis-Pasternak, Libération, mercredi 14 avril 1993, p. 34).

Le recours à la référence au Tout n'est ainsi pas supérieure à cette somme des parties-ci, contrairement à ce qu'on entendait dans les années soixante. Il s'agit même, dans notre exemple, d'une perte d'information. On peut confirmer encore l'hypothèse que cette idée holiste est un amortissement de l'investissement que certains avaient fait dans le marxisme. Il se trouve d'ailleurs que ce terme holisme remplace aussi purement et simplement celui de totalitaire, qui a évidemment été discrédité par le stalinisme. Ceci constitue un faisceau de preuves convergentes pour signaler l'origine de l'influence lexicale hégélienne. Et la régression phénoménologique reste idéaliste ou pré-marxiste, car comme dirait le maître, le philosophe vit dans un monde merveilleux, hors de la nécessité de la fabrication technique et de la distribution commerciale des choses qui l'entoure. Il se contente de constater le résultat de cette organisation :

« Les êtres humains sont ainsi situés que tout ce qu'il leur faut pour se débrouiller avec les choses est réparti autour d'eux, là où ils en ont besoin, et non pas entassé comme dans une malle, ni même aligné sur des rayons soigneusement étiquetés. » (Dreyfus, p. 335).

Le monde réel est au contraire organisé (grâce à des ordinateurs). Et les choses sont étiquetées sur les rayons des supermarchés – heureusement pour nous . On pourrait appeler cette situation le principe écosystémique, ou principe du supermarché. Car s'il est bien évident que l'individu vivant se trouve en principe obligatoirement dans un milieu qui permet sa survie, cette situation est

Dans la page suivante, la référence à Heidegger et à la citation de Winograd & Flores disparaissent, ainsi que l'aspect critique (la référence aux marxistes et le terme "bizarre").

[113]

le résultat d'une élaboration analytique dans une société moderne.

Concernant la conception d'outils de communication, la situation idéale qui permettait d'imaginer que l'absence effective de prise en compte d'un grand nombre de contraintes matérielles que beaucoup ont admis à une certaine époque constituait une sorte d'univers imaginaire.







Cette idée de mise à disposition s'accompagnait de l'idée du refus de représentation, qui semblait réduire la condition humaine à la condition animale ou à ce que l'on appelle vaguement notre « instinct » qui nous permet de maîtriser tout ce qui vous arrive.

Le but de l'opération est simplement d'exclure la raison, et ses manifestations traditionnelles. Le prétexte semble être une praxis qui permet une reconversion chez certains.

Mais pourquoi ne pas admettre que l'action (constructionelle ou déconstrucion) elle-même est une distinction. Ce qui peut signifier que la représentation permet l'action, ou l'accompagne, un exemple édifiant, en enfonçant un clou avec un marteau, je n'ai pas besoin d'avoir une représentation explicite du marteau, mais il vaudrait mieux que j'ai une représentation explicite de la distinction entre mes doigts et le clou.

Cette disponibilité écosystémique du monde doit aussi être reconsidérée comme un domaine à construire afin d'arriver à un nouveau système.

C'est de cette manière que nous abordons certaines oppositions désignées ici sous le terme de bipolarité sémantique, du style naturel/artificiel ou présentiel/à distance.

Ces opposition qui rendent nos systèmes de représentation et de communication féconds. Voir d'ensemble et voir autrement nécessite de tirer des liens, de construire des relations entre les deux extrêmes. L'effet inverse nous apprend généralement plus sur nous-même que la simple observation de ce que nous sommes.

Il y'a bien longtemps que les électroniciens ont mis en ceuvre ces oppositions à travers les effets « miroirs » servant à leur calculs au niveau des fréquences et qui une fois terminées sont éliminées au moyen des filtres fonctionnels.

[30 suite]

le résultat d'une élaboration analytique dans une société moderne.

On peut aussi imaginer que cette absence effective de prise en compte d'un grand nombre de contraintes matérielles que d'autres assument à sa place constitue l'univers imaginaire de la femme idéale des romans du XIXe siècle. Ces situations pouvaient être considérées comme réelles, quoique limitées à l'élite. Mais on espère que ces fantasmes disparaîtront aussi de la littérature grâce à l'égalité des femmes par le travail (femmes qui subissent encore une crise

[31]

d'identité résiduelle sur ces questions). Pour prendre date, notons que cela correspond à un monde d'une Scarlett O'Hara entourée d'esclaves, qui pourraient aller au supermarché à sa place.

Cette idée heideggérienne de mise à disposition s'accompagne de l'idée bizarre du refus de représentation, qui semble réduire la condition humaine à la condition animale où : « ce que l'on appelle vaguement votre « instinct » qui vous permet de maîtriser tout ce qui vous arrive. » (Winograd & Flores, p. 68). Le but de l'opération est simplement d'exclure la raison, et ses manifestations traditionnelles en philosophie. Le prétexte semble être une praxis qui permet encore la reconversion des marxistes. Mais pourquoi ne pas admettre que l'action elle-même est une distinction. Ce qui peut signifier que la représentation permet l'action, ou l'accompagne. D'ailleurs, si : « en enfonçant un clou avec un marteau […] je n'ai pas besoin d'avoir une représentation explicite du marteau » (idem, p. 65), il vaut mieux avoir une représentation explicite de la distinction entre ses doigts et le clou.

Cette disponibilité écosystémique du monde « à portée de main », qui est évidemment technique dans nos sociétés modernes doit aussi être considérée comme une élaboration, même dans les sociétés plus anciennes. D'une façon plus générale, cette condition est le lot anthropologique, et le fondement de l'opposition nature/culture. Cela devrait être évident pour qui est imbu de monde humain. Mais la tradition romantique du holisme est contradictoirement une survalorisation de l'idée de nature. En sciences sociales, le traitement de ces questions correspond plutôt au fonctionnalisme, solution déjà produite par les anthropologues (la connaissance aussi est a portée de main) :

« Les problèmes sont dus au fait que le corps humain est l'esclave de divers besoins organiques et qu'il vit dans un milieu qui est à la fois son meilleur allié, puisqu'il fournit les matières premières de son travail manuel, et son pire ennemi, puisqu'il fourmille de forces hostiles. » (Bronislaw Malinowski, Une théorie scientifique de la culture, p. 36).

Dans la page suivante, le titre du paragraphe est conservé. La thèse fait quelques emprunts éparts (qui auraient pu être dans la norme pour une paraphrase), mais son auteur élimine encore l'aspect critique de la thèse de Kant par Cassirer. Ce qui annule l'opposition de la philosophie et de l'intelligence artificielle.

[114]

LES MICRO-MONDES

Si nous tenons compte des fonctionnalités opposées dans certains domaines, l'hypothèse de l'infini scientifique rentre en ligne de compte et les frontières de la clôture épistémologique sont élargies dans les micro-mondes ou l'ensemble de nos mondes virtuels ou réels.

Cette notion nous semble avoir justement constitué les travaux des chercheurs en intelligence artificielle. Ils peuvent résoudre de cette manière les difficultés de la définition en extension parce que l'étendue en fait est analytique. On peut alors définir une chose et faire de la prospective sur son contraire, ainsi une chaise est ce sur quoi on s'assied et grâce aux propriétés d'héritage de la Programmation Orientée Objet, elle peut être aussi ce qui ne tombe pas sous le sens, mais autre chose pouvant ou non être réifiée et venant enrichir notre réflexion.

Ce problème ontologique est surtout fait de questionnements, et nos préoccupations dans ce domaine rejoignent celles de bien des auteurs :

Comment s'opère la classification ordinaire entre entités artificielles et naturelles ?

Comment se fait la distinction artefacts/espèces naturelles au niveau de la perception et de la cognition individuelle ?

Quels sont les critères de différenciation entre le « véritable » et l'imitation ?

Il s'agit selon Michel LUSSAULT d'une nouvelle « hiérarchie ou un positionnement variable des entités. Une solution serait d'affirmer le caractère culturel et relatif de ces ontologies. On peut réexaminer l'idée de « schème conceptuel » souvent associé au relativisme : la nature est- elle construite, et par quoi (langage ? catégories de pensée ? interactions sociales ? perception ? action ?). »

M. LUSSAULT (qui partage le même point de vue que Patrick Curran et l'équipe participante aux travaux de prospectives à l'Université Paris 8 et à la Maison des Sciences de l'Homme) est intéressé par cette problématique de l'opposition de certains thèmes et voici ce qu'il en pense :

[...34]

Micro-mondes

L'infini philosophique est tout simplement mis en échec par cette clôture épistémologique dans les micro-mondes. Cette notion a justement été constituée par les chercheurs en intelligence artificielle à l'occasion de la confrontation à ce problème. Le problème de la philosophie est celui des difficultés de la définition en extension. L'exemple vient de très haut : l'obscure opposition kantienne entre les concepts analytiques et synthétiques recouvre en fait ce problème. Cassirer a essayé d'expliquer pourquoi l'étendue était analytique et le poids synthétique, il en a conclu que l'étendue était analytique parce qu'elle faisait partie des définitions classiques de la scolastique (cf. Umberto Eco, La quête de la langue parfaite, Conférences au Collège de France, 1992-1993, passage non retranscrit dans l'ouvrage publié) : le « long sommeil dogmatique », dont Kant a avoué avoir été victime, lui a laissé des séquelles narcoleptiques. Avec l'intelligence artificielle, ce problème se résout simplement par une définition en compréhension (« une chaise est ce sur quoi on s'assied »). Cela ne pose pas de difficultés théoriques insurmontables, puisqu'il s'agit, très classiquement, d'expliciter des propriétés ou une différence spécifique.

Dans la page suivante, la thèse élimine encore les éléments critiques ("pourtant phénoménologique" & aux marxistes)








[164]

On assiste ainsi à une négation de tout programme spécifique qui semble bien en contradiction avec le principe de localité. :

La résolution informatique nous révèle que chacun de ces programmes est une solution particulière adaptée à un problème spécifique, mais pas toujours généralisable. Le postulat est mal adapté aux problèmes complexes fait d'incessants allers et retours dans les différents domaines de découpage de l'espace de notre problème.

Ce principe de localité dans diverses sciences spécifie pourtant que, même si on perçoit des totalités, on ne vit pas dans le grand tout. Il semblerait bien que cette conception du tout est dans tout, dérive d'une certaine idée du principe de la régression qui veut que les parties du monde obtenues par découpage, contiennent chacune toute la vérité constituant la totalité du monde. Le Tout et la Partie Ce principe constitue pour nous un parti-pris qui intervient de plus en plus dans un semblant de systémie.














Une certaine façon de voir les choses est de privilégier une option du traitement de la Partie et du Tout, et qui consiste à dire que c'est le Tout qui donne sens aux Parties. Mais le fait qu'un élément prenne sens par l'ensemble ne signifie pas que l'ensemble ne prenne pas sens par les éléments.

Ce principe rentre en contradiction avec celui qui prend en compte les multiples spécularités de notre découpage où chaque élément d'une théorie dépend de « la vérité de la théorie tout entière »

Avec ce système, aucun concept ne pourrait être défini, mais toute la théorie le pourrait. Ce qui signifierait : soit que la théorie globale peut être elle-même complètement isolée, ce qui relativise sa globalité; soit que faisant partie d'une théorie plus vaste, elle ne peut pas être établie à son tour par absence de globalité.





Les relations

Cette dépendance de l'élément envers le tout peut être précisée par le mécanisme des relations. Les éléments dépendent de leurs relations au tout, comme dans le cas du rythme cardiaque: « On n'a jamais entendu parler d'un unique battement syncopé, par exemple. »

[...22]

d) La partie et le Tout

Le postulat holiste (« Le tout est supérieur à la somme des parties ») relève aussi du poncif. Il a d'ailleurs permis chez les

[23]

marxistes, qui avaient tendance à en abuser, une reconversion facile à la phénoménologie. De matérialistes, ils se retrouvent ainsi dans les rangs idéalistes. On assiste ainsi à une négation de tout programme spécifique qui semble bien en contradiction avec le principe pourtant phénoménologique de localité : « Chacun [de ces programmes] est un petit triomphe d'ingénierie, une solution particulière adaptée à un problème spécifique, mais non généralisable » (Dreyfus, p. 46). Ce principe de localité dit pourtant que, même si on perçoit des totalités, on ne vit pas dans le Grand Tout.

Il semblerait bien que cette conception du tout est dans tout, dérive du solipsisme fondée sur un pur esprit. Car le corps cher à la phénoménologie se situe bien dans un environnement décomposable et différencié, dans l'espace, le temps, les actes, les goûts, etc. La régression totalisante de la philosophie traditionnelle a la vie dure. Si les différences individuelles n'existaient pas, et si la transmission de pensée existait, partisans et adversaires de l'IA communieraient dans une même noosphère. Et plus généralement, il ne serait pas nécessaire d'écrire des livres.

Il semblerait bien que cette conception du tout est dans tout, dérive du solipsisme fondée sur un pur esprit. Car le corps cher à la phénoménologie se situe bien dans un environnement décomposable et différencié, dans l'espace, le temps, les actes, les goûts, etc. La régression totalisante de la philosophie traditionnelle a la vie dure. Si les différences individuelles n'existaient pas, et si la transmission de pensée existait, partisans et adversaires de l'IA communieraient dans une même noosphère. Et plus généralement, il ne serait pas nécessaire d'écrire des livres.

e) Le Tout et la partie

Une option du traitement de la partie et du Tout consiste à dire que c'est le tout qui donne sens aux Parties. Mais le fait qu'un élément prenne sens par l'ensemble ne signifie pas que l'ensemble ne prenne pas sens par les éléments (c'est bien une façon de voir les choses qui est privilégiée). Ce parti-pris provoque d'ailleurs les apories classiques, dans une parodie de systémique. Chaque élément d'une théorie dépend de « la vérité de la théorie tout entière » (Weizenbaum, p. 94). Avec ce système, aucun concept ne pourrait être défini, mais toute la théorie le pourrait. Ce qui signifierait : soit que la théorie globale peut être elle-même complètement isolée, ce qui relativise sa globalité soit que faisant partie d'une théorie plus vaste (cf. « une carte partiellement explorée », idem p. 95), elle ne peut pas être établie à son tour par absence de globalité.

f) Les relations

Cette dépendance de l'élément envers le tout peut être précisée par le mécanisme des relations, réminiscence de la vulgate

[24]

marxiste, ou des mythologies orientales. On suppose en effet que l'élève attentif au philosophe reste sans voix devant de tels principes,les éléments dépendent de leurs relations au tout, comme dans le cas du rythme : « On n'a jamais entendu parler d'un unique battement syncopé, par exemple. » (Dreyfus, p. 313)

Dans la page suivante, toujours une élimination de toute critique explicite, alors même qu'elle reprend la conclusion (ce qui me paraît artificiellement consensuel).

[165]

Il est bien évident qu'un rythme est composé d'éléments. Si ce sont des relations qui déterminent le rythme, il partage aussi ce caractère avec les nombres, ou les mots, qui dépendent de réseaux sémantiques. Mais tous sont aussi analysables. D'ailleurs, les relations elles-mêmes sont aussi identifiables comme éléments.

On peut noter que la méthode cartésienne concerne surtout les ensembles finis ou clos. Du fait de la nécessité de la décomposition imposée dans ces démarches, on est obligé de tout dénombrer. Dans ce domaine, l'exhaustivité n'est jamais assurée. Il existe une schématisation causes/effets, les effets se déduisant des causes clairement identifiables.

La clôture et le démembrement sont des attributs des systèmes cartésiens.

De manière plus fine, pour l'élaboration des programmes, on est obligé (pour que ce modèle fonctionne) d'émettre l'hypothèse d'une structure avec des conditions aux limites, (modèle clos), comportant des évidences palpables par le constructeur du modèle. Les processus établissent une relation évidente de cause à effet. Les processus sont identifiables et quantifiables de manière exhaustive, L'analyse est dichotomique. L'échec d'une telle démarche est patent dans la modélisation des phénomènes statistiques, tel que la maîtrise du chômage ou des phénomènes non stabilisés.

LA DISJONCTION, AUTRE MODE DU FORMALISME

La méthode cartésienne est efficace dans les phénomènes qui peuvent être modélisés, selon les principes de la logique formelle ou disjonctive. Aristote fut le premier à appliquer cette démarche, qui fut par la suite repris par d'éminents esprits. De résultats incontestables en particuliers dans le domaine de la logique mathématique. (Boole(1851)). Trois principes constituent le fondement de la méthode appelée logique disjonctive ou aristotélicienne :

- Le principe de non contradiction Un élément ne peut à la fois avoir une existence et une non existence, autrement dit, une chose ne peut à la fois être et ne pas être.

- Le principe d'identité : une chose désignée par un nom, n'est pas autre chose que celle désignée, ou encore, ce qui est. - Le principe du tiers exclus : toute chose se doit d'être ou de ne pas être.

[...24]

Mais cette conception gestaltiste dogmatique semble nier l'élément qu'elle mentionne. Il est bien évident qu'un rythme est composé d'éléments. Si ce sont des relations qui déterminent le rythme, il partage aussi ce caractère avec les nombres, ou les mots, qui dépendent de réseaux sémantiques. Mais tous sont aussi analysables. D'ailleurs, les relations elles-mêmes sont aussi identifiables comme éléments.

Dans la page suivante, qui correspond au premier chapitre de mon livre (qui a dû motiver les emprunts), les références sont partiellement mentionnées ("Searle, Heidegger ou Fodor" et même "Moreau, et son livre, Ainsi naquit l'informatique"), oubliant cependant Dreyfus, ainsi que Winograd & Flores qui sont à l'origine des références à Heidegger et Fodor.

[174]

L'APPORT DE L'INTELLIGENCE ARTIFICIELLE POUR UNE ECOLOGIE DE LA COMMUNICATION

L'un des principaux intérêts de l'intelligence artificielle (IA), quel que soit le résultat qu'elle puisse produire, est de simuler nos mondes ou micro- mondes réels ou artificiels. Ce faisant, l'IA est le dernier lieu où se posent aussi bien des problèmes philosophiques que d'éthique.

Plusieurs philosophes comme Searle, Heidegger ou Fodor viennent conforter notre point de vue. Ils traitent généralement sous leur forme métaphysique des problèmes de la question du sens, de l'être et de l'étant, de la nature des choses qui sont récurrents en IA.

On voit donc que divers liens existent entre la philosophie et l'Intelligence Artificielle. L'IA serait donc un domaine transversal qui ne saurait refuser l'ingérence de toute personne étrangère à la chapelle.

Il nous semble que le cadre général de la réflexion doit se situer à un certain niveau de généralisation, ce cadre référentiel serait pour nous un cadre écologique pour la communication, ou les problèmes y trouveront des solutions « durables » au propre comme au figuré.

Ses solutions se trouvent aussi dans la manière voulue d'organiser notre système en y distinguant plusieurs niveaux dont les plus importants nous semble être :

- le niveau épistémologique

- le niveau générateur

- le niveau paradigmatique

L'analyse permet à ceux qui s'intéressent à l'IA et à diverses interfaces de distinguer la perception ou la conceptualisation humaine de celle de l'ordinateur qui serait le résultat de postulats de la philosophie traditionnelle raisonnant en terme de concepts. Une des clefs de cette position analytique est la fixation d'une part sur le mode binaire de fonctionnement des microprocesseurs, ou le fait que les recherches en IA utilisent des calculateurs numériques, et d'autre part sur le mode symbolique. C'est du dualisme binaire/analogique qu'il s'agit.

Moreau, dans son livre, « Ainsi naquit l'informatique », nous dit pourquoi la voie de focalisation sur l'analogique a été abandonnée depuis Babbage. Selon lui, malgré certaines utilités spécifiques (calcul parallèle,

[15]

Chapitre 1

PHILOSOPHIE DE L'INTELLIGENCE ARTIFICIELLE

Débat de l'IA et philosophie

Le principal intérêt de l'intelligence artificielle (IA), quel que soit le résultat qu'elle puisse produire, est de résumer, et d'incarner, l'histoire de la philosophie. L'IA est même le dernier lieu où ces problèmes philosophiques se posent explicitement et pragmatiquement. On peut mettre au défi n'importe quel philosophe, qui se donnerait la peine de lire les travaux de ces domaines, de ne pas y voir une application des anciens débats philosophiques. Ses détracteurs lui reconnaissent eux-mêmes ce caractère de continuation de la philosophie classique (Searle, préface à l'édition française, p. 3), via Heidegger (Dreyfus, p. 10), ou Fodor (Winograd-Flores, p. 173).On peut aussi se risquer à considérer ces travaux, non seulement comme l'aboutissement de la philosophie, mais aussi comme sa réalisation.

En effet, il ne s'agit plus de répéter rituellement que la philosophie a abandonné la question du sens, ou la question de l'être. La philosophie traditionnelle correspond plutôt à cet état métaphysique, selon la classification d'Auguste Comte, où la question se posait en ces termes ontologiques périmés. Par contre, il est facile de constater que les philosophes ont abandonné toute autre ambition que ce ritualisme compulsif, comme le reconnaît aussi Searle indirectement (p. 15).

[...19]

Dreyfus développe même à plusieurs reprises, dans cette

[20]

perspective, une apologie du traitement analogique, contre le codage binaire (pp. 196, 204-205, 234). Il rejoint en cela les spéculations de Bergson – qui semble revenir à la mode en France, sans doute pour les mêmes raisons. Moreau, dans son livre, Ainsi naquit l'informatique (p. 20), note que cette voie a été abandonnée depuis Babbage. Selon lui, malgré certaines utilités spécifiques (calcul parallèle,

Dans la page suivante, l'absence de la référence originale critique produit une incise un peu confuse. Tandis qu'une formule (qui a dû plaire) est modifiée, quoique bien marquée comme citation (sans indication d'origine), en transformant une critique en : « cadre écologique fécond [où] nous pouvons nous poser des questions quasi-existentielles ».

[175]

simulation complexe), le traitement analogique ne constitue pas une machine universelle, ne fournit pas la même précision, et ne mémorise pas des données. Mais nous aimons à revenir vers l'analogique, comme si quelque chose en nous, nous y ramenait par un attachement compulsif.

Il est à remarquer que ce refus du binaire (par nous et par opposition à l'universalité des machines) explique la résistance initiale aux disques numériques qui, aujourd'hui, remplacent définitivement les disques vinyles analogiques. Ainsi sommes nous perpétuellement traversés par cette opposition systématique et récurrente qui nous fournit l'occasion de mettre en croisement quelques domaines qui viennent charpenter nos études en sciences de la communication.

C'est dans ce cadre écologique fécond que nous pouvons nous poser des questions quasi-existencielles comme se demander « Quelle communication pensera l'IA (si elle) s'érige en pensée de la communication ? »

Un début de réponse se trouve dans la construction d'un cadre de référence sur l'écologie et l'éthique de la communication.

SINGULARITE DES OPPOSITIONS

Michel LUSSAULT à la suite de plusieurs autres auteurs nous fait remarquer ce qui suit « L'idée de nature (dans la civilisation occidentale) est un moyen de penser synthétiquement »

Elle permet de plus, de penser notre action par rapport à nous même d'une part et relativement à la production d'artéfact.

Cette opposition nous semble remonter aux premières réflexions sur la « physis » depuis l'antiquité. Lancinante question qui a traversé des siècles et est renouvelée aujourd'hui sous une forme sans valeur normative. Ce qui rend le propos ouvert à toutes les réflexions, permettant ainsi de renouveler les approches tant sur l'idée même de nature et de naturel, que d'artéfact, d'objet, de technique.

La nouveauté à travers les progrès de la science c'est l'amenuisement des frontières jusqu'à l'absence de celles-ci entre ce que l'on a considéré comme naturel et les conquêtes de l'artificiel, depuis la procréation artificielle jusqu'à la pensée intelligente dont l'IA est le stade suprême de sa représentation

[...20]

simulation complexe), le traitement analogique ne constitue pas une machine universelle, ne fournit pas la même précision, et ne mémorise pas des données.

Il est à remarquer que ce refus du binaire explique la résistance initiale aux disques numériques qui, aujourd'hui, remplacent définitivement les disques vinyles analogiques.

[...18]

Cette fonction méthodologique recevable de gestion des références cumulées peut cependant régresser constamment en dogmatisme. Il s'agit alors d'un abus d'autorité. Le terme philosophie et ses dérivés sont ainsi eux-mêmes synonymes de cette imposture : « […] Un peu de recul philosophique ne pourrait que faire du bien » (Dreyfus, p. 30). Car les philosophes ont la manie de vouloir prendre du recul, qui peut n'être qu'une temporisation parce qu'ils n'arrivent pas à suivre (« tout va si vite de nos jours »).

L'opposition de la philosophie est aussi simplement lisible en ces termes de refus d'admettre qu'on marche sur ses plates-bandes questionnantes. Se demander « Quelle pensée pensera l'IA [si elle] s'érige en pensée de la pensée ? » (Daniel Andler, « Avant-propos », in Dreyfus, p. XIII) oublie de se poser la même question pour la philosophie, dont on connaît l'ambition méta-physique, mais qui n'est pas connue pour se remettre en cause elle-même ! La prétention des philosophes à informer le réel (sur le mode aristotélicien) et dire ce qu'il doit être est notoire. Mais si leur discipline n'est pas fondée sur l'examen de contraintes internes et externes, elle devient, à proprement parler, une utopie conçue en termes normatifs, dans la lignée totalitaire. Cette prétention des philosophes à régenter les sciences et de décréter des impossibilités est franchement aussi lassante que grotesque. Surtout si cette conception philosophique normative régresse naturellement à fonder toute autorisation de programme sur la religion, ou sur Dieu lui-même, comme chez le philosophe amateur Weizenbaum qui semble regretter (p. 10) le temps où la pensée de la place de l'humain dans l'univers était fondé sur la négociation d'un contrat entre Dieu et les humains.

Dans la page suivante, la référence n'est pas signalée. Une fois encore, la critique initiale de la philosophie est adressée à l'IA.

[176]

Le discours sur l'écologie et l'éthique de la communication qui renvoie à une idée de nature et de naturel et de solutions globales et « durables » propose de nouvelles valeurs normatives.

Cette partie rejoint celle intitulé « Les bipolarités sémantiques » où comme nous l'avons vu, Michel LUSSAULT et Patrick CURRAN nous font quelques remarques qui rejoignent notre vision

On peut se demander pourquoi toute réflexion sur la nature se présente sous la forme d'un dualisme, alors que toutes les disciplines mettent en place d'une façon ou d'une autre, un continuum du naturel et de l'artificiel, impliquant une rupture des frontières.

La difficulté est bien celle de la définition d'un élément commun qui soit déterminé ne serait-ce qu'épistémologiquement qui représenterait une intersection; c'est aussi le problème du donné.

On peut proposer' plusieurs directions de réflexion, qui n'ont rien d'exhaustives et pourront être articulées en fonction des questions envisagées. Il ne s'agit pas de préformater la réflexion mais de montrer des points possibles de réarticulation du naturel et de l'artificiel ».

C'est à travers cet espace ambivalent, dual, que nous abordons l'importance de la place de notre problématique.

Le discours sur le son métallique, et autres qualificatifs déshumanisants laissent songeur sur l'humanité analogique de la règle à calcul ou d'une sinusoïde.

Cette conception est évidemment absurde. Les plaintes des mélomanes peuvent concerner au contraire la trop bonne reproduction du son, obtenue par la récupération des enregistrements originaux. Alors que les disques vinyles compensaient les trop gros écarts à cause de difficultés spécifiques de gravure. C'est donc le son analogique qui était artificiel, pour corriger les contraintes d'écoute.



L'IA devrait pourtant être revenue de ces ambitions totalisantes. Mais le poids de la tradition est trop fort, à moins qu'il soit simplement difficile de se priver de cette valorisation théologique à peine laïcisée.

L'informatique holistique contrairement aux holistes qui s'appuient sur la gestalt théorie semble ne pas s'opposer à la possibilité de programmation de traits considérés comme essentiellement humains.

























[20 suite]

Le discours sur le son métallique et autres qualificatifs déshumanisants laissent songeur sur l'humanité analogique de la règle à calcul ou d'une sinusoïde. Cette conception est évidemment absurde. Les plaintes des mélomanes peuvent concerner au contraire la trop bonne reproduction du son, obtenue par la récupération des enregistrements originaux. Alors que les disques vinyles compensaient les trop gros écarts à cause de difficultés spécifiques de gravure. C'est donc le son analogique qui était artificiel, pour corriger les contraintes d'écoute (cf. Henri-Pierre Penel, « CD ou microsillon, quel son préférez-vous ? », Science et vie, n° 907, avril 1993, pp. 130-132).

[...20]

Poncifs holistes

Le holisme est le nouveau nom de la prétention philosophique à parler au nom de la totalité. La philosophie devrait pourtant être revenue de ces ambitions hégéliennes totalisantes. Mais le poids de la tradition est trop fort. A moins qu’il soit simplement difficile de se priver de cette valorisation théologique à peine laïcisée.

Ce refus de l’analyse sublimé en holisme est adopté par les philosophes amateurs, littérateurs ou même informaticiens. Ainsi, Weizenbaum se réclame de Huxley pour se risquer à contester la validité opératoire et la méthode analytique de la science au nom d’une profession de foi holiste aussi convenue qu’extrémiste (Weizenbaum, p. 86). Huxley, grand amateur de parapsychologie, manifesta pourtant, comme bien de ses confrères, un grand souci de fonder scientifiquement l’observation ou la théorisation de ces manifestations parapsychologiques. De plus, les parapsychologues ne manquent jamais de se revendiquer de titres, de statuts, ou de publications universitaires.

Dans la page suivante, les titres et le texte sont copiés en continuité presque à l'identique, en éliminant toujours les rares mentions critiques.

[177]

La perception de formes

La conception phénoménologique nous fournit les moyens de la généralisation par la théorie gestaltiste des conduites perceptives, où effectivement cette dernière a mis au jour des phénomènes de totalités. Mais même la vision est fondée sur le codage de signaux élémentaires, qui correspond à une décomposition, même s'il y a des recompositions ultérieures.

Ce procédé correspond à celui d'un vulgaire poste de télévision. Télévision dont l'image accentue le problème par le cinéma et sa décomposition du mouvement.

Les faces cachées

Le discours phénoménologique s'interroge sur le mystère qui consiste pour nous à ne pas voir les faces cachées des objets.

Cette observation peut prêter à confusion. La perception ne nous renseigne pas, en effet, à tout moment, sur l'ensemble des propriétés d'un objet que nous voyons évoluer devant nous, il faut bien souvent compléter le tableau par ce qui n'existe pas, c'est là que ce que nous avons appelés les « bipolarités sémantiques » trouvent aussi leur utilité.

Mais il est bien évident que ce sont les propriétés des faces visibles, l'expérience empirique, et les règles générales, physiques, logiques, etc., qui permettent de faire des déductions.

De plus, outre le fait que la mémorisation est évidemment accessible à l'ordinateur, ce genre de reconstruction est facilement programmable. Spécialement de nos jours, la programmation objet permet selon le formalisme de l'héritage sur les propriétés, pour laquelle un chat possède les propriétés et les traits individuels non manifestes d'un félin, que nous connaissons par ailleurs, ou que nous déduisons par analogie. Mais il faut toujours confirmer par l'instanciation, sous peine de généralisation abusive.

La vision globale

Le domaine du jeu d'échecs offre un terrain propice à l'expérimentation de la vision totale, qui permet d'accéder au concept d'illumination brutale pour les communications.

[21]

a) La perception de formes

Traditionnellement, la conception phénoménologique se fonde sur une généralisation par la théorie gestaltiste des conduites perceptives, où effectivement cette dernière a mis au jour des phénomènes de totalités. Mais même la vision est fondée sur le codage de signaux élémentaires, qui correspond à une décomposition, même s'il y a des recompositions ultérieures. Ce procédé correspond à celui d'une vulgaire télévision. Télévision dont l'image accentue le problème posé à la philosophie par le cinéma et sa décomposition du mouvement, à la source des gloses holistes de la philosophie de Bergson.

b) Les faces cachées

Le discours phénoménologique s'interroge sur le mystère banalement classique du fait que nous ne voyons pas les faces cachées des objets (comme un cube) que « nous […] éprouvons comme présent en permanence […] » (Dreyfus, p. 309). Cette forme d'exposition mystique peut prêter à confusion. La perception ne nous renseigne pas, en effet, à tout moment, sur l'ensemble des propriétés d'un objet que nous voyons évoluer devant nous. Mais il est bien évident que ce sont les propriétés des faces visibles, l'expérience empirique, et les règles

[22]

générales, physiques, logiques, etc., qui permettent de faire des déductions. De plus, outre le fait que la mémorisation est évidemment accessible à l'ordinateur, ce genre de reconstruction est facilement programmable. Spécialement de nos jours, la programmation objet permet l'héritage de propriétés, pour laquelle un chat possède les propriétés et les traits individuels non manifestes d'un félin, que nous connaissons par ailleurs, ou que nous déduisons par analogie. Mais il faut toujours confirmer par l'observation, sous peine de généralisation abusive ou de dogmatisme, qu'il n'est même plus besoin de préciser comme propres à la philosophie.

c) L'illumination

Le domaine du jeu d'échecs offre un terrain propice à insinuer la théorie plus ou moins zen de la vision totale, qui permet d'expérimenter une illumination brutale.

Dans la page suivante, les titres et le texte sont aussi copiés en continuité presque à l'identique (en généralisant une référence particulière), mais en allégeant l'original, ce qui permet d'éliminer totalement la forte orientation critique du passage original.

[178]

L'expert, grâce à ces capacités peut ainsi posséder une vision globale qui lui donne brusquement la solution.

Au plan phénoménologique, c'est la réception d'un « insight » comme objet permettant la « focalisant de l'attention sur un point particulier ».

Une interprétation serait de dire qu'il existe des configurations types, reconnues comme telles, ou anticipées.

L'IA est aujourd'hui capable de programmer sur la machine ces heuristiques, constitués par exemple par apprentissage ou analyse de fréquences. Mais, même dans le cas d'une configuration globale, il faut des conditions élémentaires significatives.









Concepts opératoires
















Si nous focalisons notre démarche sur les primitives syntaxiques, ou syntaxico/sémantiques, de Chomsky, on entre en accord avec sa thèse sur l'innéité de structures primitives chez l'humain.

Cette théorie est vérifiée même sur le mode trivial qui signifie qu'il doit bien y avoir quelque chose qui permet le langage, puisqu'il existe.

De toute façon, l'aspect opératoire de la définition est commun à absolument tous les concepts, scientifiques ou non. Ils désignent forcément une réalité perçue sous une dénomination quelconque.

Combinatoire

Un des arguments qui possède une validité relative est celui de la nécessité d'examiner toute la combinatoire des sous-problèmes, dans l'IA en général et les systèmes experts en particulier.

On souligne souvent cette explosion combinatoire propulsant dans le domaine des grands nombres.













L'avantage de l'ordinateur est alors quand même de n'oublier aucune possibilité, comme le souligne Newell.






Le problème qui obsède la phénoménologie est fondé sans doute sur les émotions. La culture est de ce point de vue le résultat de cette

[22 suite]

Le grand maître, grâce à ces capacités peut ainsi posséder une vision globale qui lui donne brusquement la solution (Dreyfus, p. 52). Il est plus phénoménologique de recevoir un insight en « focalisant son attention sur ce point particulier » (Dreyfus, p. 57). Une interprétation gestaltiste canonique pourrait plutôt dire qu'il existe des configurations types, reconnues comme telles, ou anticipées. On ne voit pas ce qui s'oppose à la programmation sur la machine d'heuristiques (trucs empiriques), constituées par exemple par apprentissage ou analyse de fréquences. Mais, même dans le cas d'une configuration globale, il faut des conditions élémentaires significatives. On connaît d'ailleurs les études systématiques auxquelles se livrent les grands maîtres, et leurs équipes de conseillers. Comment est-il possible de faire autrement, surtout aux échecs ? Le mythe holiste/gestaltiste n'est qu'une modernisation de l'explication par la magie. Il faut également noter le fait que les joueurs d'échecs prodiges ou les sportifs de haut niveau succombent aussi aux sirènes des recours à la parapsychologie, aux gris-gris, et autres pièges à gogos.

[...53]

Postulats, concepts opératoires, et préjugés

(...)

Une possibilité également présente sous le terme postulat désigne ce qui correspond à des concepts opératoires, voire ad hoc. Une récusation de principe n'en est pas pour autant légitime. Weizenbaum (p. 131) vise par exemple l'emploi de la notion « base conceptuelle interlinguale » en la considérant comme ad hoc. Il correspond pourtant aux primitives sémantiques de Schank, dont la

[54]

réalité n'est généralement pas contestée, même si certains préfèrent un plus grand choix que ses onze primitives, ou laissent le choix sur le niveau de réduction.(note 24) De plus, cette attitude gratuitement sceptique laisse stratégiquement hors du champ de vision critique les primitives syntaxiques, ou syntaxico/sémantiques, de Chomsky. La thèse de ce dernier sur l'innéité de cette structure chez l'humain plaît d'ailleurs à Weizenbaum. Mais elle n'en devient pas vraie pour autant – excepté sur le mode trivial qui signifie qu'il doit bien y avoir quelque chose qui permet le langage, puisqu'il existe.

De toute façon, l'aspect opératoire de la définition est commun à absolument tous les concepts, scientifiques ou non. Ils désignent forcément une réalité perçue sous une dénomination quelconque.

[...37]

Combinatoire et régression à l'infini

Un des arguments anti-analytiques qui possède une validité relative est celui de la nécessité d'examiner toute la combinatoire des sous-problèmes, dans l'IA en général et les systèmes experts en particulier. On souligne souvent cette explosion combinatoire propulsant dans le domaine des grands nombres.

[...38]

La notion de combinatoire est perçue par Dreyfus comme une limitation des ordinateurs. Et c'est effectivement le cas si on considère qu'un ordinateur doit essayer systématiquement toutes les solutions. Pour expliquer les écarts entre les stratégies des programmes d'échecs et des joueurs humains ("26.000 contre 200" coups examinés) Dreyfus est obligé de : « faire intervenir ce que William James a nommé la « conscience marginale" » (Dreyfus, p. 53). Le seul avantage de l'ordinateur est alors quand même de n'oublier aucune possibilité, comme le souligne Newell (idem, p. 51), ce qui est quand même à mentionner. Mais comment prétendre qu'un homme ne passe jamais à côté d'une combinaison intéressante. Si ce n'était pas le cas, aucun grand maître ne perdrait jamais. Ou justement, cela situerait le jeu d'échecs dans un contexte entièrement déterministe. Il s'agit donc plutôt de la part du grand maître d'une rationalisation, voire d'une mystification face à la crédulité de celui qui a une croyance à justifier. Les humains sont aussi faits ainsi.

[...41]

Le problème qui obsède la phénoménologie est fondé sans doute sur les émotions. Mais cette particularité est simplement liée à l'expérience personnelle du vivant, au fait que l'information concerne le sujet, et lui seul. La culture est simplement de ce point de vue le résultat de cette

Dans la page suivante, la référence assumée à Searle permet de retourner effrontément l'argumentation. L'inconvénient est que cela ne met pas en valeur LA MISE AU JOUR DU PROCEDE CARACTERISTIQUE DE L'INTENTIONALITE, et lui attribue le bénéfice d'une erreur ! Ce qui rend incohérente la conclusion (qui est la mienne) avec la position de Searle.

[179]

mémorisation (plus ou moins sélective), partagée par un groupe grâce à la communication.

Cette réalité est formalisable dans les deux cas, par un système à mémoire. Mais un individu peut traiter indifféremment des informations le concernant ou non, y compris avec une charge affective pour autrui, sans être réellement concerné.

La prise en compte de l'intentionnalité reste un effet d'une grande importance dans notre oeuvre.

Selon SEARLE :

« [...] l'intentionnalité. Lorsque nous disons qu'un état mental comporte une intentionnalité, nous voulons dire qu'il porte sur quelque chose. [...] »

Il nous offre du même coup les moyens de distinguer entre plusieurs types d'intentionnalité.

« Dans la théorie de l'action, il existe une distinction fondamentale entre les actions qui sont préméditées [...] et celles qui sont spontanées, où nous agissons sans avoir réfléchi auparavant. [...] C'est ce que j'appelle l'intention dans l'action. ». et plus loin : « Si je vais me promener à Hyde Park, il se passe beaucoup d'autres choses pendant ma promenade, mais leur description ne décrit pas mes actions intentionnelles [...], mes cheveux s'agitent sur ma tête, nos chaussures s'usent [...]. »
















Le terme intention, impliquant habituellement une réflexion, a été généralisé aux actions matérielles, automatiques, ou inconscientes. Ce qui peut sans doute s'expliquer par l'opposition à l'étude des automatismes par le behaviorisme.












































La causalité du cerveau est la production de représentations. Ces représentations sont des phénomènes aisément simulables puisque le fait qu'un programme (formel) commande un mouvement (corporel) est parfaitement connu, dans le cas de la robotique. Si ce qui représente pouvait causer, il n'y aurait pas d'obstacle à considérer que ce caractère est partagé par un programme informatique.

[41 suite]

mémorisation (plus ou moins sélective), partagée par un groupe grâce à la communication

Cette réalité est formalisable dans les deux cas, par un système à mémoire. Mais un individu peut traiter indifféremment des informations le concernant ou non, y compris avec une charge affective pour autrui, sans être réellement concerné.

[...42]

« Un ou deux termes techniques […] l'intentionnalité. Lorsque nous disons qu'un état mental comporte une intentionnalité, nous voulons dire qu'il porte sur quelque chose. […] Le fait d'avoir une intention au sens ordinaire, n'a pas de rôle spécifique pour ce qui est de la théorie de l'intentionnalité. » (Searle, p. 83).

Mais l'intentionnalité technique de la haute philosophie, impossible à tenir en l'état, est en fin de compte, le plus souvent, ramenée à ce sens vulgaire ou généralisée en un concept peu opératoire :

« Dans la théorie de l'action, il existe une distinction fondamentale entre les actions qui sont préméditées […] et celles qui sont spontanées, où nous agissons sans avoir réfléchi auparavant. […] C'est ce que j'appelle l'intention dans l'action. » (Searle, p. 90).

De plus, cette réduction à la conscience dévalorise au passage la place du contexte :

« Si je vais me promener à Hyde Park, il se passe beaucoup d'autres choses pendant ma promenade, mais leur description ne décrit pas mes actions intentionnelles […], mes cheveux s'agitent sur ma tête, nos chaussures s'usent […]. » (Searle, p. 80).

Il est bien évident par exemple que l'usure des chaussures, pour négligeable qu'elle soit sur un trajet, est la seule raison de leur remplacement, et de la place de tout remplacement dans un budget. L'agitation des cheveux justifie également la coiffure ou les chapeaux. Mais ces contingences ne sont pas dignes de philosophie.

[43]

Toute la banalité du procédé se dévoile ici. Le terme intention, impliquant habituellement une réflexion, a simplement été généralisé aux actions matérielles, automatiques, ou inconscientes. Ce qui peut sans doute s'expliquer par l'opposition à l'étude des automatismes par le béhaviorisme.

Ce mentalisme mystérieux s'explique aussi plus concrètement. C'est un des intérêts de Searle. Son éclaircissement phénoméniste nous fait redécouvrir, derrière les grands mots du jargon philosophique, la simplicité des phénomènes :

« Si par exemple, je décide de lever le bras, ô merveille, mon bras se lève. Mais si nos pensées sont purement mentales, comment peuvent-elles affecter les choses physiques. » (Searle, p. 21).

Remarquons tout d'abord que le problème se pose dans le cadre dualiste corps/esprit, pourtant réputé périmé par les mêmes auteurs. Mais surtout, on remarque la banalité des problèmes posés à la conscience philosophique. L'argument de l'universalité immédiate de ces questions laisse une sorte de malaise devant la négation de toute la connaissance scientifique et l'absence de toute méthode d'analyse. Tout au plus peut-on cependant accorder à ces interrogations élémentaires le fait que les sciences ne s'occupent plus depuis longtemps de répondre aux questions naïves, des enfants et des profanes. Ce en quoi ces sciences de la nature ont au moins le tort de laisser le terrain libre à des spéculations archaïques et aux charlatans vendeurs de remèdes miracles.

Un des problèmes est aussi l'appropriation par les philosophes des recherches scientifiques elles-mêmes pour les détourner de leur objet et les associer à des visions mythiques traditionnelles. On constate à cette occasion de simples contresens, comme quand Searle (p. 88) considère l'expérience réalisée dans les classes de sciences naturelles avec les grenouilles comme une preuve du mentalisme. Ce choix est d'autant étonnant que cette stimulation électrique avait servi de fondement au béhaviorisme (couple stimulus-réponse).

De même, la causalité mentale ressemble bien à de la parapsychologie, à laquelle ont précisément cédé tous ceux qui ont voulu généraliser la fonction pragmatique du cerveau à la causalité mentale de l'esprit, comme William James, Henri Bergson, etc., jusqu'à John Searle. Il est bien évident que ces analyses se fondent

[44]

exclusivement sur le pouvoir évocateur des mots, qui ont bien de ce point de vue, une causalité mentale. Hors de ces divagations, on ne voit pas où est l'obstacle pour l'IA. La causalité du cerveau est la production de représentations. Ces représentations sont des phénomènes aisément simulables puisque le fait qu'un programme (formel) commande un mouvement (corporel) est parfaitement connu, dans le cas de la robotique. Si ce qui représente pouvait causer, il n'y aurait pas d'obstacle à considérer que ce caractère est partagé par un programme informatique.

Dans la page suivante, encore une fois, la thèse oublie de mentionner la critique, ce qui aboutit à une confusion (ou met au jour le procédé philosophique). L'inconvénient est que les "postulats de l'IA", sont ceux critiqués par Dreyfus, et non ceux assumés par l'IA. Ce qui produit un contresens (mais correspond aux "intentions" de la thèse).

[180]

De quelques principes généralisés. par l'IA

On reconnaît les divers super-pouvoirs qui émanent d'une conscience marginale, ou de l'intentionnalité, comme la vision radiologique qui fait voir à travers les murs d'une maison.

Et c'est en fonction de ce que nous savons de certaines maisons semblables que nous imaginons ce qu'il y a derrière les murs des maisons que nous ne connaissons pas. Ce processus est parfaitement programmable par généralisation, et ne concerne pas la perception extrasensorielle.

Un ordinateur peut très bien déduire que dans toute maison, même d'un modèle inconnu, des individus se nourrissent, dorment, etc. Et les cas où il pourrait se tromper concernent les mêmes situations culturellement étrangères où un être humain se tromperait aussi. Et de même, le programme pourrait alors enregistrer ces nouvelles expériences et les prendre en compte dans des raisonnements ultérieurs (plus sûrement qu'un être humain).



De l'incertitude et de l'incomplétude

La physique moderne est aujourd'hui largement utilisée pour prétendre justifier toutes les théories irrationalistes les plus traditionnelles. Mais il faut rendre justice à divers auteurs qui résument les références originelles de Gódel, sans céder eux-mêmes à des interprétations plus ou moins délirantes.

Ils précisent très justement a propos de l'incertitude et de l'incomplétude qu'il suffit de démontrer qu'une seule condition essentielle est hors d'atteinte dans une théorie pour démontrer ces principes.
















Analyse des postulats de l'IA en particulier

On identifie généralement quatre grands postulats de l'IA :

les postulats biologique, psychologique, épistémologique, ontologique.










Le postulat biologique

Il nous montre les points de convergence et de divergence entre l'humain et la. machine. Un postulat biologique de l'IA imposerait au cerveau (substrat) un traitement de l'information grâce à quelque équivalent biologique de commutateurs de type oui/non.

[...46]

a) Abracadabra de la vision radiologique

On reconnaît les divers super-pouvoirs qui émanent d'une conscience marginale, ou de l'intentionnalité, comme la vision radiologique qui fait voir à travers les murs d'une maison (Dreyfus, p. 55). On comprend la confusion intellectuelle ici aussi : nous ne voyons pas à travers les murs, nous savons ce qu'il y a derrière. Et c'est en fonction de ce que nous savons de certaines maisons semblables que nous imaginons ce qu'il y a derrière les murs des maisons que nous ne connaissons pas. Ce processus est parfaitement programmable, n'a rien de mystérieux, et ne concerne pas la perception extrasensorielle. Un ordinateur peut très bien déduire que dans toute maison, même d'un modèle inconnu, des individus se nourrissent, dorment, etc. Et les cas où il pourrait se tromper concernent les mêmes situations culturellement étrangères où un être humain se tromperait aussi. Et de même, le programme pourrait alors enregistrer ces nouvelles expériences et les prendre en compte dans des raisonnements ultérieurs (plus sûrement qu'un être humain).

[...48]

f) Abracadabras de l'incertitude et de l'incomplétude

La physique moderne est aujourd'hui largement utilisée pour prétendre justifier toutes les théories irrationalistes les plus traditionnelles. En France, Michel Cazenave sur France Culture en fut le chef de file, avec le Colloque de Cordoue où, soit dit en passant, la diffusion à la radio a montré parfois que ces interprétations reposaient sur des incompréhensions verbalistes. Inversement, il faut rendre justice à Weizenbaum qui résume les références originelles de Heisenberg et Gödel, sans céder lui-même à ces interprétations plus ou moins délirantes. Il précise très justement que : « Werner Heisenberg […] n'a pas démenti l'hypothèse [de prédictibilité] de Leibniz, mais a montré que sa condition essentielle était hors d'atteinte. » (Weizenbaum, p. 146). Ces principes niant la déductibilité totale contredisent donc son chapitre cinq (pp. 89-102) qui reprend le critère épistémologique classique de la théorie comme déduction. Mais contrairement à la vulgate épistémologique actuelle, le déterminisme macroscopique n'est pas contredit, comme Weizenbaum le signale très bien : seule la perspective de notre connaissance absolue est mise en question. Et l'intuition invoquée ailleurs est l'équivalent psychologique de l'empirisme. Dans tous les cas, comme le remarque aussi Pamela McCorduck, ces limites concernent tout autant l'humain que l'ordinateur ! Et leur emploi comme argument par les adversaires de l'IA n'est donc pas légitime.

[...50]

Des postulats de l'IA en particulier

Cette compétence philosophique de l'analyse des postulats produit ainsi un discours assez prévisible, automatiquement plaqué sur la réalité. Dreyfus consacre ainsi la deuxième partie de son livre

[51]

à l'analyse des postulats de l'IA. Il en identifie quatre : les postulats biologique, psychologique, épistémologique, ontologique. En fait, ils se réduisent essentiellement à son refus d'un traitement prétendument binaire dans ces domaines (cf. pp. 192-193).

a) Le postulat biologique

Dreyfus invente un postulat biologique de l'IA qui imposerait au cerveau un traitement de l'information « grâce à quelque équivalent biologique de commutateurs de type oui/non » (Dreyfus, p. 192). L'obsession réductionniste de la phénoménologie lui fait insister sur ce qui a pu être un modèle provisoire du cerveau de la neurobiologie elle-même. Mais cela n'a rien à voir avec les préoccupations ou les postulats de l'IA. On peut même voir (à la page précédente !) qu'il s'agit d'un contresens de Dreyfus sur la citation de Newell et Simon :

Dans la page suivante, l'absence de distinction critique se poursuit. Cerise sur le gâteau, on a droit à un inconvenant "à notre avis", outre encore une substitution d'"IA" à "philosophie" !

[181]

L'I.A. affirme que les postulats sont au même titre des systèmes universels de manipulation de symboles, et que l'ordinateur peuh être programmé de manière à exécuter certaines opérations élémentaires de traitement de l'information tout à fait identiques, sur le plan fonctionnel, à celle qu'exécute le cerveau humain.





Les lignes ci-dessus nous montrent bien qu'il ne s'agit que d'une simulation fonctionnelle.



Le postulat psychologique

Le postulat psychologique concerne à proprement parler le traitement de l'information, encore qu'ici aussi :

Il est. à noter que le traitement de l'information est considéré comme une victoire du mentalisme sur le béhaviorisme.


















Le postulat épistémologique

Il est celui qui correspond le mieux (à notre avis) à la faculté de connaître la possibilité d'explicitation, et d'expression logique.















Le postulat ontologique

Le postulat ontologique refuse simplement toute analyse ou toute décomposition logique (de manière cartésienne) des raisonnements ou des comportements. Il s'oppose à un biais du postulat inverse de la méthode cartésienne qui affirme « que tout est dans tout ».



























On peut constater que l'un des problèmes majeurs posés à l'IA permet de répondre à une interrogation sur la communication humaine.

Il y a toujours une interrogation déduite d'un programme à déclencher, il peut s'agir d'un texte ou des limitations sur les spéculations en fonction de ce qui précède ou de ce qui suit, ou des valeurs à deviner.

Ces exemples précis ont cependant une utilité. Ils nous montrent comment l'Intelligence Artificielle semble à l'évidence ne pas supporter le principe de limitation de l'extension d'un concept, mais est plutôt encline à une certaine généralisation, un glissement progressif vers l'infini à l'instar du cerveau.






Newell et Simon dans un de leurs articles en préambule nous dit ce qu'est la nature de cette similitude et fixent du même coup leur domaine opératoire :

[51 suite]

« Newell et Simon, en préambule à l'un de leurs articles, font la remarque suivante : 'On peut voir que cette manière d'envisager les choses revient nullement à affirmer que les ordinateurs et les cerveaux sont identiques. Elle se contente d'affirmer qu'ils sont au même titre des systèmes universels de manipulation de symboles, et que l'ordinateur peut être programmé de manière à exécuter certaines opérations élémentaires de traitement de l'information tout à fait identiques, sur le plan fonctionnel, à celle qu'exécute le cerveau humain'[NOTE 22]. » (Dreyfus, p. 191).

La citation, pourtant disponible de première main, précise bien qu'il ne s'agit que d'une simulation fonctionnelle.

(...)

[52]

b) Le postulat psychologique

Le postulat psychologique concerne à proprement parler le traitement de l'information, encore qu'ici aussi, on ne voit pas ce que viennent faire les fameux « éléments binaires d'information » qui contaminent le postulat psychologique. C'est sans doute une conséquence du refus de l'analyse, et pour tout dire de la réflexion perçue comme impersonnelle et neutre, dans la tradition classique, sans engagement des acteurs (Dreyfus, p. 192).

Il est à noter que le traitement de l'information est considéré comme une victoire du mentalisme sur le béhaviorisme (p. 202), qui permet de jeter aux orties la psychologie expérimentale. Ce qui peut être compréhensible si les psychologues négligent un peu trop les connaissances explicites. Mais le projet phénoménologique réside plutôt dans l'idée d'engagement dans une situation pour nier toute maîtrise de la réflexion. On peut trouver un précurseur de la négation de la psychologie expérimentale ou du rationalisme dans l'ouvrage de Sartre, Esquisse d'une théorie des émotions, petit fascicule de 66 pages qui fournit un excellent rendement aux étudiants en philosophie pour s'épargner de nombreuses lectures perturbantes.

Le postulat épistémologique

Le refus obsessionnel de toute forme calculable ou explicite risque ici aussi de conduire à rejeter la connaissance elle-même. Car qu'est-ce qui correspond mieux à la faculté de connaître (hormis l'obsession booléenne et binaire) que le postulat épistémologique de possibilité d'explicitation, et d'expression logique (Dreyfus, p. 192). Une définition plus souple de la connaissance, pour contenir les pratiques sociales non explicites observées en particulier par la sociologie, ne peut pas nier pour autant leur possibilité d'explicitation. Dreyfus acceptait en principe, contre Searle, la possibilité des sciences humaines, mais il en refuse la réalité ici. Il conteste plus spécialement : « (a) que toute conduite délibérée peut recevoir une expression formelle et (b) que cette expression formelle peut servir à reproduire la conduite en question. » (Dreyfus, p. 238). Il se trouve que cette négation (a) est contredite par la tradition philosophico-pratique de l'encyclopédie qui se caractérise d'abord par la formalisation des arts et techniques.

[53]

d) Le postulat ontologique

Le postulat ontologique refuse simplement toute analyse ou toute décomposition logique des raisonnements ou des comportements (Dreyfus, p. 193 et p. 262). Le postulat inverse est que tout est dans tout, et que les contextes, mot magique (ou abracadabra), sont emboîtés les uns dans les autres. Mais l'identification même d'un contexte est bien l'isolement d'une réalité, quel que soit le nom qu'on lui donne, contexte, situation, événement, etc. La principale conséquence, à l'époque où a été écrit ce livre de Dreyfus, était le fait que : « Le problème de l'intelligence artificielle devient le problème du stockage et de l'exploitation d'une immense base de données. » (Dreyfus, p. 265). Or ces problèmes techniques sont aujourd'hui très largement dépassés, même si sur le plan formel leur importance était déjà relative.

[33]

« Pour prendre l'exemple de Winograd : 'Rusty a fait une escale à l'aéroport de San Francisco peut être interprété comme un événement de la rubrique voyage, […] comme une visite dont l'actant est Rusty, etc., etc.' [NOTE 17] « L'ennui, c'est que ces 'etc.' dissimulent ce qui pourrait bien […] tourner à la prolifération désastreuse. Car ce même vol aurait pu être aussi un vol d'essai, une épreuve d'entraînement pour l'équipage, […] une erreur, […] une possible visite à un frère, à une sœur, un directeur de thèse, un gourou, etc. » (Dreyfus, p. 177).

Ce genre de spéculations gratuites semble le seul infini présent en la circonstance. On peut constater au contraire que le problème posé à l'IA permet de résoudre une interrogation sur la communication humaine. Le programme à déclencher est celui-ci : soit il suffit de demander à Rusty soit, s'il s'agit d'un texte, de limiter les spéculations en fonction de ce qui précède ou de ce qui suit, ou des valeurs par défaut (ou par probabilités s'il s'agit de deviner).

Ces exemples précis ont cependant une utilité. On voit bien

[34]

comment procède l'inhibition philosophique, qui semble à l'évidence ne pas supporter le principe de limitation de l'extension d'un concept. Dreyfus semble appliquer le principe de numération primitif : un, deux,… beaucoup. Il est capable de compter ici jusqu'à un, deux,… douze types de chaises, et il passe tout de suite… à l'infini. Ce que remarque aussi Pitrat.

[...51]

« Newell et Simon, en préambule à l'un de leurs articles, font la remarque suivante : »

Dans la page suivante, la référence à Newell et Simon est conservée, mais les conséquences sont inversées. Avec encore une substitution d'"IA" à "philosophie".

[182]

« on peut voir que cette manière d'envisager les choses revient nullement à affirmer que les ordinateurs et les cerveaux sont identiques. Elle se contente d'affirmer qu'ils sont au même titre des systèmes universels de manipulation de symboles, et que l'ordinateur peut être programmé de manière à exécuter certaines opérations élémentaires de traitement de l'information tout à fait identique sur le plan fonctionnel, à ce qu'exécute le cerveau humain »





Ce plan fonctionnel, dont quasi-biologique est ignoré par les chercheurs de l'Intelligence Artificielle, (soutenues en cela par des spécialistes des neurosciences qui y trouvent quelques intérêts à travers le connexionnisme), qui placent d'emblée ce mode de similitude structure/fonction au plan de la philosophie.

Concernant l'univers de notre modélisation, notre approche de la similitude et des processus Homme-machine nous permet de distinguer plusieurs étapes ou niveaux de granularité, aux nombres desquels nous tirons quelques points importants qui sont autant d'axes de réflexions, d'analyse et de modalités d'accès à notre problématique centrés autour de la communication.

Le niveau épistémologique qui constitue le point de départ de notre analyse et nous fournit des conditions aux limites, c'est une approche globale des enjeux de la problématique communicationnelle et qui constitue ce que d'aucuns ont appelé des Micro-mondes.

La modélisation ici est un lieu d'organisation sur une approche abstraite et réflexive de la problématique.

Concernant les activités humaines, bon nombre débutent toujours par un niveau épistémologique, et l'on ne voit pas pourquoi ce serait faire fausse route que d'essayer de dégager des primitives et des règles qui viendront structurer notre raisonnement. C'est aussi vrai pour ce qui concerne la modélisation.

Le second point important dans cette partie concerne la limitation de notre univers. L'infini de l'Intelligence Artificielle est tout simplement mis en échec par cette clôture épistémologique dans un espace relativement restreint. Cette notion a justement été constituée par les chercheurs en Intelligence Artificielle à l'occasion de la confrontation à ce problème. La définition en extension contrairement à la philosophie n'est pas un problème pour l'Intelligence Artificielle.

[53 suite]

« Newell et Simon, en préambule à l'un de leurs articles, font la remarque suivante : 'On peut voir que cette manière d'envisager les choses revient nullement à affirmer que les ordinateurs et les cerveaux sont identiques. Elle se contente d'affirmer qu'ils sont au même titre des systèmes universels de manipulation de symboles, et que l'ordinateur peut être programmé de manière à exécuter certaines opérations élémentaires de traitement de l'information tout à fait identiques, sur le plan fonctionnel, à celle qu'exécute le cerveau humain'[NOTE 22]. » (Dreyfus, p. 191).

La citation, pourtant disponible de première main, précise bien qu'il ne s'agit que d'une simulation fonctionnelle. La fixation obsessionnelle sur l'élémentaire du traitement informatique provoque comme on peut le voir une incompréhension totale de toute autre réalité. Mais pour les chercheurs de l'IA, ce postulat biologique n'existe pas, puisque cette exigence de similitude structure/fonction est celle des philosophes (cf. Dreyfus, p. 208).Cette exigence bénéficie éventuellement de la complicité intéressée des neurosciences à travers le connexionnisme. Cette incompréhension (chez les uns et les autres) est peut-être fondée sur la confusion entre le fonctionnel et l'organique.













[34]

Micro-mondes

L'infini philosophique est tout simplement mis en échec par cette clôture épistémologique dans les micro-mondes. Cette notion a justement été constituée par les chercheurs en intelligence artificielle à l'occasion de la confrontation à ce problème. Le problème de la philosophie est celui des difficultés de la définition en extension. L'exemple vient de très haut : l'obscure opposition kantienne entre les concepts analytiques et synthétiques recouvre en fait ce problème. Cassirer a essayé d'expliquer pourquoi l'étendue était analytique et le poids synthétique, il en a conclu que l'étendue était analytique parce qu'elle faisait partie des définitions classiques de la scolastique (cf. Umberto Eco, La quête de la langue parfaite, Conférences au Collège de France, 1992-1993, passage non retranscrit dans l'ouvrage publié) : le « long sommeil dogmatique », dont Kant a avoué avoir été victime, lui a laissé des séquelles narcoleptiques.

Dans la page suivante, outre la référence interne à Schank, on constate un emprunt presque continu, excepté la suppression habituelle de la partie critique. Contrairement à Dreyfus, qui voit "une bouteille à moitié pleine toujours à moitié vide", la thèse manifeste un esprit très positif !

[183]

Avec l'Intelligence Artificielle, ce problème se résout simplement par une extension en compréhension de la définition (une chaise est ce sur quoi on s'assied), ceci est aussi vrai pour une réduction de l'espace de définition.

Cela ne pose pas de difficultés théoriques insurmontables, puisqu'il s'agit, très classiquement, d'expliciter des propriétés ou une différence spécifique, par la prospective ou à rebours, créant ainsi un nouvel univers de notre discours.

Ces micro-mondes ou nouveaux espaces de définition peuvent subir eux aussi des critiques qui évoquent la fréquente inanité des modèles (simplifiés à l'extrême, ou imaginés à des fins de démonstration). C'est pourtant la situation de tous les cas d'écoles, dans l'apprentissage humain. Ils peuvent dans les deux cas (micro-mondes humains/artificiels) avoir une valeur pédagogique ou expérimentale. Cette résolution des micro- mondes décrite par les scripts de Schank permet justement de simuler les connaissances humaines concrètes et répétitives. C'est par les niveaux qui nous semblent les plus importants que nous abordons ce chapitre.

Le niveau générique est celui d'un choix, on se situe dans l'entre-deux épistémologique/pragmatique où l'intemporalité relative va marquer notre engagement méthodologique et conceptuel. Il va permettre de situer la problématique au travers des processus qui l'animent. C'est là que les idées se transforment en variables avant de se remplir de valeurs. C'est là que les valeurs sont analysées, organisées pour produire une mise en perspective, qui, dans l'espace d'un retour vers le premier niveau s'appelleront des conclusions.

L'informatique a depuis ses débuts su faire avec des bouts de programmes et des techniques réutilisables. La programmation orientée objet amplifie aujourd'hui cet état de chose.

Même les comportements humains normaux sont pris en charge par les scripts par défaut, ou par les mécanismes d'héritage de propriétés. Cette caractéristique de la connaissance ordinaire est donc programmable, et devient le nouveau standard de la programmation orientée objet.

Il faut noter aussi que le script peut constituer une représentation du niveau sociologique. Il permet de représenter les différences culturelles par des scripts distincts. Le micro-monde est ainsi une bonne modélisation des actions quotidiennes dans un cadre culturel donné. Il

[34 suite]

Avec l'intelligence artificielle, ce problème se résout simplement par une définition en compréhension (« une chaise est ce sur quoi on s'assied »). Cela ne pose pas de difficultés théoriques insurmontables, puisqu'il s'agit, très classiquement, d'expliciter des propriétés ou une différence spécifique.

Ces micro-mondes peuvent subir eux-aussi des critiques qui évoquent la fréquente inanité des modèles « simplifiés à l'extrême, ou imaginés à des fins de démonstration » (Dreyfus, p. 75). C'est pourtant la situation de tous les cas d'écoles, dans l'apprentissage

[35]

humain. Ils peuvent dans les deux cas (micro-mondes humains/artificiels) avoir une valeur pédagogique ou expérimentale. Cette résolution des micro-mondes par les scripts [NOTE 18] de Schank permet justement de simuler les connaissances humaines concrètes et répétitives, comme il est reconnu, pour le nier aussitôt cependant (comme d'habitude) :

« Sans nul doute, bon nombre de nos activités sont ainsi stéréotypées, et l'on ne voit pas pourquoi ce serait faire fausse route que d'essayer de dégager des primitives et des règles pour un jeu du restaurant. […] Mais […] aller au restaurant n'est pas un jeu fermé et autonome, mais bien plutôt une collection hautement variée de comportements, liés à tout le restant de l'activité humaine. » (Dreyfus, p. 166, c'est moi qui souligne).

On voit encore une illustration du refus holiste de toute analyse, appuyé sur l'infini supposé. Dreyfus semble chercher ce qui manque, au lieu de reconnaître ce qui est apporté : s'agit-il d'un trait de caractère d'éternel mécontent : une bouteille à moitié pleine est toujours à moitié vide ? Et la relation définit alors le sujet et non l'objet. S'agit-il du discours dogmatique qui ne tolère pas les discours autres que ceux contenant les signes rituels phénoménologiques ? La concurrence sur le domaine réservé est aggravée quand on a affaire à de vulgaires ingénieurs de la connaissance osant se frotter à la philosophie, comme Minsky au noème (cf. Dreyfus, pp. 156-158).

Par exemple, le script du restaurant ne dit pas qu'il faut respirer. Car les comportements humains normaux sont pris en charge par les scripts par défaut, ou par les mécanismes d'héritage de propriétés. Cette caractéristique-ci de la connaissance ordinaire est donc programmable, et devient le nouveau standard de la programmation objet. Il faut noter aussi que le script peut constituer une représentation du niveau sociologique. Il permet de représenter les différences culturelles par des scripts distincts. Le micro-monde est ainsi une bonne modélisation des actions quotidiennes dans un cadre culturel donné.

Dans la page suivante, la référence à Piaget est conservée. On constate que l'oubli de la critique s'explique par le parti pris assumé (quoique peut-être un peu confus justement).

La reproduction d'une erreur seulement présente sur le net (http://www.jacquesbolo.com) montre que la source n'est pas le document imprimé.

[184]

modélise également les compétences cognitives générales.

L'IA encore nous a habitué à des raccourcis qui prennent en compte l'héritage de ce qui a fonctionné ailleurs. Bien avant l'explosion des techniques d'héritage dans la programmation objet, Piaget dans « La psychologie de l'intelligence » notait déjà :

« Pour prévoir un événement, réparer sa bicyclette, faire son budget ou dresser son programme d'action, il n'est pas besoin de refondre toute la causalité et le temps, de réviser toutes les valeurs admises, etc. La solution à trouver ne fait que prolonger et compléter les rapports déjà groupés, quitte à corriger le groupement lors des erreurs de détails, et surtout à le subdiviser et le différencier, mais sans le rebâtir en entier ».

Le niveau pragmatique de la modélisation consiste à observer un ensemble de données concrètes au moyen des outils élaborés aux niveaux antérieurs.

Notre modélisation fait abstraction du type de donnée à traiter. Le fait que les recherches en IA utilisent des calculateurs numériques n'y change pas grand chose, et comme nous le verrons ci-dessous, c'est à bon escient que nous confondons à un niveau élémentaire le numérique et le symbolique.




Si le binaire ne signifie pas plus 0/1 que oui/non, ou vrai/faux, et n'est qu'un simple système de code à deux états, sa la valeur n'est ni plus, ni moins arbitraire qu'aucun autre codage analogique.

C'est par convention (fonction symbolique) que les octets (bytes) codent sur huit bits les lettres (a, b, c...) et les autres signes (&, @, ?...), ce qui n'est qu'un moyen de notation, comme le morse, les variations graphiques ou les autres notations des sons selon les langues.

Il y a bien longtemps, et l'IA en est la preuve ultime, que les calculateurs traitent aussi des symboles. Le langage LISP, propre à l'IA, effectuant des traitements sur des listes de symboles a été inventé à cet effet en 1958. Ce langage constituait ainsi le pendant de FORTRAN utilisé pour des calculs et inventé en 1954.

[35 suite]

Il modélise également les compétences cognitives générales, comme le montre cette étude de psychologie humaine :

« Pour prévoir un événement, réparer sa bicyclette, faire son budget ou dresser son programme d'action, il n'est pas besoin de refondre toute la causalité et le temps, de réviser toutes les valeurs admises, etc. La solution à trouver ne fait que prolonger et compléter

[36]

les rapports déjà groupés, quitte à corriger le groupement lors des erreurs de détails, et surtout à le subdiviser et le différencier, mais sans le rebâtir en entier. » (Piaget, La psychologie de l'intelligence, p. 46).

[...19]

Une des clefs de cette position anti-analytique est la fixation sur le rejet fétichiste du mode binaire de fonctionnement des microprocesseurs, ou le fait que les recherches en IA utilisent des calculateurs numériques (cf. Dreyfus, p. 192). Mais cette haine dogmatique de l'élémentaire confond le numérique et le symbolique



[erreur seulement sur le web:]

Si le binaire ne signifie pas plus 0/1 que oui/non, ou vrai/faux, et n'est qu'un simple système de code à deux états, sa la valeur n'est ni plus, ni moins arbitraire qu'aucun autre codage analogique. C'est par convention (fonction symbolique) que les octets (bytes) codent sur huit bits les lettres (a, b, c…) et les autres signes (&, @, ?…), ce qui n'est qu'un moyen de notation, comme le morse, les variations graphiques ou les autres notations des sons selon les langues. Et il y a longtemps, et l'IA en est la preuve ultime, que les calculateurs traitent aussi des symboles. Le langage LISP, propre à l'IA, effectuant des traitements sur des listes de symboles a été inventé presque en même temps (1958 contre 1954) que FORTRAN, spécialisé dans les calculs.

Mon livre n'est pas cité dans la bibliographie de la thèse, ni aucun des auteurs suivants de ma bibliographie, correspondants aux passages cités, même s'ils sont présents dans le texte. En Particulier, Dreyfus, dont une citation est pourtant présente entre guillemets. Seuls Searle, Moreau et Piaget sont nommés. Heidegger, Fodor, ou Newell et Simon sont cités aussi dans citations de Dreyfus ou de Winograd & Flores. Mais aucun n'est reproduit dans la bibliographie finale (Newell est cité dans le texte de la thèse pour une autre référence).

BIBLIOGRAPHIE

[BALP 90] Hyperdocuments, hypertextes, hypermédias, Jean Pierre BALPE, Eyrolles, 1990.

[BALP 92] Comment l'informatique donne du sens aux mots, Jean Pierre BALPE, in La Recherche, N°241, mars 1992.

[BALP 95] L'écriture de la mémoire, Jean Pierre BALPE, in Le Plaisir des mots, Autrement, 1995. [BALP97] Hypertextes et Interactivité in Hypertextes et Hypermédias Vol. I, Jean Pierre BALPE, Hermès, 1997.

[BARO 931 Développement d'un logiciel multimédia pour l'animation d'un présentateur synthétique, Philippe BARON et Thomas GALMICHE, Rapport de Maîtrise, Département informatique

[BELL 93] Dialogue Homme-machine multimodal : vers la compréhension du geste de désignation, Nadia BELLALEM et Laurent ROMARY, Actes d'EC2, 1993.

[BERS 93] Golem (Le), Daniel BERESNIAK, Ed. Trédaniel, 1993

[BERN 75] Des jeux et des hommes, Eric BERNE, Stock, 1975

[BETE 76] Psychanalyse des contes de fées, B. BETTELHEIM, Laffont, 1976.

[BORG 56] La Bibliothèque de Babel, et autres nouvelles, J.L. BORGES, Fictions, Gallimard, 1956 [CART 93] Schématique (la), Michel CARTIER, Université du québec, Montréal, 1993. [CHAN 83] Homme Neuronal (r), Jean Pierre CHANGEUX, Fayard, 1983.

[CURR99] Dès Interfaces pour le continent Humain, Patrick Curran, communication au colloque international H2PTM'99, Ed. Hermès.

[CURROO] De Pan Doors à E(X/S)Opéra communication illustrée en audio-vidéo-infographie avec Jean Jacques Lemetre, UQAM, Montreal, 2000

[CURROI] Des virtualités de la maquette à la réalisation du modèle, ASTI, Cité des Sciences, Paris 2001

[CURRO2] R]évolutions des Interfaces 2D/3D/4D, Maison des sciences de L'Homme, CIREN, 2002 [CURR02] Le projet O.AS.1.S, colloque sur l'Université virtuelle UFC, Alger, 2002

[CLEM8I] Vies et légendes de Jacques Lacan, C.CLEMENT, Grasset, 1981.

[DE FRAN 82] Anthropologie Filmique, Claudine DE FRANCE, EMSI, 1982.

[DE ROSN 79] Macroscope (le), Joël DE ROSNAY, Points N°80, Seuil, 1979

[GUAI 92] Pour une refondation des pratiques sociales, Félix GUATTARI, le Monde Diplomatique, Octobre 1992.

[HALL 71] La Dimension cachée, E.T. HALL, Points N°89, Seuil 1971.

[HALL 79] Langage silencieux (Le), E.T.HALL, Points N°160, Seuil 1979

[HALL 84] Au delà de la culture, E.T. HALL, Points, N°191, Seuil, 1984.

[HAMP 90] Atlas de notre cerveau, Charles HAMPDEN-TURNER, E.0, Paris, 1990.

[HOES 85] Gddel, Escher, Bach, Les Brins d'Une Guirlande Etemelle, D. HOFSTADTER, Interéditions, 1985.

[HUYG 69] Formes et Forces, René HUYGHES, Gallimard 1969.

[JONA 90] Ethique de de la responsabilité, Hans JONAS, Ed. du Cerf, 1990.

[JOUV 92] Sommeil et le Rêve + (Le) Chevalier des songes (Le) Pr JOUVET, Ed. Jacob, 1992

[JUNG 64] Homme et ses Symboles (L'), Carl J. JUNG, Robbert Laffont, 1964.

[KAPF 78] Chemins de la Persuasion, Jean Noël KAPFERER, Dunod, 1978.

[KRUG 91] Artificial Reality II, Myron W. KRUGER, Addisson-Wesley, 1991.

[KRUG 93] Réalité Virtuelle ou extinction virtuelle, Peter KRUGER, Digithurst, 1993.

[LA GAR 80] Profils pédagogique (les), A.De la GARANDERIE, Centurion 1980.

[LA GAR 82] Pédagogie des moyens d'apprendre, A. DE LA GARANDERIE, Centurion, 1982. [LABOR 87] Influencer avec intégrité, Génie LABORDE, Interéditions, 1987.

[LABOR 74] Nouvelle grille (la), H.LABORIT, Laffont,1974 (LAUF 89]Texte et son inscription (le), Pr Roger LAUFER (textes réunis par), Ed. CNRS, 1989. [LAUF 92]Texte, Hypertexte et Hypermédia, Roger LAUFER et Domenico SCAVETTA, Que Sais-Je, 1992.

[LE DANT 92] Dédale le Héros, J.P. LE DANTEC, Situations d'Architecture, Paris, 1992.

[MALR 67] Construction de l'Imaginaire (la), Philippe MALRIEU, Dessaert, 1967. [MALR 67] Antimémoires, André MALRAUX, Gallimard,1967.

[MC LEOD 87] Les Cinq Sens, Pr Mc LEOD, Hors-série S&V,1987

[MC LUH 72] Pour Comprendre les Médias, M. MAC LUHAN, Seuil, 1972.

[MERL 64] Oeil et l'esprit ( L'), MERLEAU-PONTY, Gallimard, 1964. .

[METZ 75] Psychanalyse et cinéma, Ouvrage collectif dirigé par Christian METZ... Seuil, 1975,

[MORT 92] Fin des temps modernes (La), Edgar MORIN, Globe Février 1992

[PESO 93] Cerveau en quatre dimensions, Marc PESCHANSKI, Hachette, 1993.

[PREV 93] Bâtisseurs de l'Imaginaire (les), Claude et Clovis PREVOST, Editions A.R.I.E., 1993. PSYC 78] Univers de la Psychologie, Encyclopédie en 7 vol., Lidis 1978.

[PURGE 94] Spirale Mystique (la), Jill PURCE, Ed Médicis, 1994

[QUEA 89] Les Chemins du Virtuel, Philippe QUEAU, CCI, 1989.

[QUEA 93] Virtuel, vertus et vertiges, Philippe QUEAU, INA, 1993.

[RACL 83] Pédagogie Interactive (La), Gabriel RACLE, Retz, 1983.

[RAND 77] Art Visionnaire (I'), Michel RANDOM, Nathan, 1977

[RECH 96] Ordinateur au doigt et à l'oeil (r), Numéro spécial, La Recherche, N°285, Mars 1996. [RICH 88] Ce que révèlent leurs phrases, François RICHAUDEAU, Retz 1988.

[RUCK 84] Quatrième dimension (la), Rudy RUCKER, Seuil, 1984

[SCHEF 81] La Nouvelle Communication, Albert SCHEFLEN, Points N°136. seuil , 1981.

[SOIL 70] Topologie des formations de l'Inconscient et Le clivage du Sujet, Scilicet, Ecole freudienne de Paris, Seuil 1970.

[SERB 91] Tiers Instruit (le), Michel SERRES, Bouin, 1991.

[SIRIC 82] Communication ou Manipulation, SIRIC (Sté Internationale de Recherche Interdisciplinaire, sur la Communication), Editions Empirika , 1982

[STEV 78] Formes dans la nature (les), Peter. S. STEVENS, Seuil, 1978.

[TiNL 77] Différence anthropologique (la) F.TINLAND, Aubier,1977.

[TOMA 78] Oreille et le langage (I'), A.TOMATIS, Seuil, 1978.

[TOMA 90] Troubles scolaires (les), L.SELLIN ET A.TOMATIS, Ergo Press, 1990. [TOUR 70] Roi des Aulnes (le), Michel TOURNIER, Gallimard, 1970. Prix GONCOURT. [TOUR 72] Vendredi ou les limbes du Pacifique, Michel TOURNIER, Gallimard, 1972. [TRUNG 90] Shambhala, La voie sacrée du guerrier, Chbgyam Trungpa, Seuil, 1990

[TRUNG 92] Voyage sans fin, Chbgyam Trungpa, Shambala publication, 1981, v.f Ed. Seuil 1992. [TRUNG 94] Mandala , un chaos ordonné, Chbgyam Trungpa, Seuil, 1999

[VAN 86] Source noire (La), Patrice VAN EERSEL, Grasset, 1986

[VATR 95] Hétéronomie et Autonomie, Bernard VATRICAN, 1995.

[vo 94] Inertie Polaire (I'), Paul VIRILIO, Bourgeois, 1994.

[WATZ] WATZLAWICK, BEAVIN, JACKSON. Une logique de la communication. POINT 1979

[WEis 91] Les réseaux de l'an 2000, Marc WEISER, Pour La Science N°169, Novembre 1991. [WILS 84] Relations interpersonnelles (les), WILSON Leaming,1984.

BIBLIOGRAPHIE (extrait)

DREYFUS, Hubert L., 1972, 1979, Intelligence artificielle, Mythes et limites, (What Computers can't do, The Limits of Artificial Intelligence, Harper & Row, Publisher, inc., New York), Avant-propos Daniel Andler et Jacques Perriault, Préface d'Anthony G. Oettinger, Discussions de Jacques Arsac, « L'informatique et le sens », Mario Borillo, « Limites de l'autonomie décisionnelle des machines », et Jacques Pitrat, « Quelques remarques sur Intelligence artificielle, Mythes et limites », 1984, Flammarion, 442 p.

SEARLE, John, 1984, Du cerveau au savoir : Conférence Reith 1984 de la BBC, Hermann, Paris, 1985, 143 p.

WEIZENBAUM, Joseph, 1976, Puissance de l'ordinateur et raison de l'homme, Éditions d'informatique, Paris, 1981, 195 p.

WINOGRAD, Terry, FLORES, Fernando, 1986, L'intelligence artificielle en question, préface de Lucien Sfez, traduit de l'américain par Jean-Louis Peytavin, 1989, PUF, Paris, (Ablex Publishing Corporation, 1986), 296 p.

LE BRAS, Hervé, « Comment évolue le peuplement en France ? Les filaments urbains ? », Propos recueillis par Guitta Pessis-Pasternak, Libération, mercredi 14 avril 1993, p. 34).

MOREAU, René, 1987, Ainsi Naquit l'informatique, Dunod, Paris, 224 p.

PENEL, Henri-Pierre, 1993, « CD ou microsillon, quel son préférez-vous ? », Science et vie, n° 907, avril 1993, pp. 130-132.

PIAGET, Jean, 1967, La psychologie de l'intelligence, Armand Colin, Paris, 192 p.


courrier Merci de signaler à l'auteur toute erreur que vous trouveriez sur cette page
courrier Recommander cette page à un ami
Voir aussi :
Accueil Ball © 2005- Exergue - Paris Ball Légal Ball Ball Partenaires Ball Contacts