1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

222

Chapitre 7

IMAGE imgs/Chapitre717.gif
IMAGE imgs/Chapitre718.gif

Corynonema: ex3

Fig. 7.4 : Consultation de l'arbre de décision de la figure 7.3

Pourtant lorsque nous regardons la forme du corps de ex1, nous nous apercevons que celle-ci est "ellipsoide". Il y a donc une incohérence avec les informations fournies par l'utilisateur puisque le cas courant a la forme du corps "conique". Le cas courant ne peut donc pas être une Paradisconema. Le système expert n'a pas fait cette conclusion car l'information sur la forme du corps de ex1, présente dans les données originales, a été délaissée suite à la phase d'induction. Ce problème se retrouve dans tout raisonnement à partir de connaissances générales (acquises par apprentissage ou non).

On pourrait objecter que lorsque les exemples d'apprentissage présentent des configurations de valeurs inconnues analogues à celles rencontrées durant la consultation, nous obtiendrions le bon résultat. En fait, pour de nombreuses applications du monde réel, il serait absurde de constituer une base d'exemples comprenant toutes les configurations d'inconnu possibles. Il semble aussi fallacieux de présenter comme un enrichissement de la connaissance l'accumulation de non-information !

7.2.2.3 Rigidité de la consultation interactive

Mis à part le problème des réponses inconnues, le raisonnement à partir d'arbres de décision présente d'autres limites. Le raisonnement est trop dirigiste et l'utilisateur est contraint de répondre aux questions dans un ordre pré-déterminé et rigide. Si ce mode de consultation est adapté pour des utilisateurs naïfs, il ne l'est plus lorsque l'utilisateur final est un expert du domaine. En effet, l'expert se lasse vite de ce jeu des questions-réponses alors qu'il estime pouvoir fournir directement l'information discriminante. Il est éventuellement prêt à répondre à 2 ou 3 questions complémentaires si cette information est insuffisante pour conclure, mais il veut rester maître de la consultation et entend suivre son propre raisonnement plutôt que la progression "artificielle" de la déduction.

De plus, le problème de tous les systèmes experts à base de règles de production (ou d'un arbre de décision) est qu'ils sont incapables de court-circuiter leur mécanismes habituels devant un cas particulier alors que des experts humains prennent parfois une décision brusque simplement parce que par exemple la