7.1.4.2 Meilleure_division (E, s)
Par principe, l'entropie est mesurée sur un attribut que l'on désire apprendre
(C par exemple), en fabriquant une caractérisation de cet attribut à l'aide d'autres
attributs. C'est alors que se justifie la mesure du gain d'information :
Le Gain d'informationest la mesure de l'accroissement d'ordre sur C
qu'introduit le choix d'un autre attribut A : plus ce gain est élevé, plus la
répartition des exemples pour chaque classe est homogène (le meilleur gain est
celui qui représente l'équi-répartition des exemples). C'est le gain calculé le plus
élevé qui permet de choisir le meilleur attribut permettant d'apprendre C, qui
permet donc la meilleure division au noeud courant.
La formule du gain d'information est la suivante :
|