Précédente Accueil Remonter Suivante

Rapport de progrès #2

Précédente Suivante

Accueil
Énoncé
Description détaillée
Plan de développement
Rapports de progrès
Rapport final
Liens

 

 

  

 

       

 

 

Du 21 janvier au 11 février 2004:

Depuis le dernier rapport, j'ai entamé la programmation du modèle graphique. L'application consiste en une dérivation de l'objet "Learner" de la librairie PLearn. En plus des spécifications de la hiérarchie, elle est caractérisée par deux méthodes. La première (compute_posteriors), retourne les probabilités a posteriori des sens possibles des mots à désambiguïser, et ce pour chacun des mots contenus dans une fenêtre qui se déplace sur le corpus à traiter. Les mots à classe fermée (i.e. les mots qui n'ont pas de représentation sémantique) sont ignorés, et le rayon de la fenêtre sera un hyper-paramètre à optimiser plus tard. Les probabilités ainsi calculées serviront à développer une heuristique qui déterminera le choix du sens correct dans le modèle.  La seconde (em_learning) fait une mise à jour des probabilités non-observées du modèle selon la procédure de l'algorithme EM, à l'aide de l'information contenue dans le corpus d'entraînement. Trois cas sont distingués, soient les cas de données totalement supervisées, de données partiellement ou non supervisées, et de pseudo-données.

En bref, l'entraînement du modèle consiste seulement en l'alternance entre l'appel à la première méthode (pour tous les mots du corpus d'entraînement) et à la seconde. On pourra alors observer la progression de la performance du modèle, au fur et à mesure que seront ajustés les paramètres (i.e. les tables de probabilités) du modèle.

J'ai donc commencé l'implémentation de la méthode compute_posteriors et des parties totalement supervisées et partiellement/non supervisées de la méthode em_learning. Cependant, un problème de division par 0 subsiste toujours. En effet, ce genre de difficulté est très fréquent dans l'implémentation d'un modèle probabiliste. Un examen plus poussé de l'exécution du programme devrait me permettre de cibler la cause de ce bug.

Finalement, ayant remarqué que les modules pour données totalement supervisées et partiellement/non supervisées de la méthode em_learning sont très similaires, j'ai décidé de fusionner ces deux étapes de la conception de l'application. J'y consacrerai donc un total de 7 semaines, soit la somme des échéances prévues pour les deux étapes.


 

 

Précédente Accueil Suivante