Tout oublier pour mieux apprendre : une nouvelle méthode pour éduquer l’IA du futur ?

Tout oublier pour mieux apprendre : une nouvelle méthode pour éduquer l’IA du futur ?

Et si nous devions apprendre à oublier pour apprendre plus vite ? Des chercheurs sud-coréens ont mis au point un modèle de « machine learning » particulièrement efficace dans l’apprentissage des langues. Celui-ci permettrait à une IA d’apprendre de nouvelles langues bien plus vite, et surtout avec moins de ressources informatiques que les modèles actuels de machine learning.

Actuellement, les modèles de machine learning reposent sur l’enrichissement constant en nouvelles données. Si l’on souhaite créer une IA bilingue, il faut l’entraîner en lui soumettant une grande quantité de textes à analyser dans chacune des deux langues. Problème : lorsque l’on souhaite remplacer une langue par une autre dans ces modèles, il faut en principe recommencer l’apprentissage de zéro. Une opération extrêmement chronophage et nécessitant toujours de grandes quantités d’informations ainsi que de capacités informatiques. 

Oublier le superficiel pour ne retenir que le sens profond des choses

Le nouveau modèle pensé par les chercheurs sud-coréens consiste à effacer une partie du savoir déjà acquis par l’IA, en particulier la formulation des mots (ou token). A contrario, les autres informations telles que les définitions ou le contexte d’utilisation du mot dans une discussion sont préservées. « Nous vivons dans le même monde et nous conceptualisons les mêmes choses avec des mots différents », explique Yihong Chen, chercheur responsable de la publication scientifique à ce sujet. Que l’on dise « une pomme » en français, ou « an apple » en anglais, ces deux mots font référence à la même définition et au même concept. Oublier le mot français sans oublier sa définition faciliterait donc l’acquisition de la forme anglaise (et vice versa) avec un modèle de machine learning nécessitant moins de données pour être performant, le rendant plus accessible aux acteurs moins pourvus en data. Les derniers tests tendent à démontrer que ce modèle basé sur l’oubli sélectif serait beaucoup plus performant que les modèles traditionnels de machine learning, en particulier dans des conditions où l’accès aux données ou la puissance de calcul sont limitées. Cela ouvrirait le champ des possibles tant économiquement qu’écologiquement, mais aussi pour faciliter la répartition équitable de l’IA à travers le monde, et ce, pour des cas d’usage plus variés que le traitement des langues étrangères.

(Source : Wired)

Crédits : © Adobe Stock

PLUS DE TENDANCES

Abonnez-vous
à notre newsletter
et magazine

Inscription gratuite