Variations autour du modèle des VLMC (= Variable Length Markov Chains)
Brigitte Vallée (GREYC, Caen)Je commencerai par quelques rappels sur les processus généraux qui produisent des mots, appelés sources, leurs séries génératrices, leur entropie et leur poids de Shannon. Je mentionnerai les sources simples (les sources sans mémoire, les chaînes de Markov).
Puis, j’introduirai le modèle des VLMC (= Variable Length Markov Chains) qui se situe juste « au-dessus » du modèle de chaines de Markov, (qu’on peut d’ailleurs voir comme des VLMC de longueur fixe.) J’en décrirai une classe particulière, qui implémente la notion du renouvellement, paramétrée par un réel \(\beta>0\) et désignée par \({\cal V}_\beta\).
Via les séries génératrices et l’analyse de singularités, j’analyserai cette source selon les différentes valeurs de \(\beta\), et étudierai en particulier son entropie, et son poids de Shannon. Pour \(\beta>1\), cette source est d’entropie positive, et devient d’entropie nulle pour \(\beta \le 1\).
La valeur \(\beta = 1\) est particulièrement intéressante, car la source \({\cal V}_1\) « approxime » (en un sens précis) une source célèbre, la source de Farey, que j’introduirai également.
Comme notre travail estime le poids de Shannon de la source \({\cal V}_1\), et prouve qu’il est en \(O(n/\log n)\), il donne un argument important pour la conjecture suivante (non encore démontrée…): « Le poids de Shannon de la source de Farey est en \(O(n/\log n)\) ».