----- # Résultats numériques Cette partie montre les résultats obtenus avec des variantes de l'algorithme décrit au chapitre 5, en utilisant le package présenté au chapitre 6. Les ........... options ........... Cet algorithme est systématiquement comparé à deux approches naïves : * la moyenne des lendemains des jours de même type dans tout le passé, c'est-à-dire prédiction = moyenne de tous les mardis passés si le jour courant est un lundi. * la persistence, reproduisant le jour courant ou allant chercher le lendemain de la dernière journée de même type (même principe que ci-dessus ; argument "same\_day"). Concernant l'algorithme principal à voisins, trois variantes sont étudiées dans cette partie : * avec simtype="mix" et raccordement "Neighbors" dans le cas "non local", i.e. on va chercher des voisins n'importe où du moment qu'ils correspondent au premier élément d'un couple de deux jours consécutifs sans valeurs manquantes. * avec simtype="endo" + raccordement "Neighbors" puis simtype="none" + raccordement "Zero" (sans ajustement) dans le cas "local" : voisins de même niveau de pollution et même saison. Pour chaque période retenue $-$ chauffage, épandage, semaine non polluée $-$ les erreurs de prédiction sont d'abord affichées, puis quelques graphes de courbes réalisées/prévues (sur le jour "en moyenne le plus facile" à gauche, et "en moyenne le plus difficile" à droite). Ensuite plusieurs types de graphes apportant des précisions sur la nature et la difficulté du problème viennent compléter ces premières courbes. Concernant les graphes de filaments, la moitié gauche du graphe correspond aux jours similaires au jour courant, tandis que la moitié droite affiche les lendemains : ce sont donc les voisinages tels qu'utilisés dans l'algorithme. <% list_titles = ['Pollution par chauffage','Pollution par épandage','Semaine non polluée'] list_indices = ['indices_ch', 'indices_ep', 'indices_np'] %> -----r library(talweg) P = ${P} #instant de prévision H = ${H} #horizon (en heures) ts_data = read.csv(system.file("extdata","pm10_mesures_H_loc_report.csv", package="talweg")) exo_data = read.csv(system.file("extdata","meteo_extra_noNAs.csv", package="talweg")) # NOTE: 'GMT' because DST gaps are filled and multiple values merged in # above dataset. Prediction from P+1 to P+H included. data = getData(ts_data, exo_data, input_tz = "GMT", working_tz="GMT", predict_at=P) indices_ch = seq(as.Date("2015-01-18"),as.Date("2015-01-24"),"days") indices_ep = seq(as.Date("2015-03-15"),as.Date("2015-03-21"),"days") indices_np = seq(as.Date("2015-04-26"),as.Date("2015-05-02"),"days") % for i in range(3): ----- ##

${list_titles[i]}

${"##"} ${list_titles[i]} -----r p1 = computeForecast(data, ${list_indices[i]}, "Neighbors", "Neighbors", horizon=H, simtype="mix", local=FALSE) p2 = computeForecast(data, ${list_indices[i]}, "Neighbors", "Neighbors", horizon=H, simtype="endo", local=TRUE) p3 = computeForecast(data, ${list_indices[i]}, "Neighbors", "Zero", horizon=H, simtype="none", local=TRUE) p4 = computeForecast(data, ${list_indices[i]}, "Average", "Zero", horizon=H) p5 = computeForecast(data, ${list_indices[i]}, "Persistence", "Zero", horizon=H, same_day=${'TRUE' if loop.index < 2 else 'FALSE'}) -----r e1 = computeError(data, p1, H) e2 = computeError(data, p2, H) e3 = computeError(data, p3, H) e4 = computeError(data, p4, H) e5 = computeError(data, p5, H) options(repr.plot.width=9, repr.plot.height=7) plotError(list(e1, e5, e4, e2, e3), cols=c(1,2,colors()[258],4,6)) # noir: Neighbors non-local (p1), bleu: Neighbors local endo (p2), # mauve: Neighbors local none (p3), vert: moyenne (p4), # rouge: persistence (p5) ##############TODO: expliquer "endo" "none"......etc ## ajouter fenêtres essais dans rapport. --> dans chapitre actuel. ## re-ajouter annexe sur ancienne méthode exo/endo/mix ## ---------> fenetres comment elles sont optimisées #--------> ajouter à la fin quelques graphes montrant/comparant autres méthodes #chapitre résumé avec différents essais conclusions. ---> synthèse des essais réalisés, #avec sous-paragraphes avec conclusions H3/H17 sans surprises on améliore les choses, #mais il y a des situations où c'est pas mieux. #---------> fichier tex réinsérer synthèse de l'ensemble des essais réalisés. #++++++++ ajouter à 13h sum_p123 = e1$abs$indices + e2$abs$indices + e3$abs$indices i_np = which.min(sum_p123) #indice de (veille de) jour "facile" i_p = which.max(sum_p123) #indice de (veille de) jour "difficile" ----- % if i == 0: L'erreur absolue dépasse 20 sur 1 à 2 jours suivant les modèles (graphe en haut à droite). ##C'est au-delà de ce que l'on aimerait voir (disons +/- 5 environ). Sur cet exemple le modèle à voisins "contraint" (local=TRUE) utilisant des pondérations basées sur les similarités de forme (simtype="endo") obtient en moyenne les meilleurs résultats, avec un MAPE restant en général inférieur à 30% de 8h à 19h (7+1 à 7+12 : graphe en bas à gauche). % elif i == 1: Il est difficile dans ce cas de déterminer une méthode meilleure que les autres : elles donnent toutes de plutôt mauvais résultats, avec une erreur absolue moyennée sur la journée dépassant presque toujours 15 (graphe en haut à droite). % else: Dans ce cas plus favorable les intensité des erreurs absolues ont clairement diminué : elles restent souvent en dessous de 5. En revanche le MAPE moyen reste au-delà de 20%, et même souvent plus de 30%. Comme dans le cas de l'épandage on constate une croissance globale de la courbe journalière d'erreur absolue moyenne (en haut à gauche) ; ceci peut être dû au fait que l'on ajuste le niveau du jour à prédire en le recollant sur la dernière valeur observée. % endif -----r options(repr.plot.width=9, repr.plot.height=4) par(mfrow=c(1,2)) plotPredReal(data, p1, i_np); title(paste("PredReal p1 day",i_np)) plotPredReal(data, p1, i_p); title(paste("PredReal p1 day",i_p)) plotPredReal(data, p2, i_np); title(paste("PredReal p2 day",i_np)) plotPredReal(data, p2, i_p); title(paste("PredReal p2 day",i_p)) plotPredReal(data, p3, i_np); title(paste("PredReal p3 day",i_np)) plotPredReal(data, p3, i_p); title(paste("PredReal p3 day",i_p)) # Bleu : prévue ; noir : réalisée ----- % if i == 0: La courbe non centrée du jour facile à prévoir (en noir), ##Le jour "facile à prévoir", à gauche, se décompose en deux modes : un léger vers 10h (7+3), puis un beaucoup plus marqué vers 19h (7+12). Ces deux modes sont retrouvés par les trois variantes de l'algorithme à voisins, bien que l'amplitude soit mal prédite. Concernant le jour "difficile à prévoir" (à droite) il y a deux pics en tout début et toute fin de journée (à 9h et 23h), qui ne sont pas du tout anticipés par les méthodes ; la grande amplitude de ces pics explique alors l'intensité de l'erreur observée. % elif i == 1: Dans le cas d'un jour "facile" à prédire $-$ à gauche $-$ la forme est plus ou moins retrouvée, mais le niveau moyen est trop bas (courbe en bleu). Concernant le jour "difficile" à droite, non seulement la forme n'est pas anticipée mais surtout le niveau prédit est très inférieur au niveau de pollution observé. Comme on le voit ci-dessous cela découle d'un manque de voisins au comportement similaire. % else: La forme est raisonnablement retrouvée pour les méthodes "locales", l'autre version lissant trop les prédictions. Le biais reste cependant important, surtout en fin de journée sur le jour "difficile". % endif -----r par(mfrow=c(1,2)) f_np1 = computeFilaments(data, p1, i_np, plot=TRUE) title(paste("Filaments p1 day",i_np)) f_p1 = computeFilaments(data, p1, i_p, plot=TRUE) title(paste("Filaments p1 day",i_p)) f_np2 = computeFilaments(data, p2, i_np, plot=TRUE) title(paste("Filaments p2 day",i_np)) f_p2 = computeFilaments(data, p2, i_p, plot=TRUE) title(paste("Filaments p2 day",i_p)) ----- % if i == 0: Les voisins du jour courant (période de 24h allant de 8h à 7h le lendemain) sont affichés avec un trait d'autant plus sombre qu'ils sont proches. On constate dans le cas non contraint (en haut) une grande variabilité des lendemains, très nette sur le graphe en haut à droite. Ceci indique une faible corrélation entre la forme d'une courbe sur une période de 24h et la forme sur les 24h suivantes ; **cette observation est la source des difficultés rencontrées par l'algorithme sur ce jeu de données.** % elif i == 1: Les observations sont les mêmes qu'au paragraphe précédent : trop de variabilité des lendemains (et même des voisins du jour courant). % else: Les graphes de filaments ont encore la même allure, avec une assez grande variabilité observée. Cette observation est cependant trompeuse, comme l'indique plus bas le graphe de variabilité relative. % endif -----r par(mfrow=c(1,2)) plotFilamentsBox(data, f_np1); title(paste("FilBox p1 day",i_np)) plotFilamentsBox(data, f_p1); title(paste("FilBox p1 day",i_p)) ## Questions : #7h VS 13h #est-ce que prévoir 24h ou 13 ou 3 facilite. #amplitude erreur raisonnable ? probleme facile difficile ? #place des exogènes ? #H = ? #épandage > chauffage > np # En pointillés la courbe du jour courant + lendemain (à prédire) ----- % if i == 0: Sur cette boxplot fonctionnelle (voir la fonction fboxplot() du package R "rainbow") on constate essentiellement deux choses : le lendemain d'un voisin "normal" peut se révéler être une courbe atypique, fort éloignée de ce que l'on souhaite prédire (courbes bleue et rouge à gauche) ; et, dans le cas d'une courbe à prédire atypique (à droite) la plupart des voisins sont trop éloignés de la forme à prédire et forcent ainsi un aplatissement de la prédiction. % elif i == 1: On constate la présence d'un voisin au lendemain complètement atypique avec un pic en début de journée (courbe en vert à gauche), et d'un autre phénomène semblable avec la courbe rouge sur le graphe de droite. Ajouté au fait que le lendemain à prévoir est lui-même un jour "hors norme", cela montre l'impossibilité de bien prévoir une courbe en utilisant l'algorithme à voisins. % else: On peut réappliquer les mêmes remarques qu'auparavant sur les boxplots fonctionnels : lendemains de voisins atypiques, courbe à prévoir elle-même légèrement "hors norme". % endif -----r par(mfrow=c(1,2)) plotRelVar(data, f_np1); title(paste("StdDev p1 day",i_np)) plotRelVar(data, f_p1); title(paste("StdDev p1 day",i_p)) plotRelVar(data, f_np2); title(paste("StdDev p2 day",i_np)) plotRelVar(data, f_p2); title(paste("StdDev p2 day",i_p)) # Variabilité globale en rouge ; sur les voisins (+ lendemains) en noir ----- % if i == 0: Ces graphes viennent confirmer l'impression visuelle après observation des filaments. En effet, la variabilité globale en rouge (écart-type heure par heure sur l'ensemble des couples "aujourd'hui/lendemain"du passé) devrait rester nettement au-dessus de la variabilité locale, calculée respectivement sur un voisinage d'une soixantaine de jours (pour p1) et d'une dizaine de jours (pour p2). Or on constate que ce n'est pas du tout le cas sur la période "lendemain", sauf en partie pour p2 le jour 4 $-$ mais ce n'est pas suffisant. % elif i == 1: Comme précédemment les variabilités locales et globales sont confondues dans les parties droites des graphes $-$ sauf pour la version "locale" sur le jour "facile"; mais cette bonne propriété n'est pas suffisante si l'on ne trouve pas les bons poids à appliquer. % else: Cette fois la situation idéale est observée : la variabilité globale est nettement au-dessus de la variabilité locale. Bien que cela ne suffise pas à obtenir de bonnes prédictions de forme, on constate au moins l'amélioration dans la prédiction du niveau. % endif -----r par(mfrow=c(1,2)) plotSimils(p1, i_np); title(paste("Weights p1 day",i_np)) plotSimils(p1, i_p); title(paste("Weights p1 day",i_p)) plotSimils(p2, i_np); title(paste("Weights p2 day",i_np)) plotSimils(p2, i_p); title(paste("Weights p2 day",i_p)) ----- % if i == 0: Les poids se concentrent près de 0 dans le cas "non local" (p1), et se répartissent assez uniformément dans [ 0, 0.2 ] dans le cas "local" (p2). C'est ce que l'on souhaite observer pour éviter d'effectuer une simple moyenne. % elif i == 1: En comparaison avec le pragraphe précédent on retrouve le même (bon) comportement des poids pour la version "non locale". En revanche la fenêtre optimisée est trop grande sur le jour "facile" pour la méthode "locale" (voir affichage ci-dessous) : il en résulte des poids tous semblables autour de 0.084, l'algorithme effectue donc une moyenne simple $-$ expliquant pourquoi les courbes mauve et bleue sont très proches sur le graphe d'erreurs. % else: Concernant les poids en revanche, deux cas a priori mauvais se cumulent : * les poids dans le cas "non local" ne sont pas assez concentrés autour de 0, menant à un lissage trop fort $-$ comme observé sur les graphes des courbes réalisées/prévues ; * les poids dans le cas "local" sont trop semblables (à cause de la trop grande fenêtre optimisée par validation croisée, cf. ci-dessous), résultant encore en une moyenne simple $-$ mais sur moins de jours, plus proches du jour courant. % endif -----r # Fenêtres sélectionnées dans ]0,7] : # "non-local" 2 premières lignes, "local" ensuite p1$getParams(i_np)$window p1$getParams(i_p)$window p2$getParams(i_np)$window p2$getParams(i_p)$window % endfor ----- ${"##"} Bilan Nos algorithmes à voisins ne sont pas adaptés à ce jeu de données où la forme varie considérablement d'un jour à l'autre. Toutefois, un espoir reste permis par exemple en aggrégeant les courbes spatialement (sur plusieurs stations situées dans la même agglomération ou dans une même zone). ##Plus généralement cette décorrélation de forme rend ##ardue la tâche de prévision pour toute autre méthode $-$ du moins, nous ne savons pas ##comment procéder pour parvenir à une bonne précision.