-----
# Résultats numériques
Cette partie montre les résultats obtenus avec des variantes de l'algorithme décrit au
chapitre 5, en utilisant le package présenté au chapitre 6.
Les ........... options ...........
Cet algorithme est
systématiquement comparé à deux approches naïves :
* la moyenne des lendemains des jours de même type dans tout le passé, c'est-à-dire
prédiction = moyenne de tous les mardis passés si le jour courant est un lundi.
* la persistence, reproduisant le jour courant ou allant chercher le lendemain de la
dernière journée de même type (même principe que ci-dessus ; argument "same\_day").
Concernant l'algorithme principal à voisins, trois variantes sont étudiées dans cette
partie :
* avec simtype="mix" et raccordement "Neighbors" dans le cas "non local", i.e. on va
chercher des voisins n'importe où du moment qu'ils correspondent au premier élément d'un
couple de deux jours consécutifs sans valeurs manquantes.
* avec simtype="endo" + raccordement "Neighbors" puis simtype="none" + raccordement
"Zero" (sans ajustement) dans le cas "local" : voisins de même niveau de pollution et
même saison.
Pour chaque période retenue $-$ chauffage, épandage, semaine non polluée $-$ les erreurs
de prédiction sont d'abord affichées, puis quelques graphes de courbes réalisées/prévues
(sur le jour "en moyenne le plus facile" à gauche, et "en moyenne le plus difficile" à
droite). Ensuite plusieurs types de graphes apportant des précisions sur la nature et la
difficulté du problème viennent compléter ces premières courbes. Concernant les graphes
de filaments, la moitié gauche du graphe correspond aux jours similaires au jour courant,
tandis que la moitié droite affiche les lendemains : ce sont donc les voisinages tels
qu'utilisés dans l'algorithme.
<%
list_titles = ['Pollution par chauffage','Pollution par épandage','Semaine non polluée']
list_indices = ['indices_ch', 'indices_ep', 'indices_np']
%>
-----r
library(talweg)
P = ${P} #instant de prévision
H = ${H} #horizon (en heures)
ts_data = read.csv(system.file("extdata","pm10_mesures_H_loc_report.csv",
package="talweg"))
exo_data = read.csv(system.file("extdata","meteo_extra_noNAs.csv",
package="talweg"))
# NOTE: 'GMT' because DST gaps are filled and multiple values merged in
# above dataset. Prediction from P+1 to P+H included.
data = getData(ts_data, exo_data, input_tz = "GMT", working_tz="GMT",
predict_at=P)
indices_ch = seq(as.Date("2015-01-18"),as.Date("2015-01-24"),"days")
indices_ep = seq(as.Date("2015-03-15"),as.Date("2015-03-21"),"days")
indices_np = seq(as.Date("2015-04-26"),as.Date("2015-05-02"),"days")
% for i in range(3):
-----
##
${list_titles[i]}
${"##"} ${list_titles[i]}
-----r
p1 = computeForecast(data, ${list_indices[i]}, "Neighbors", "Neighbors", horizon=H,
simtype="mix", local=FALSE)
p2 = computeForecast(data, ${list_indices[i]}, "Neighbors", "Neighbors", horizon=H,
simtype="endo", local=TRUE)
p3 = computeForecast(data, ${list_indices[i]}, "Neighbors", "Zero", horizon=H,
simtype="none", local=TRUE)
p4 = computeForecast(data, ${list_indices[i]}, "Average", "Zero", horizon=H)
p5 = computeForecast(data, ${list_indices[i]}, "Persistence", "Zero", horizon=H,
same_day=${'TRUE' if loop.index < 2 else 'FALSE'})
-----r
e1 = computeError(data, p1, H)
e2 = computeError(data, p2, H)
e3 = computeError(data, p3, H)
e4 = computeError(data, p4, H)
e5 = computeError(data, p5, H)
options(repr.plot.width=9, repr.plot.height=7)
plotError(list(e1, e5, e4, e2, e3), cols=c(1,2,colors()[258],4,6))
# noir: Neighbors non-local (p1), bleu: Neighbors local endo (p2),
# mauve: Neighbors local none (p3), vert: moyenne (p4),
# rouge: persistence (p5)
##############TODO: expliquer "endo" "none"......etc
## ajouter fenêtres essais dans rapport. --> dans chapitre actuel.
## re-ajouter annexe sur ancienne méthode exo/endo/mix
## ---------> fenetres comment elles sont optimisées
#--------> ajouter à la fin quelques graphes montrant/comparant autres méthodes
#chapitre résumé avec différents essais conclusions. ---> synthèse des essais réalisés,
#avec sous-paragraphes avec conclusions H3/H17 sans surprises on améliore les choses,
#mais il y a des situations où c'est pas mieux.
#---------> fichier tex réinsérer synthèse de l'ensemble des essais réalisés.
#++++++++ ajouter à 13h
sum_p123 = e1$abs$indices + e2$abs$indices + e3$abs$indices
i_np = which.min(sum_p123) #indice de (veille de) jour "facile"
i_p = which.max(sum_p123) #indice de (veille de) jour "difficile"
-----
% if i == 0:
L'erreur absolue dépasse 20 sur 1 à 2 jours suivant les modèles (graphe en haut à
droite). ##C'est au-delà de ce que l'on aimerait voir (disons +/- 5 environ).
Sur cet
exemple le modèle à voisins "contraint" (local=TRUE) utilisant des pondérations basées
sur les similarités de forme (simtype="endo") obtient en moyenne les meilleurs résultats,
avec un MAPE restant en général inférieur à 30% de 8h à 19h (7+1 à 7+12 : graphe en bas à
gauche).
% elif i == 1:
Il est difficile dans ce cas de déterminer une méthode meilleure que les autres : elles
donnent toutes de plutôt mauvais résultats, avec une erreur absolue moyennée sur la
journée dépassant presque toujours 15 (graphe en haut à droite).
% else:
Dans ce cas plus favorable les intensité des erreurs absolues ont clairement diminué :
elles restent souvent en dessous de 5. En revanche le MAPE moyen reste au-delà de 20%, et
même souvent plus de 30%. Comme dans le cas de l'épandage on constate une croissance
globale de la courbe journalière d'erreur absolue moyenne (en haut à gauche) ; ceci peut
être dû au fait que l'on ajuste le niveau du jour à prédire en le recollant sur la
dernière valeur observée.
% endif
-----r
options(repr.plot.width=9, repr.plot.height=4)
par(mfrow=c(1,2))
plotPredReal(data, p1, i_np); title(paste("PredReal p1 day",i_np))
plotPredReal(data, p1, i_p); title(paste("PredReal p1 day",i_p))
plotPredReal(data, p2, i_np); title(paste("PredReal p2 day",i_np))
plotPredReal(data, p2, i_p); title(paste("PredReal p2 day",i_p))
plotPredReal(data, p3, i_np); title(paste("PredReal p3 day",i_np))
plotPredReal(data, p3, i_p); title(paste("PredReal p3 day",i_p))
# Bleu : prévue ; noir : réalisée
-----
% if i == 0:
La courbe non centrée du jour facile à prévoir (en noir),
##Le jour "facile à prévoir",
à gauche, se décompose en deux modes : un léger vers 10h
(7+3), puis un beaucoup plus marqué vers 19h (7+12). Ces deux modes sont retrouvés par
les trois variantes de l'algorithme à voisins, bien que l'amplitude soit mal prédite.
Concernant le jour "difficile à prévoir" (à droite) il y a deux pics en tout début et toute fin de
journée (à 9h et 23h), qui ne sont pas du tout anticipés par les méthodes ; la grande
amplitude de ces pics explique alors l'intensité de l'erreur observée.
% elif i == 1:
Dans le cas d'un jour "facile" à prédire $-$ à gauche $-$ la forme est plus ou moins
retrouvée, mais le niveau moyen est trop bas (courbe en bleu). Concernant le jour
"difficile" à droite, non seulement la forme n'est pas anticipée mais surtout le niveau
prédit est très inférieur au niveau de pollution observé. Comme on le voit ci-dessous
cela découle d'un manque de voisins au comportement similaire.
% else:
La forme est raisonnablement retrouvée pour les méthodes "locales", l'autre version
lissant trop les prédictions. Le biais reste cependant important, surtout en fin de
journée sur le jour "difficile".
% endif
-----r
par(mfrow=c(1,2))
f_np1 = computeFilaments(data, p1, i_np, plot=TRUE)
title(paste("Filaments p1 day",i_np))
f_p1 = computeFilaments(data, p1, i_p, plot=TRUE)
title(paste("Filaments p1 day",i_p))
f_np2 = computeFilaments(data, p2, i_np, plot=TRUE)
title(paste("Filaments p2 day",i_np))
f_p2 = computeFilaments(data, p2, i_p, plot=TRUE)
title(paste("Filaments p2 day",i_p))
-----
% if i == 0:
Les voisins du jour courant (période de 24h allant de 8h à 7h le lendemain) sont affichés
avec un trait d'autant plus sombre qu'ils sont proches. On constate dans le cas non
contraint (en haut) une grande variabilité des lendemains, très nette sur le graphe en
haut à droite. Ceci indique une faible corrélation entre la forme d'une courbe sur une
période de 24h et la forme sur les 24h suivantes ; **cette observation est la source des
difficultés rencontrées par l'algorithme sur ce jeu de données.**
% elif i == 1:
Les observations sont les mêmes qu'au paragraphe précédent : trop de variabilité des
lendemains (et même des voisins du jour courant).
% else:
Les graphes de filaments ont encore la même allure, avec une assez grande variabilité
observée. Cette observation est cependant trompeuse, comme l'indique plus bas le graphe
de variabilité relative.
% endif
-----r
par(mfrow=c(1,2))
plotFilamentsBox(data, f_np1); title(paste("FilBox p1 day",i_np))
plotFilamentsBox(data, f_p1); title(paste("FilBox p1 day",i_p))
## Questions :
#7h VS 13h
#est-ce que prévoir 24h ou 13 ou 3 facilite.
#amplitude erreur raisonnable ? probleme facile difficile ?
#place des exogènes ?
#H = ?
#épandage > chauffage > np
# En pointillés la courbe du jour courant + lendemain (à prédire)
-----
% if i == 0:
Sur cette boxplot fonctionnelle (voir la fonction fboxplot() du package R "rainbow") on
constate essentiellement deux choses : le lendemain d'un voisin "normal" peut se révéler
être une courbe atypique, fort éloignée de ce que l'on souhaite prédire (courbes bleue et
rouge à gauche) ; et, dans le cas d'une courbe à prédire atypique (à droite) la plupart
des voisins sont trop éloignés de la forme à prédire et forcent ainsi un aplatissement de
la prédiction.
% elif i == 1:
On constate la présence d'un voisin au lendemain complètement atypique avec un pic en
début de journée (courbe en vert à gauche), et d'un autre phénomène semblable avec la
courbe rouge sur le graphe de droite. Ajouté au fait que le lendemain à prévoir est
lui-même un jour "hors norme", cela montre l'impossibilité de bien prévoir une courbe en
utilisant l'algorithme à voisins.
% else:
On peut réappliquer les mêmes remarques qu'auparavant sur les boxplots fonctionnels :
lendemains de voisins atypiques, courbe à prévoir elle-même légèrement "hors norme".
% endif
-----r
par(mfrow=c(1,2))
plotRelVar(data, f_np1); title(paste("StdDev p1 day",i_np))
plotRelVar(data, f_p1); title(paste("StdDev p1 day",i_p))
plotRelVar(data, f_np2); title(paste("StdDev p2 day",i_np))
plotRelVar(data, f_p2); title(paste("StdDev p2 day",i_p))
# Variabilité globale en rouge ; sur les voisins (+ lendemains) en noir
-----
% if i == 0:
Ces graphes viennent confirmer l'impression visuelle après observation des filaments. En
effet, la variabilité globale en rouge (écart-type heure par heure sur l'ensemble des
couples "aujourd'hui/lendemain"du passé) devrait rester nettement au-dessus de la
variabilité locale, calculée respectivement sur un voisinage d'une soixantaine de jours
(pour p1) et d'une dizaine de jours (pour p2). Or on constate que ce n'est pas du tout le
cas sur la période "lendemain", sauf en partie pour p2 le jour 4 $-$ mais ce n'est pas
suffisant.
% elif i == 1:
Comme précédemment les variabilités locales et globales sont confondues dans les parties
droites des graphes $-$ sauf pour la version "locale" sur le jour "facile"; mais cette
bonne propriété n'est pas suffisante si l'on ne trouve pas les bons poids à appliquer.
% else:
Cette fois la situation idéale est observée : la variabilité globale est nettement
au-dessus de la variabilité locale. Bien que cela ne suffise pas à obtenir de bonnes
prédictions de forme, on constate au moins l'amélioration dans la prédiction du niveau.
% endif
-----r
par(mfrow=c(1,2))
plotSimils(p1, i_np); title(paste("Weights p1 day",i_np))
plotSimils(p1, i_p); title(paste("Weights p1 day",i_p))
plotSimils(p2, i_np); title(paste("Weights p2 day",i_np))
plotSimils(p2, i_p); title(paste("Weights p2 day",i_p))
-----
% if i == 0:
Les poids se concentrent près de 0 dans le cas "non local" (p1), et se répartissent assez
uniformément dans [ 0, 0.2 ] dans le cas "local" (p2). C'est ce que l'on souhaite
observer pour éviter d'effectuer une simple moyenne.
% elif i == 1:
En comparaison avec le pragraphe précédent on retrouve le même (bon) comportement des
poids pour la version "non locale". En revanche la fenêtre optimisée est trop grande sur
le jour "facile" pour la méthode "locale" (voir affichage ci-dessous) : il en résulte des
poids tous semblables autour de 0.084, l'algorithme effectue donc une moyenne simple $-$
expliquant pourquoi les courbes mauve et bleue sont très proches sur le graphe d'erreurs.
% else:
Concernant les poids en revanche, deux cas a priori mauvais se cumulent :
* les poids dans le cas "non local" ne sont pas assez concentrés autour de 0, menant à
un lissage trop fort $-$ comme observé sur les graphes des courbes réalisées/prévues ;
* les poids dans le cas "local" sont trop semblables (à cause de la trop grande fenêtre
optimisée par validation croisée, cf. ci-dessous), résultant encore en une moyenne simple
$-$ mais sur moins de jours, plus proches du jour courant.
% endif
-----r
# Fenêtres sélectionnées dans ]0,7] :
# "non-local" 2 premières lignes, "local" ensuite
p1$getParams(i_np)$window
p1$getParams(i_p)$window
p2$getParams(i_np)$window
p2$getParams(i_p)$window
% endfor
-----
${"##"} Bilan
Nos algorithmes à voisins ne sont pas adaptés à ce jeu de données où la forme varie
considérablement d'un jour à l'autre.
Toutefois, un espoir reste permis par exemple en aggrégeant les courbes spatialement (sur
plusieurs stations situées dans la même agglomération ou dans une même zone).
##Plus généralement cette décorrélation de forme rend
##ardue la tâche de prévision pour toute autre méthode $-$ du moins, nous ne savons pas
##comment procéder pour parvenir à une bonne précision.