You are on page 1of 169

Gestion des risques dans les stratégies de planification

des réseaux électriques intelligents basse tension


Pierre Laize

To cite this version:


Pierre Laize. Gestion des risques dans les stratégies de planification des réseaux électriques intelli-
gents basse tension. Energie électrique. Université Grenoble Alpes [2020-..], 2022. Français. �NNT :
2022GRALT083�. �tel-04001579�

HAL Id: tel-04001579


https://theses.hal.science/tel-04001579
Submitted on 23 Feb 2023

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
THÈSE
Pour obtenir le grade de

DOCTEUR DE L’UNIVERSITÉ GRENOBLE ALPES


École doctorale : EEATS - Electronique, Electrotechnique, Automatique, Traitement du Signal (EEATS)
Spécialité : Génie électrique
Unité de recherche : Laboratoire de Génie Electrique

Gestion des risques dans les stratégies de planification des réseaux


électriques intelligents basse tension
Risk management in low voltage Smart Grid planning strategies
Présentée par :
Pierre LAIZE
Direction de thèse :
Raphael CAIRE Directeur de thèse
MAITRE DE CONFERENCES, Université Grenoble Alpes
Marie-Cécile ALVAREZ-HERAULT Co-directrice de thèse
Maitre de Conférences, Université Grenoble Alpes

Rapporteurs :
Guillaume SANDOU
PROFESSEUR DES UNIVERSITES, UNIVERSITE PARIS-SACLAY
Bruno FRANCOIS
PROFESSEUR, ECOLE CENTRALE LILLE
Thèse soutenue publiquement le 17 novembre 2022, devant le jury composé de :
Guillaume SANDOU Rapporteur
PROFESSEUR DES UNIVERSITES, UNIVERSITE PARIS-SACLAY
Bruno FRANCOIS Rapporteur
PROFESSEUR, ECOLE CENTRALE LILLE
MATHIEU CAUJOLLE Examinateur
INGENIEUR DOCTEUR, EDF R&D
Bertrand RAISON Président
PROFESSEUR DES UNIVERSITES, UNIVERSITE GRENOBLE
ALPES

Invités :
Aurel GARRY
INGENIEUR DOCTEUR, EDF R&D
Marie-Cécile ALVAREZ-HERAULT
MAITRE DE CONFERENCE, G2elab
1
Gestion des risques
dans les stratégies de
planification des
réseaux électriques
intelligents basse
tension

Pierre LAIZE

2
Table des matières
Remerciements ....................................................................................................................................... 6
Glossaire : .............................................................................................................................................. 12
Liste des figures : ................................................................................................................................... 13
Liste des tableaux : ................................................................................................................................ 16
I. Introduction générale.................................................................................................................... 18
I.1 Le réseau électrique .............................................................................................................. 20
I.2 Préparer l’évolution des réseaux électriques........................................................................ 21
I.3 Les verrous scientifiques pour la planification des réseaux basse tension ........................... 23
I.4 Positionnement et contributions .......................................................................................... 24
I.5 Plan de la thèse ..................................................................................................................... 26
II. Evolution des besoins pour la planification basse tension............................................................ 28
II.1 Planification des réseaux de distribution .............................................................................. 29
II.1.a La situation dimensionnante : Enjeux et modélisation ..................................................... 29
II.1.b Contraintes : apparition et résolution ........................................................................... 31
II.1.c Limite de la situation dimensionnante .............................................................................. 32
II.2 Evolution des réseaux intelligents basse tension .................................................................. 34
II.2.a Instrumentation du réseau................................................................................................ 34
II.2.b Evolution des ressources locales (VE, PV, PAC) et des processus de planification ....... 35
II.2.c Les solutions de flexibilités : présentation et intégration ................................................. 38
II.3 Méthodes de modélisation ................................................................................................... 46
II.4 Conclusion ............................................................................................................................. 48
III. Evaluation des modèles dans les processus de planification BT ............................................... 50
III.1 Analyse de sensibilité ............................................................................................................ 50
III.1.a Analyse de sensibilité Globale ....................................................................................... 51
III.1.b Les méthodes d’analyse de sensibilité .......................................................................... 53
III.1.c Présentation des méthodes retenues ........................................................................... 54
III.2 Utilisation de la méthode des indices de Sobol pour les réseaux ......................................... 59
III.2.a Mise en forme des variables ......................................................................................... 59
III.2.b Première modélisation des variables d’entrées ............................................................ 60
III.2.c Application de la méthode de Sobol ............................................................................. 66
III.2.d Analyse des résultats ..................................................................................................... 70
III.2.e Mise à jour des variables d’entrées............................................................................... 71
III.3 Conclusion ............................................................................................................................. 73
IV. Méthodologie de planification des investissements ................................................................. 76
IV.1 Hypothèses et simulations pour la planification long terme ................................................ 78

3
IV.2 Augmentation de la capacité d’accueil ................................................................................. 78
IV.2.a Choix du segment à renforcer ....................................................................................... 79
IV.2.b Choix des flexibilités à activer ....................................................................................... 80
IV.2.c La flexibilité pour la planification long terme................................................................ 82
IV.2.d Flexibilités pour la production ....................................................................................... 83
IV.2.e Mixte renforcement et flexibilité. ................................................................................. 85
IV.3 Estimation de l’énergie annuelle à effacer............................................................................ 86
IV.4 Calcul du coût d’une solution Smart Grid.............................................................................. 89
IV.4.a Intégration de la notion de non-activation de la flexibilité ........................................... 89
IV.4.b Intégration de la notion de pénalité.............................................................................. 91
IV.4.c Intégration de la notion de sévérité de la contrainte ................................................... 91
IV.4.d Coût d’une solution Smart Grid : conclusion et perspectives ....................................... 93
IV.5 Projection pluriannuelle des solutions obtenues .................................................................. 94
IV.6 Choix de la solution optimale d’investissement.................................................................... 97
IV.7 Conclusion ............................................................................................................................. 99
V. Application sur des cas d’études réalistes................................................................................... 102
V.1 Données d’entrée du modèle et hypothèses de calcul ....................................................... 102
V.2 Simulation de dimensionnement sur la dernière année cible ............................................ 108
V.3 Simulation de dimensionnement, test des solutions et estimation des besoins sur les années
cibles intermédiaires ....................................................................................................................... 117
V.4 Estimation de l'énergie annuelle à effacer sur les années cibles ........................................ 120
V.5 Estimation du coût de chaque solution............................................................................... 126
V.6 Actualisation du coût et choix d’une solution d’investissement......................................... 131
VI. Conclusion générale ................................................................................................................ 134
VI.1 Conclusion ........................................................................................................................... 134
VI.2 Perspectives......................................................................................................................... 135
VI.2.a Analyse de sensibilité .................................................................................................. 135
VI.2.b Evolution de la consommation .................................................................................... 135
VI.2.c Performance de calcul ................................................................................................. 136
VI.2.d Augmentation de la capacité d’accueil ....................................................................... 136
VI.2.e Gestion du risque ........................................................................................................ 136
VII. Bibliographie :.......................................................................................................................... 138
VIII. Annexes ................................................................................................................................... 144
Résumé ................................................................................................................................................ 167
Abstract ............................................................................................................................................... 167

4
5
Remerciements

A ma compagne, Marine

A ma famille, Marie, mes parents

6
Quelle aventure cette thèse ! La réussite de mes travaux s’est jouée dans tellement de petits détails et
de petites contributions apportées par des personnes formidables.

La collaboration entre le G2Elab et EDF R&D est, selon moi, une réussite sur tous les plans et surtout
humainement.

Côté G2Elab, je ne sais pas si j’aurais pu avoir de meilleurs encadrants que Marie-Cecile Alvarez-Herault
et Raphaël Caire. Humainement, techniquement, ce sont deux machines de guerre redoutables ! Leur
duo est excellent puisque lorsque l’un me poussait à prendre des risques et explorait des domaines
que je ne maîtrisais pas, le second cadrait suffisamment ma recherche. Pour continuer sur le G2Elab,
les collègues sont comme une seconde famille. Chacun se soutient, s’entraide et aide à prendre du
recul autour d’un café. Ces moments sont importants lorsque l’on commence à se sentir submergé.

J’aimerais remercier les gens rencontrés en 1ère année qui m’ont aidé à trouver mes marques alors
que tout autour de moi m’était inconnu. Les « anciens », Félix, Barnabé, Olivier, et Nikolaos. Merci
pour les sorties ski, vos premiers retours et astuces qui ne m’ont pas franchement servis puisque j’ai
fait les mêmes erreurs que vous ! Merci aux amitiés formées, Audrey, Mahana, Anne-Laure, Jonathan,
Lalitha et Louise. Vous revoir en dernière année m’a fait très plaisir. C’est grâce à vous que j’ai tant
aimé mes années grenobloises. Tellement de moments simples qui m’ont fait apprécier là où j’étais.
Louise, je t’attends en Bretagne pour faire des tours de vélo.

Une petite pensée pour Amélia et Raphaël avec qui j’aurais aimé passer plus de temps, Peut-être qu’on
se recroisera. Si je dois lâcher quelques tonnes de CO2 mal venues pour aller au Brésil !

Pour m’empêcher d’imploser, l’athlétisme a été mon bouclier pendant toute la thèse. Je tiens à
remercier les coachs qui se sont occupés de moi comme ils ont pu et m’ont poussé à me dépasser.
Merci Christophe, Nicolas, Florian et Pascal ! Les nombreux déplacements et la Covid ont perturbé les
entrainements mais vous m’avez toujours gardé une place. Sans le sport, j’aurais sans doute dépassé
les 100kg avec tous les gâteaux mangés au laboratoire et je n’aurais pas pu rester aussi saint d’esprit !
J’avoue que j’ai un peu abusé des gâteaux et confiseries.

Les athlètes, les partenaires d’entraînements sont toujours là pour se dépasser dans la difficulté. Merci
à tous ceux que j’ai croisés et notamment Justine et Tristan à Grenoble. J’ai passé de super moments
en dehors des entraînements. Tristan, tu m’as fait découvrir tellement de randonnées sensationnelles.
J’en garde de magnifiques souvenirs, merci infiniment. C’est sans doute grâce à toi que j’aime autant
la randonnée maintenant ! Et toi Justine, on s’est bien amusé à toujours en faire plus à l’entraînement
même si ça n’a pas payé chronométriquement, ça endurcit le mental, et les glaces de Terre-Adelice
remontent le moral. J’ai très apprécié nos moments d’échanges pendant et en dehors des
entraînements ! Je te souhaite toute la réussite possible dans tes études de médecine !

Côté EDF R&D, j’ai rejoint l’équipe en période de Covid, autant dire que ce fut loin d’être la meilleure
période de la thèse ! Dans une phase difficile, c’est la dernière chose dont j’avais besoin.

Mes encadrants principaux, Mathieu Caujolle et Aurel Garry ont été des mentors pendant toutes la
durée de la thèse. Vous êtes aussi deux machines de guerre. Je me répète, mais je me demande
comment j’aurais pu avoir mieux que vous ! Vos capacités à (presque) tout comprendre et challenger
mes travaux m’impressionnent ! Les relations que nous avons construites malgré l’environnement
professionnel m’ont permis de m’engager pleinement dans mes travaux. Merci Mathieu d’avoir
toujours cru en moi malgré les difficultés métiers rencontrées. Et merci Aurel pour ces nombreux
points incalculables d’échanges, chaque semaine, qui m’ont poussé à donner le meilleur de moi-même.

7
Une vraie relation de confiance s’est construite et cela m’a permis de prendre confiance en ce que je
faisais au fur et à mesure des mois et années.

Merci à vous deux pour votre soutien, même dans les moments de doute, que ce soit de mon côté
comme du vôtre.

Chez EDF il y a aussi une belle équipe. Le groupe R4P m’a accueilli d’une belle manière. Guillaume et
Aurel m’ont apporté leurs cours de polytechnique afin de m’aider à me former en génie électrique,
quelle belle attention !

En fin de première année, Clément et Luc ont rejoint l’encadrement. L’expertise terrain de ce dernier
et son soutien pendant la Covid ont été essentiels pour challenger toute la théorie mise en place
pendant la thèse. Égoïstement, dommage que tu sois parti à la retraite avant de voir la fin de mes
travaux. Et Clément, merci de m’avoir poussé au bord du ravin comme tu l’as fait. Il ne fallait pas avoir
le vertige, cela n’a pas été toujours facile à entendre, mais je suis satisfait de ce ça a fini par donner.
Tu as une façon optimiste de voir le monde et j’ai très apprécié nos échanges sur Saclay.

Il y a aussi une belle équipe de doctorants. Arbia et Benoit, on a commencé tous les trois et maintenant,
il y a plein de petits doctorants qu’on voit grandir. Le doctorat multiplie les émotions, je me souviens
de nos débuts.

Arbia, nous avons tellement partagé nos joies, nos galères pendant ces années, je suis content d’avoir
croisé ta route. Merci pour tes encouragements et ton soutien.

Merci aussi à Elsy d’avoir partagé son bureau avec moi pendant une année covidée. Je me revoyais
vivre les mêmes galères que toi. J’espère que mes conseils et nos échanges t’ont été utiles !

Merci aussi à Maria pour sa gentillesse. Toujours tournée vers les autres, tu as tout de même réussi à
faire une très belle thèse et soutenance. Bravo et à bientôt.

Merci à l’équipe R4P dans laquelle j’ai évolué. Vous vous souvenez de moi quand je suis arrivé ? J’étais
déjà content de mes collègues de Thales mais avec vous, j’ai découvert une atmosphère mêlant travail,
passion pour un secteur enivrant et une envie importante de partager son savoir.

Je voudrais remercier Kevin pour tous nos moments passés ensemble au bureau et sur la piste. J’espère
ne pas t’avoir fait perdre trop de temps avec tous ces passages dans ton bureau.

Gaëtan, quel plaisir de t’avoir rencontré ! En plus de partager deux passions communes, le sport et le
génie électrique, tu m’as sauvé plusieurs fois la mise grâce à tes talents de pilote dans Palaiseau. Merci
pour ça mais aussi pour tout le reste. Avec Kevin, je sais que je peux compter sur vous et j’espère vous
revoir bientôt.

Toujours sur R4P, j’ai aussi fait de belles rencontres, Ludo, Michael, Julien et Geoffrey ! J’ai aussi
apprécié nos moments d’échanges à la pause-café, au téléphone et dans le laboratoire. Vous aussi,
vous avez contribué à mon épanouissement à la R&D !! Merci au reste de l’équipe, Sarah, Ali, Quentin,
Cesar, Maxime, Ansaar pour tous ces souvenirs !

J’ai aussi eu le plaisir d’échanger avec Bertrand IOOSS et Héloïse Dutrieux. Le premier, fondateur d’un
logiciel d’analyse de sensibilité et auteur de plusieurs articles sur ce même sujet. Merci à toi pour notre
échange, ce fut un déclencheur pour moi et tu m’as donné confiance en ce que j’avais fait ! Héloïse a
écrit une thèse référence dans le domaine de la planification des réseaux électriques. Je te remercie
d’avoir échangé avec moi et bravo encore pour tes travaux passés et actuels !

8
Je suis ensuite retourné à Grenoble pour finaliser la rédaction et préparer la soutenance entouré d’une
nouvelle équipe de doctorants avec qui j’ai partagé des mois difficiles mais toujours dans la bonne
humeur ! Le ski, les randonnées et les bars nous ont permis de décompresser et cela me manquera.
Aux doctorants qui liront ces quelques lignes, profitez des week-ends à fond, ça en sera que bénéfique
pour votre recherche.

J’aimerais remercier toute l’équipe Syrel, Jean Pierre bien sûr, mais aussi Candela, Aleksandr, Hassan,
Arshpreet, Andy et Diva. Il y a aussi les jeunes doctorants, Jane, Laurine et Heitor. J’espère que vous
avez aimé mes passages quotidiens dans le cluster Syrel bis. De mon côté, j’ai aimé ces moments de
pause dans la rédaction. C’était cool de voir des bébés doctorants découvrir leurs sujets avec les joies
et déceptions qui vont avec. J’ajouterai que c’est génial ce que vous avez mis en place, c’est un exemple
pour moi.

Les maîtres de conférences aussi, Rémy et Jérôme ! Je me suis demandais si j’allais t’accorder quelques
lignes Jérôme, le mérites-tu ? Bien sûr, merci pour tout, les sorties, les échanges, nos discussions sur
la F1 !

Mes remerciements aussi pour les amis des autres équipes, Diego, Alberto et Denis notamment. Ravi
de vous avoir rencontré, j’espère qu’on se reverra.

Pour en finir avec le Laboratoire, je souhaite remercier le service administratif. Humainement, j’ai
apprécié échanger avec vous. Spécial remerciement à Marie et Léa, originaires de la région, pour me
l’avoir faite découvrir ! Pas besoin d’aller à l’autre bout du monde pour voir des paysages magnifiques
et décompresser !

Il y a aussi les amis de longues dates toujours là pour me soutenir ! Yvan qui a aussi fait sa thèse à
l’autre bout de la France, mais aussi Arnaud et Damien. Deux frères à qui je dois tellement depuis qu’on
se connaît. Merci pour tous ces moments passés ensemble, sportifs ou non !

Merci à Romain et Charlotte pour m’avoir logé le temps que je trouve un logement. Je repense à nos
journées de ski, de vélo et de randonnées vraiment sympas !

Puis merci aux copains d’Angers, Tristan, Josselin, Flavien et aux professeurs de l’Istia (Polytech
Angers). C’est aussi grâce à vous que j’en suis là. Merci notamment à Laurent pour les conseils que tu
m’as donnés pendant la première année !

Je suis désolé pour toutes les personnes que j’aurais oublié mais je vous remercie aussi.

Tout ça, toute cette aventure n’aurait pas été possible sans une personne en particulier. Une
rencontre, un hasard, une amitié construite, Anthony ! Merci à toi. Je n’imaginais pas que nos premiers
échanges en 2017 nous auraient emmenés si loin. Je te suis tellement reconnaissant de m’avoir mis en
relation avec Mathieu. On dit que la réussite découle de la rencontre entre un hasard et la préparation
(cf. Mamadou). Je remercie ce hasard ! Tu as même passé des entretiens pour moi, ça signifie
tellement. J’ai passé de supers moments avec toi à la R&D et en dehors ! À bientôt, pour sûr !

Il me reste une personne à remercier. Une personne que je ne connaissais pas avant la thèse. Qui m’a
accueilli à mon arrivée à Grenoble et qui m’a fait découvrir le laboratoire. Je me demande comment
notre amitié a pu se construire aussi rapidement. Nos débats m’ont changé, et m’ont ouvert l’esprit.
On a tellement partagé et passé du temps ensemble, c’est fou comment on s’est poussé vers le haut !
Nos partages d’articles, de vidéos en tous genres sur divers sujets, d’idées nous ont permis
mutuellement de faire avancer nos travaux et nous avons réussi à mieux combattre nos difficultés.

9
Mon regret est de ne pas avoir réussi à te faire aimer le ski mais j’ai tout de même réussi à t’y emmener
une fois ! Rappelle-toi quand je t’ai pris entre mes jambes pour te guider, j’avais oublié que tu étais un
bébé d’1m90… Tellement de souvenirs... J’en suis nostalgique en l’écrivant!

Merci Mamadou pour tout ça et tout le reste. De toute façon, je n’ai pas assez de mots pour exprimer
ma gratitude envers toi.

Encore une fois, merci à toutes et tous pour ces superbes rencontres et pour tous nos échanges. Je
vous serais reconnaissant à jamais pour cette aventure. Vous resterez dans ma mémoire, jusqu’à ce
qu’Alzheimer et la vie me les reprennent.

Avec beaucoup d’émotions, je clôture ces remerciements même si j’aurais aussi pu écrire une thèse
sur l’importance de l’amitié et des rencontres pendant le doctorat.

10
11
Glossaire :
BT : Basse tension (< 1 kV)

CAPEX : Coût d’investissement d’une solution (Capital Expenditure)

CLNR : Customer-Led Network Revolution

DisNetSimPl : Distribution Network Simulation Plateform

DTR : Documentation Technique de Référence

ENEDIS : Gestionnaire du réseau de distribution d'électricité

GRD : Gestionnaire du réseau de distribution

GRT : Gestionnaire du réseau de transport

HTA : Haute tension de niveau A (entre 1 kVAC et 50 kVAC)

HTB : Haute tension de niveau B (>50 kVAC)

IA : Intelligence Artificielle

OPEX : Coût de fonctionnement d’une solution (Operation Expenditure)

PAC : Pompe à chaleur

REE : Réseaux électriques intelligents

RTE : Réseau de transport d’électricité

Tmb : Température minimale de base

TOTEX : Coût total d’une solution (Total Expediture)

VE : Véhicule électrique

SSED : Systèmes de stockage d’énergie distribuées

12
Liste des figures :
Figure I-1 : Structure des réseaux électriques français [9] .................................................................... 21
Figure I-2 : Méthodologie développée dans le cadre de la thèse ......................................................... 25
Figure II-1 : Différents enjeux et objectifs selon l'horizon temporel [6] ............................................... 28
Figure II-2 : Réseau BT simplifié ............................................................................................................ 29
Figure II-3 : Investissement d'Enedis dans les infrastructures des réseaux HTA et BT [29]–[32] ......... 34
Figure II-4 : Schéma de méthodes de contrôle de puissance réactive [5], [51] .................................... 40
Figure II-5 : forte insertion de PV [8, p. 159] ......................................................................................... 40
Figure II-6 : faible insertion de PV [8, p. 160] ........................................................................................ 40
Figure II-7 : figure 2 de l'article [59] représentant deux estimations statistiques de la capacité
d’effacement du réseau simulé (ensemble des clients) en fonction des heures de la journée............ 43
Figure II-8 : Résultat de l'expérimentation du levier: gestion active de la consommation [60] ........... 43
Figure II-9 : Périmètre du démonstrateur Smart Grid Vendée : Liste des infrastructures équipées de
dispositifs de contrôle ........................................................................................................................... 46
Figure II-10 : Modélisation floue (orange) et normale (bleu) d'une variable........................................ 47
Figure III-1 : Grandes étapes d’une étude d’incertitudes [74] .............................................................. 51
Figure III-2 : Description graphique de l'étape A : Spécification du problème ..................................... 52
Figure III-3: Résumé de l’état de l’art sur les méthodes d’AS [72] ........................................................ 53
Figure III-4: Exemple pédagogique de l’application de l’équation III-12 dans le calcul des indices de
Sobol ...................................................................................................................................................... 56
Figure III-5: Logigramme de calcul de l'intervalle de confiance ............................................................ 58
Figure III-6: Évolution du coefficient de foisonnement en fonction du nombre de clients sur un réseau
............................................................................................................................................................... 61
Figure III-7: Implantation de panneaux photovoltaïques sur un bout de réseau ................................. 65
Figure III-8: Monotone de la puissance de production normalisée pour le mois de juin entre 12h et 14h
............................................................................................................................................................... 65
Figure III-9: Distribution de la chute de tension en fonction du nombre de simulations n .................. 68
Figure III-10: Indices de sensibilité pour le scénario forte consommation sur 10 réseaux ................... 69
Figure III-11: Indices de sensibilité obtenus pour les deux types de simulation ................................... 69
Figure III-12: Distribution de la tension minimale en fonction de la valeur du 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 fixée .................. 70
Figure III-13: Capture d'écran de l'interface de BuilsSysPro ................................................................. 73
Figure IV-1: Méthodologie de planification des investissements ......................................................... 77
Figure IV-2: Logigramme de choix du conducteur à renforcer ............................................................. 80
Figure IV-3: Evolution du taux de probabilité d'activation de l'effacement pour 10 clients en fonction
de la probabilité d’effacement individuelle d'un client ........................................................................ 82
Figure IV-4: Réseau simplifié avec 3 clients........................................................................................... 83
Figure IV-5 - Processus mis en place pour éliminer les contraintes ...................................................... 86
Figure IV-6: Exemple de résultats obtenus sur le calcul de l'énergie annuelle à effacer ...................... 87
Figure IV-7:Choix de découpage de la monotone pour la consommation............................................ 88
Figure IV-8: Proposition d'une courbe de sévérité................................................................................ 92
Figure IV-9: exemple de fonction de densité de type normal ............................................................... 92
Figure IV-10 : Processus de recherche de solutions d’investissements pour les années cibles ........... 95
Figure IV-11: Construction de l'arbre des possibilités jusqu'au choix final ........................................... 98
Figure IV-12 : Répartition des coûts de la pénalité (€) en fonction des années ................................... 99
Figure V-1 : Réseau d'étude 1.............................................................................................................. 102
Figure V-2 : Réseau d'étude 2.............................................................................................................. 103

13
Figure V-3: Plage de consommation pour les heures creuses (en couleur) des courbes de charges
SMACH ................................................................................................................................................. 107
Figure V-4 : Histogramme de la puissance totale appelée par les clients pour la dernière année cible
............................................................................................................................................................. 109
Figure V-5 : Matrice de sensibilité d'une simulation contrainte ......................................................... 110
Figure V-6 : Réseau d'étude avec localisation des segments à renforcer (c) et flexibilité (f) à activer112
Figure V-7 : Résultats des simulations pour le cas 2 sur la dernière année cible ............................... 113
Figure V-8 : Présence des clients producteurs dans les simulations contraintes ............................... 113
Figure V-9 : Boite à moustache de l’effacement optimal demandé aux producteurs en fonction des
simulations contraintes. ...................................................................................................................... 114
Figure V-10: Boite à moustache de l’effacement et du réglage en réactif optimal demandé aux
producteurs en fonction des simulations contraintes ........................................................................ 115
Figure V-11:Longueur nécessaire pour résoudre les contraintes en fonction du nombre de conducteurs
renforcés ............................................................................................................................................. 115
Figure V-12 : Probabilité de contraintes en fonction du nombre de conducteurs renforcés ............. 115
Figure V-13 : Evolution de l'effacement de 4 clients producteurs en fonction du nombre de segments
renforcés ............................................................................................................................................. 116
Figure V-14 : Evolution de l'effacement ou du réglage en réactif de 4 clients producteurs en fonction
du nombre de segments renforcés ..................................................................................................... 117
Figure V-15 : Histogramme de la puissance totale appelée par les clients pour les différentes années
cibles .................................................................................................................................................... 118
Figure V-16 : Choix optimal de l’effacement qui pourra être demander au client s’il venait à installer un
PV chez lui pour la seconde années cible intermédiaire ..................................................................... 119
Figure V-17 : Evolution de l'effacement d’un client producteur en fonction du nombre de segments
renforcés ............................................................................................................................................. 120
Figure V-18 : Choix optimal de la répartition de l’effacement et du réglage en puissance réactive pour
la seconde années cible intermédiaire................................................................................................ 120
Figure V-19 : Energie que devra effacer le client 45 en fonction des tirages pour atteindre le seuil
d’acceptabilité de la contrainte........................................................................................................... 122
Figure V-20 : Coût de l’énergie à effacer pour le client 45 en fonction de la couverture de risque ... 123
Figure V-21 : Monotones de charge des différents scénarios............................................................. 123
Figure V-22 : Energie à effacer par les producteurs en fonction des tirages pour atteindre le seuil
d’acceptabilité de la contrainte........................................................................................................... 125
Figure V-23 : Energie à effacer et réactif à absorber par les producteurs en fonction des tirages pour
atteindre le seuil d’acceptabilité de la contrainte. ............................................................................. 125
Figure V-24 : Coût induit par la non-activation de la flexibilité en fonction de la probabilité d'activation
............................................................................................................................................................. 127
Figure V-25 : Fonction de densité 𝑓𝑓𝑓𝑓 (équation IV-14) sur chaque phase pour le calcul de sévérité 128
Figure V-26 : Evolution de la contrainte et des coûts pour résoudre ces contraintes en fonction de la
tension au poste source ...................................................................................................................... 128
Figure V-27 : Séquences d’investissement possible dans le réseau.................................................... 131
Figure V-28 : Résultats des coûts nets actualisés de 20 possibilités d'investissement ....................... 133
Figure VIII-1: Découpage de la monotone en trois distributions normales ........................................ 144
Figure VIII-2 : Répartition des clients entre les intervalles lorsque le poste de distribution reçoit une
forte demande d’électricité. ............................................................................................................... 145
Figure VIII-3 : Fonction de répartition des 4 intervalles afin de probabiliser la demande d'électricité au
niveau du poste de distribution .......................................................................................................... 145
Figure VIII-4: illustration du calcul de probabilité d'interaction entre les monotones ....................... 146

14
Figure VIII-5 : réseau du cas d'étude ................................................................................................... 148
Figure VIII-6 : Distribution des simulations avec un branchement uniforme ..................................... 149
Figure VIII-7 : Distribution des simulations avec un branchement aléatoire ...................................... 149
Figure VIII-8 : Evolution du coefficient de foisonnement en fonction du nombre de courbes de charge
............................................................................................................................................................. 150
Figure VIII-9 : Représentation avec DisNetSimPl du réseau d'étude n°1 ............................................ 153
Figure VIII-10 : Représentation avec DisNetSimPl du réseau d'étude n°2 .......................................... 157
Figure VIII-11 : Fonction de sévérité s(v) ............................................................................................. 162
Figure VIII-12 : Distribution des tensions sans renforcement pour le cas d’étude 1 à l’année 2035 (S1)
............................................................................................................................................................. 162
Figure VIII-13 : Distribution des tensions avec 1 renforcement pour le cas d’étude 1 à l’année 2035 (S2)
............................................................................................................................................................. 163
Figure VIII-14 : Distribution des tensions avec 2 renforcements pour le cas d’étude 1 à l’année 2035
(S3)....................................................................................................................................................... 163
Figure VIII-15 : Variation du coefficient directeur avec b=10 ............................................................. 164
Figure VIII-16 : Evolution du coefficient directeur de la fonction de sévérité .................................... 164
Figure VIII-17 : Variation de l'ordonnée à l'origine avec a=10 ............................................................ 165

15
Liste des tableaux :
Tableau I-1: Résumé du contenu des chapitres .................................................................................... 19
Tableau II-1 : Prise en compte des nouveaux usages dans les études de planification ........................ 37
Tableau II-2 : Classement des solutions de flexibilité pour la basse tension en fonction de leurs
paramètres d'influence sur la capacité d'accueil des réseaux suivant [5] ............................................ 46
Tableau III-1 : Principales informations des réseaux BT utilisés pour les études de la thèse ............... 61
Tableau III-2: Répartition des capacités de production lors de l'installation d'un PV........................... 64
Tableau III-3: Comparatif des indices de sensibilité calculés avec 4 méthodes différentes ................. 66
Tableau III-4 : Tableau d'aide au choix de n .......................................................................................... 67
Tableau III-5: Information des courbes de charge pour un client ......................................................... 72
Tableau IV-1 - Exemple de solutions proposées par le processus ........................................................ 86
Tableau IV-2: Tableau de découpage des monotones par zone ........................................................... 88
Tableau IV-3: Exemple d'application des étapes 1 à 4 de l'algorithme de calculs de probabilité
d'activation de la flexibilité ................................................................................................................... 90
Tableau IV-4 : Evolution du coût de la pénalité en fonction des années simulées (ici 3) ..................... 99
Tableau V-1 : Principales informations relatives aux réseaux simulés................................................ 103
Tableau V-2 : Hypothèses choisis pour la modélisation des réseaux.................................................. 106
Tableau V-3 : Données de sortie de l'algorithme de choix des flexibilités.......................................... 110
Tableau V-4 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la
dernière année cible............................................................................................................................ 111
Tableau V-5 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la
seconde année cible ............................................................................................................................ 118
Tableau V-6 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la
première année cible .......................................................................................................................... 119
Tableau V-7 : Répartition des clients avec au moins une contrainte dans les zones simulées........... 121
Tableau V-8 : Répartitions de producteurs avec au moins une contrainte dans les zones simulées . 124
Tableau V-9 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la
dernière année cible............................................................................................................................ 127
Tableau V-10 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la
dernière année cible pour le scénario de forte production ................................................................ 129
Tableau V-11 : Tableau des CAPEX et OPEX ........................................................................................ 132
Tableau VIII-1 : Résumé des principales informations des deux réseaux d'études. ........................... 151
Tableau VIII-2 : Caractéristiques du réseau d'étude n°1 ..................................................................... 155
Tableau VIII-3 : Caractéristiques du réseau d'étude n°2 ..................................................................... 158
Tableau VIII-4 : Caractéristiques des conducteurs utilisés dans les réseaux ...................................... 159
Tableau VIII-5 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil avec
tension du poste source à 1pu sur la dernière année cible ................................................................ 160
Tableau VIII-6 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil avec
tension du poste source à 0,98pu sur la dernière année cible ........................................................... 161
Tableau VIII-7 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil avec
tension du poste source à 0,97pu sur la dernière année cible ........................................................... 161

16
17
I. Introduction générale
Les problématiques environnementales, la décarbonation et l’appauvrissement des ressources
naturelles sont devenus des enjeux sociétaux majeurs. Depuis de nombreuses années, au travers
d’objectifs fixés dans la Programmation Pluriannuelle de l’Energie, le gouvernement français
développe un plan d’actions pour décarboner l’économie. Cela passe, notamment, au travers de
politiques d’incitations. On peut citer, par exemple, les encouragements à l’installation de panneaux
solaires avec un prix de rachat de l’électricité intéressant, l’achat de véhicules électriques avec des
primes à la conversion, ou encore de l’amélioration de l’efficacité énergétique dans les bâtiments avec
une prime à la rénovation. Cette notion d’efficacité énergétique est renforcée via la réglementation
thermique RT2020 qui dessine une tendance où la consommation primaire baisse et où les nouvelles
installations de chauffage sont des chaudières à haute efficacité bois ou des pompes à chaleur. Ces
nouveaux usages seront pour la plupart raccordés au réseau électrique basse tension (BT) au plus
proche des usagers. En effet au-delà des exigences normatives, c’est par des initiatives locales que ces
usages s’inscriront dans le paysage électrique de demain. Cette dimension locale encourage ainsi
l’émergence de l’auto-consommation et des communautés locales d’énergies alors même que
l’observabilité des réseaux BT est limitée. Il devient nécessaire d’anticiper ces changements, dans un
climat d’électrification à marche forcée, en continuant de développer les réseaux de transport et de
distribution afin de garantir aux consommateurs une bonne qualité de service au fil des ans.

Parallèlement, les réseaux électriques s’instrumentent et deviennent connectés pour offrir à leurs
opérateurs de nouvelles opportunités de contrôle des flux de puissance, afin de prévenir d’éventuelles
contraintes, que ce soit un dépassement de tension ou de courant. Ces opportunités pour résoudre les
contraintes seront désignées comme des solutions de flexibilité. Cette instrumentation a été tardive
en basse tension (par rapport aux autres niveaux de tension) mais se développe rapidement ces
dernières années grâce à l’installation des compteurs communicants pour les charges et les
producteurs. Ces changements rendent envisageables l’utilisation de solutions de contrôle de
ressources locales pour se prémunir de contraintes. De son coté, EDF (au côté d’Enedis et RTE)
participe à la transition écologique, que ce soit à travers le déploiement de moyens de production bas
carbone ou la réalisation d’études de Recherche et de Développement avec pour objectif de préparer
les réseaux électriques de demain. Le plan Cap 2030 1 d’EDF s’inscrit dans cette démarche en étudiant
l’intégration des ressources locales d’énergie (ou DERs en anglais pour Distributed Energy Resources)
et soutient les opérateurs dans leur transition vers des réseaux intelligents autrement nommés
« Smart Grids » (SGs).

Historiquement, le développement des réseaux s’appuie sur une planification à long terme des
investissements tels que le renforcement ou la création de nouveaux ouvrages. Le but est de préserver
une qualité de service suffisante [1] lors du raccordement d’un nouveau consommateur ou producteur
tout en considérant les évolutions des usages existants. Ces investissements sont généralement
coûteux (le réseau a une valeur de l’ordre de 50 Mds€ d’actif immobilisé, inscrit au bilan d’Enedis 2) et
risquent d’être de plus en plus fréquents en raison de l’interconnexion des DERs, incitant les
opérateurs à revoir leurs méthodes d’investissement [2]. La méthode traditionnelle utilise une
approche déterministe, qui consiste à définir des situations dites dimensionnantes pour anticiper la
plupart des évolutions possibles du réseau, pour investir et éviter l’occurrence de contraintes sur ces

1
https://www.edf.fr/groupe-edf/edf-en-bref
2
https://www.vie-publique.fr/sites/default/files/rapport/pdf/280088.pdf (page 73)

18
situations. Elles sont issues d’un compromis entre le coût d’investissement et le risque d’un mauvais
dimensionnement. Cette approche arrive à ses limites en raison du :

- processus d’anticipation des situations dimensionnantes qui demande à être révisé pour
considérer l’arrivée des DERs,
- processus d’insertion des véhicules électriques ou des pompes à chaleur ; ces usages vont
connaitre une forte croissance et il y a peu de recul sur leur impact sur la demande électrique
à grande échelle. Des modèles plus fins qu’un simple taux de croissance sont probablement
souhaitables,
- processus d’investissement en basse tension qui ne semble aujourd’hui pas en mesure de
valoriser des solutions actives de pilotage des DERs.

Ces travaux de thèse ont été menés conjointement entre EDF R&D et le G2Elab avec pour objectif de
proposer une prise en compte des risques dans les nouvelles méthodes de planification pour les
réseaux basse tension. Les travaux réalisés proposent une méthodologie de planification long terme,
adaptée pour les réseaux basse tension, afin d’intégrer les incertitudes liées au déploiement de
certaines DERs et celles liées à l’utilisation des solutions de flexibilités. La méthodologie mise en place
a été implémentée dans un logiciel d’EDF R&D et est déclinée, dans ce manuscrit, en 4 chapitres
principaux (II à V) qui sont illustrés dans le Tableau I-1.

Etat de l’art Méthodologies développées Etude de cas et résultats

Planification historique
Evolution de la BT
Chapitre II Leviers en BT
Nouveaux problèmes et
opportunités

Analyse de sensibilité : Adaptation de la méthodologie Analyse de sensibilité des


théorie, méthodes, etc. d’Analyse de Sensibilité aux variables sur la distribution des
Chapitre III Méthode retenue réseaux tensions d’un réseau dans deux
Hypothèse de modélisation des scénarios
réseaux BT

Modélisation de certains leviers


BT.
Sélection de flexibilités à activer
Chapitre IV Pénalisation financière d’une
contrainte réseaux
Valorisation financière de la
flexibilité par le risque.

Projection pluriannuelle d’un


scénario avec forte pénétration
de véhicules électriques et de
Chapitre V productions décentralisées et
évaluation et optimisation des
coûts pour assurer une bonne
qualité de fourniture.
Tableau I-1: Résumé du contenu des chapitres

19
I.1 Le réseau électrique
Un réseau électrique est un ensemble de composants (transformateurs, lignes, câbles, disjoncteurs,
entre autres) permettant de transporter ou distribuer l’électricité entre des sources et des clients
raccordés au réseau. Un client désigne indifféremment une installation électrique composée d’un
ensemble d’appareils consommant ou produisant de l’énergie [3]. La logique historique, dans les
réseaux des pays industrialisés, est de transporter l’électricité depuis des moyens de production
centralisés à des consommateurs diffus, en descendant au fur et à mesure dans les niveaux de tension.
La tendance de raccordement de moyens de production décentralisés surtout à base d’énergies
renouvelables, initiée depuis maintenant plus d’une quinzaine d’années, modifie aujourd’hui les flux
électriques qui deviennent bidirectionnels. En France, le réseau électrique est divisé en deux parties
(illustré par la Figure I-1). D’abord le réseau de transport et de répartition, géré en France par un
gestionnaire de réseau de transport (GRT) nommé RTE. Ce dernier s’occupe de toutes les lignes avec
des tensions supérieures ou égales à 45 kV [1], correspondant à un peu plus que la Haute Tension de
niveau B (HTB, normativement Un ≥ 50kV). Ensuite, le réseau de distribution est géré, en France
majoritairement (95%), par Enedis. Ce réseau est séparé en deux niveaux distincts : la Haute tension
de niveau A (HTA, normativement 1 kV ≤ Un ≤ 50 kV), avec des tensions composées majoritairement
comprises entre 5kV et 20kV en France, et la Basse Tension (BT normativement Un ≤ 1 kV), ayant une
tension triphasée de 400V en France [4].

Ces différents niveaux de tension ont été établis afin de pouvoir transporter l’électricité sur de grandes
distances, la production étant historiquement éloignée des zones de consommation. Un haut niveau
de tension réduit les pertes Joule (qui sont inversement proportionnelles au carré de la tension) et les
chutes de tension (inversement proportionnelles au niveau tension). Les transformateurs permettant
de changer de tension ont de très bons rendements ; il est alors possible de structurer le réseau en
niveaux de tension en fonction des besoins c’est-à-dire transporter l’énergie ou alimenter le client
final.

Les études de réseaux électriques ne sont jamais réalisées en modélisant le réseau complet car avec
plusieurs dizaines de millions d’installations électriques raccordées en basse tension, toute tentative
d’étude exhaustive serait inutilement gourmande en données et ressources de calcul. La logique
retenue est généralement de distinguer une zone d’étude et de réduire le reste du réseau à une
représentation agrégée : en particulier sur le réseau de distribution, les études portent généralement
spécifiquement sur une maille à un niveau de tension donné, avec un couplage faible ou découplage
avec les autres, illustré par la séparation des réseaux sur la Figure I-1. On peut citer comme travaux,
spécifique à un niveau de tension : HTA [3], [5]–[7], BT [8].

20
Figure I-1 : Structure des réseaux électriques français [9]

I.2 Préparer l’évolution des réseaux électriques


Pour préparer le réseau à fonctionner sur un horizon de temps long, tout en respectant les attentes
des fournisseurs, des clients et celles des normes, les gestionnaires des réseaux de transport et de
distribution utilisent la planification. Les répercussions socio-économiques des axes de
développement des réseaux électriques peuvent être importants compte-tenu de l’importance de
l’électricité pour l’économie moderne. En effet, l’électricité est la condition sine qua none du bon
fonctionnement de la majorité des entreprises, des hôpitaux, et de presque tout ce qui nous entoure.
L’électrification de nouveaux usages (tel que le véhicule électrique) accroit cette dépendance de notre
société à l’électricité. La tempête de 1999 rappelle des mauvais souvenirs pour celles et ceux coupés
d’électricité pendant plusieurs jours, en plus des dégâts causés par la tempête elle-même. C’est pour
cette raison que la planification du réseau est indispensable pour anticiper, développer et construire
les réseaux électriques de demain.

Pour planifier le réseau, le planificateur doit trouver le meilleur compromis entre coût et qualité et
continuité de fourniture tout en considérant beaucoup d’incertitudes telles que [10] :

- L’évolution de la consommation des usages


- Le raccordement de nouveaux clients
- La politique énergétique du pays
- La durée de vie des ouvrages et leurs délais de réalisation
- L’estimation des pertes
- Les contraintes liées à la localisation, l’environnement des réseaux (voiries, habitations, entre
autres).
- La volatilité des prix

21
Ce compromis se trouve dans un optimum technico économique calculé à partir d’une méthodologie
introduite dans la littérature au 20e siècle [10], [11]. Elle établit la situation dimensionnante introduite
précédemment. Cette méthodologie utilise un calcul de répartition des charges qui permet de
connaitre les flux de puissances, les courants et les tensions aux différents endroits (nœuds) d’un
réseau. Plusieurs méthodes de résolution existent, tel que Newton Raphson : calcul déterministe, ou
encore la méthode Ward and Hale pour des calculs linéaires. Un état de l’art est disponible [12]
présentant le calcul de répartition des charges puis une vingtaine de méthodes de résolution
différentes. Dans nos travaux, nous utiliserons un logiciel de résolution (OpenDss) s’appuyant sur la
méthode de Newton Raphson, majoritairement utilisée dans les logiciels de calcul de réseaux
électriques, afin d’être en mesure de réaliser des calculs de répartition des charges triphasés
déséquilibrés.

Le risque se définit par la combinaison entre la probabilité d’un évènement et ses conséquences
(ISO/IEC, 2002) ou l’effet des incertitudes sur un objectif (ISO/IEC, 2009). Les travaux de thèse réalisés
dans [13] présente l’analyse de risque appliquée au réseau électrique pour l’aide à la décision.

La notion de risque d’un mauvais dimensionnement peut avoir comme origine plusieurs sources
différentes :

1. Risque de couverture du modèle : correspond à une modélisation imparfaite des composants


et usages du réseau qui ne sont pas suffisamment en adéquation avec la réalité.
2. Risque de contrainte(s) : correspond à la probabilité d’apparition d’une contrainte réseau
(entre autres : tensions, courants, puissances).
3. Risque de prendre une mauvaise décision : correspond à un investissement non pertinent
(inutile ou insuffisant) menant à des contraintes réseau.
4. Risque d’investir au mauvais moment : correspond à l’apparition de contraintes réseau plus
tôt ou plus tard que les prévisions du planificateur.
5. Risque de sécurité (protection) : correspond à un mauvais dimensionnement des protections
entrainant une dégradation des équipements du réseau ou des particuliers ou bien des dégâts
sur une personne.
6. Risque de dégradation de la qualité de fourniture : correspond aux risques de coupures accrus

Pour nos travaux, nous avons choisi d’étudier le risque de contraintes car il s’agit de celui considéré
par le GRD.

Les nouvelles solutions pour résoudre ces contraintes sont les solutions de flexibilité. Ces dernières
ont pour objectif de réduire les coûts d’investissements et d’entretiens du réseau, généralement très
importants, tout en assurant un niveau de qualité de fourniture au moins équivalent à celui
d’aujourd’hui. Succinctement, une solution de flexibilité se définit par un gisement d’énergie
théoriquement disponible qu’on peut activer ou désactiver via du pilotage Smart Grid afin de réguler
les flux de puissance et ainsi éviter l’apparition de contraintes. Leurs coûts d’investissement sont
généralement faibles (comparé à une solution de renforcement ou de création d’ouvrage) mais la
disponibilité de ce gisement d’énergie n’est pas garantie, particulièrement lors de la phase de
planification.

Le déploiement de moyens de production décentralisée en basse tension (panneaux solaires), les


nouveaux usages (véhicules électriques et pompes à chaleur) et l’arrivée des solutions de flexibilité
nécessite une évolution des méthodes de planification basse tension pour ne pas augmenter
significativement les investissements du gestionnaire du réseau [14].

22
I.3 Les verrous scientifiques pour la planification des
réseaux basse tension
L’ensemble des évolutions introduites ci-dessus confronte les processus de planification en basse
tension à de nouveaux verrous venant complexifier des processus déjà très complexes tant les
incertitudes sont nombreuses. En effet, la basse tension induit un raisonnement à une maille
restreinte, où les incertitudes sont importantes, pouvant engendrer des surinvestissements ou à
l’inverse, un réseau incapable de faire face aux fortes demandes d’électricité annuelles. Le réseau
électrique français est constitué de plus de 792 000 réseaux basse tension3 et des millions de
consommateurs sont connectés à ces réseaux BT. Le planificateur a donc comme principale tâche
d’anticiper des comportements locaux sur plusieurs années et réaliser des investissements sur la base
de ces anticipations.

A court terme (<2 ans), la principale évolution pour les réseaux basse tension est l’installation du
compteur communicant. L’observabilité qu’il apporte, comme l’information d’excursions de tension,
va permettre de mettre à jour les méthodes de planification existantes avec les remontées
d’informations des compteurs communicants.

Les premiers verrous pour la planification sont la modélisation sur le long terme des nouveaux usages,
et celles des solutions de flexibilité. La maitrise du comportement de ces nouvelles variables, connaitre
leurs impacts sur les transits de puissance sur le réseau à long terme sont essentiels pour le
développement des processus de planification BT, notamment pour conserver une couverture du
risque de contrainte au moins équivalente au processus de planification historique.

Ensuite, l’intégration des solutions de flexibilité dans les processus de planification questionne le
planificateur sur les conséquences d’une apparition de contraintes sur le réseau lorsque la flexibilité
n’est pas disponible. Utiliser des solutions de flexibilité oblige le planificateur à probabiliser la non-
activation de la flexibilité et donc le risque d’apparition de contraintes. La sévérité de la contrainte doit
aussi être considérée. On peut supposer qu’une chute de tension de 11% n’a pas le même impact
qu’une chute de tension de 20%, alors que la norme EN 50160 définit uniquement une plage de
variation de la tension de +/-10%.

Ces différents verrous peuvent être résumés en quatre problématiques :

Problématique 1 : Comment faire évoluer les processus de planification pour considérer


l’accroissement des ressources locales et les solutions de flexibilités ?

Problématique 2 : Comment évaluer les risques (apparition de contraintes) et coûts associés aux
incertitudes sur la consommation et la production d’un réseau BT (accrues par l’augmentation des
ressources locales) ?

Problématique 3 : Comment modéliser les solutions de flexibilité BT en termes de volume et de


disponibilité pour la planification ?

Problématique 4 : Quels sont les risques induits par l’intégration des flexibilités c’est-à-dire le risque
lié à la non-activation de celle-ci ?

3
https://data.enedis.fr/pages/accueil/?id=dataviz-lignes-et-postes

23
La communauté scientifique étudie chacune de ces problématiques depuis plusieurs années. Dans nos
travaux, nous avons focalisé nos recherches sur l’étude du processus actuel de planification BT pour
ensuite proposer une évolution de celui-ci incluant une réponse aux différentes problématiques
présentées.

Parmi les étapes d’une étude de planification, il est nécessaire d’estimer les flux de puissance qui
transitent dans le réseau afin de vérifier que les contraintes définies par la norme EN 50160 [1] soient
respectées. La littérature propose différentes méthodes en fonction des paramètres suivants :

- Complexité des hypothèses ;


- Temps de calcul acceptable ;
- Nombre de solutions Smart Grid (stratégies ou options de planification) disponibles pour le
planificateur dans l’optimisation du réseau ;
- Nombre de réseaux à simuler et à optimiser
- Echelles de temps à simuler
- Précision des résultats

I.4 Positionnement et contributions


La Figure I-2 montre la méthodologie développée dans ces travaux de thèses pour répondre aux
problématiques soulevées précédemment. L’état de l’art présenté ci-dessus nous a conduit à regarder
des méthodes d’analyses de sensibilité (AS) afin de se réinterroger sur la notion de risque
(problématique n°2). Dans le chapitre III, nous allons étudier l’impact de la modélisation des variables
d’entrées d’un réseau sur une étude de planification (Figure I-2) et principalement sur les contraintes
(II.1.a) pouvant apparaitre à la suite d’un calcul de répartition des charges. En effet, la modélisation
historique (II.1.a) des réseaux est challengée par l’accroissement du niveau d’incertitudes dû aux
différentes évolutions des réseaux (II.2). Pour réaliser cette étude sur les variables, nous proposons
une méthode pour expliciter le lien entre le modèle et la couverture du risque de contraintes (obtenu
statistiquement par le calcul de répartition des charges), utilisant les indices de Sobol [15]. Les résultats
ont encouragé nos recherches vers des modèles de charges et de production solaire plus précis et ont
été valorisés dans [16].

Dans le chapitre IV, une méthodologie de planification BT long terme intégrant les solutions de
flexibilité tel que le réglage de la puissance réactive, l’effacement de consommation et ou de
production en fonction des types de contraintes repérées est proposée. Nous nous interrogerons
également sur la valorisation financière de ces leviers pour comparer une solution de flexibilité avec
un renforcement traditionnel. Pour la planification long terme, la disponibilité d’une solution de
flexibilité est une incertitude qui doit être considérée puisque le non-fonctionnement de cette solution
pourrait entrainer des contraintes et donc des investissements supplémentaires non anticipés. Nous
proposons donc un modèle probabiliste pour considérer le risque qu’un consommateur ou qu’un
producteur ne puisse pas participer à l’activation de son levier de flexibilité. En particulier, pour un
levier de flexibilité donné, un algorithme permet d’identifier plusieurs combinaisons de
consommateurs/producteurs pour minimiser ce risque de non-fonctionnement. Afin de comparer les
solutions de flexibilité aux solutions traditionnelles d’investissements, nous proposons une nouvelle
formule pour calculer le coût annuel d’une solution incluant flexibilité et renforcement. Cette formule
considère la probabilité d’activation de la flexibilité et l’apparition de contraintes lors de la non-
activation de la flexibilité en proposant de pénaliser financièrement cette apparition en fonction de la
sévérité de celle-ci. Cela n’a a priori pas encore été introduit dans la littérature.

24
Ainsi les contributions principales de la thèse sont les suivantes :

- Méthodologie d’identification des variables incertaines qui influencent principalement la


chute de tension.
- Intégration des risques liés au fonctionnement des solutions de flexibilité dans un algorithme
de planification long terme pour la BT afin de considérer la disponibilité de la flexibilité.
- Proposition d’une méthode de calcul pour comparer différentes solutions : renforcement
versus flexibilité liée à l’effacement de consommation et de production. L’énergie annuelle
effacée par l’activation d’un effacement est estimée et intégrée dans un calcul de coût global
actualisé intégrant notamment le coût de la flexibilité ainsi qu’une pénalisation en cas
d’indisponibilité de l’effacement (si cela conduit à des contraintes réseau qu’il aurait dû
résoudre) associée à une probabilité de non-activation de la flexibilité.

Figure I-2 : Méthodologie développée dans le cadre de la thèse

25
I.5 Plan de la thèse
Dans ce chapitre introductif, le contexte des travaux a été énoncé, ainsi qu’une courte présentation
des réseaux électriques, de la planification, et les sources de risques et d’incertitudes. Ensuite, certains
verrous restants pour la planification basse tension ont été présentés pour introduire le
positionnement de la thèse et les travaux réalisés.

Le chapitre II définit les notions importantes abordées dans la thèse et présente l’état de l’art en
commençant par la planification et les méthodes actuellement utilisées pour répondre aux objectifs
technico-économiques imposés. Ensuite, l’évolution de paradigmes apportés par les smart grids a été
approfondie en seconde partie afin de présenter l’instrumentation des réseaux, la modélisation des
DERs dans la littérature et les propositions de prise en compte des solutions de flexibilité dans les
processus de planification basse tension.

Le chapitre III s’intéresse à la modélisation des variables du réseau. Comment chacune d’entre elles
impacte la chute de tension ? Un état de l’art sur l’analyse de sensibilité est d’abord introduit afin de
trouver une méthode pertinente pour analyser l’impact des variables sélectionnées. L’adaptation de
la méthode pour les réseaux basse tension est présentée puis appliquée sur quelques réseaux. Les
résultats permettront de revoir la modélisation de certaines variables et d’en fixer d’autres pour les
études de planification des chapitres IV et V.

Le chapitre IV se concentre sur le développement d’une méthodologie de planification long terme pour
la basse tension avec pour objectif d’intégrer des solutions de flexibilités en considérant les
incertitudes sur leurs disponibilités au moment où elles seront nécessaires. Une réflexion plus globale
est menée sur la manière d’intégrer les limites de tension dans la fonction objectif de la planification,
lorsque des solutions de flexibilité sont envisagées. Une première approche est proposée afin de
pénaliser la chute de tension lorsque la flexibilité n’est pas disponible plutôt que d’imposer une
contrainte dure. Une méthodologie pour calculer le coût de la flexibilité sur le long terme est ainsi
proposée pour être comparée aux solutions historiques d’investissement.

Le chapitre V est une application de la méthodologie expliquée dans le chapitre IV. Sur des réseaux
fournis par EDF R&D, la méthodologie complète est appliquée afin de présenter la démarche entrepris
par ces travaux de thèse. Les résultats de ce chapitre sont obtenus sur des réseaux particuliers et ne
sont pas généralisables, cependant, ils permettent de mettre en avant l’apport méthodologique de ces
travaux et de proposer une manière différente d’aborder un problème de planification en vue de faire
évoluer les processus de planification long terme en basse tension.

26
27
II. Evolution des besoins pour la planification
basse tension
L’objectif lors de la construction et du maintien en condition opérationnelle d’un réseau est de trouver
le meilleur compromis en termes de coûts d’investissement, d’encombrement, de coûts opérationnels,
de qualité et de continuité de fourniture. Cet objectif est délégué à la planification (I.2). On pourrait
résumer la planification par « l’ensemble des moyens mis en œuvre pour anticiper les évolutions du
réseau nécessaires à l’acheminement de l’électricité au moindre coût pour la société et dans des
conditions optimales de sécurité, de qualité et d’impact environnemental » [5].

L’évolution des modes de consommation de l’énergie (utilisation de véhicules électriques (VE), de


pompes à chaleur (PAC), entre autres), le développement de sources de production et de stockages
locaux contribue à faire évoluer le paradigme historique des réseaux de distribution et apporte de
nouveaux défis pour tous les métiers, et notamment celui de la planification (Figure II-1) sur lequel les
travaux se concentrent.

Figure II-1 : Différents enjeux et objectifs selon l'horizon temporel [6]

Les réseaux de distribution sont fortement impactés par les ressources locales [4], par les nouveaux
usages électriques [17], [18], [19] et particulièrement sur le niveau basse tension. Il existe, en effet,
peu d’automatisation/d’observabilité, le volume de réseaux concernés est important et les impératifs
du terrain obligent à établir des règles de planification ne reposant pas sur des processus
chronophages, entre autres. Pour nos travaux, nous avons décidé d’étudier le réseau de distribution
basse tension avec un focus sur l’intégration de ces nouveaux usages.

Afin de présenter les défis à relever pour les planificateurs, ce chapitre II explique la méthode
historique de planification en s’appuyant principalement sur les informations communiquées
publiquement par le GRD français Enedis au travers de la documentation technique de référence
(DTR) 4 et les récentes publications scientifiques. Ensuite, nous présentons les nouveaux défis de cette
décennie, et de celles à venir, liés au développement des « Smart Grids » nécessitant une évolution

4
https://www.enedis.fr/documents

28
des méthodes traditionnelles du planificateur. Pour finir, la définition des défis scientifiques auxquels
seront confrontés les futurs planificateurs dans le dimensionnement des réseaux électriques de
demain, permettra de positionner nos travaux et contributions scientifiques à la fin de ce chapitre.

II.1 Planification des réseaux de distribution


Le but de la planification long terme est de prévoir une trajectoire d'investissement cohérente
permettant le développement du réseau au coût le plus juste pour la collectivité. Ce coût, TOTEX (Total
expenditure), correspond au coût total des évolutions du réseau sur une période donnée. Il se compose
des coûts d’investissement, CAPEX (Capital expenditure), d’exploitation, OPEX (operational
expenditure). Elle doit assurer la continuité et qualité de fourniture de l’électricité sur la durée de vie
des équipements. Pour ce faire, le planificateur a pour pratique de définir quelques scénarios extrêmes
mais réalistes. Ces scénarios permettent de créer une ou plusieurs situations dites dimensionnantes,
correspondant à la capacité du réseau à répondre aux différentes sollicitations des clients, des
producteurs, entre autres. Grâce à des calculs électrotechniques, le planificateur vérifie que les
contraintes électriques, définies par les normes telles que la NF-EN 50160 [1] ou l’IEEE 1159 [20], sont
respectées. Ce processus demande de modéliser, par des variables, les futurs comportements du
réseau comme par exemple les puissances active et réactive des charges ou des producteurs, les
conditions atmosphériques ou encore l’impédance des conducteurs, sur les horizons de temps étudiés
[16].

II.1.a La situation dimensionnante : Enjeux et modélisation


Pour le GRD français, historiquement, l’objectif de la situation dimensionnante est de s’assurer que le
réseau ne puisse pas être contraint, avec une vision passive, c’est-à-dire un réseau non contrôlé par
les centres de conduites. Elle se focalise donc sur des évènements extrêmes, de façon à couvrir le plus
possible le risque d’apparition de contraintes. La définition des scénarios extrêmes doit aussi
considérer un aspect économique afin de ne pas surinvestir pour couvrir 100% du risque d’apparition
de contraintes. Il s’agit donc de définir le meilleur compromis entre coût et risque d’apparition de
contraintes.

La Figure II-2 donne une représentation classique d’un réseau de distribution.

Figure II-2 : Réseau BT simplifié (monophasé équivalent)

La modélisation historique du réseau BT (Figure II-2 ) est construite principalement à partir de trois
équipements : les charges, correspondant à un consommateur ou un producteur, les conducteurs pour
représenter les lignes ou câbles électriques, et le poste de distribution qui alimente les
consommateurs. Les charges sont conventionnellement modélisées par les variables P pour la
puissance active et Q pour la puissance réactive. Les conducteurs le sont par leur impédance complexe
𝑍𝑍 = 𝑅𝑅 + 𝑗𝑗𝑗𝑗, à partir d’un modèle en PI dans lequel l’effet capacitif est négligé, R étant la résistance et

29
X l’inductance. La tension du poste de distribution est supposée connue et les charges sont
représentées à consommations P,Q constantes (relevées sur l’organe de comptage présent au niveau
du point de livraison). Un calcul de répartition des charges est ensuite réalisé pour connaitre le courant
traversant chaque composant et la tension à chaque nœud grâce aux impédances du réseau

Généralement, le poste de distribution est modélisé comme une source de tension, à tension de
consigne Un, les caractéristiques des conducteurs (Z) sont des données d’entrée fixées. La valeur de Q
est souvent indirectement indexée par 𝑄𝑄 = 𝑃𝑃 × tan 𝜑𝜑, avec tan 𝜑𝜑 = 0,4 et la valeur de P est variable
et est définie par les processus de dimensionnement. Comme expliquée ci-dessus, la situation
dimensionnante a pour objectif d’anticiper l’évolution des réseaux et de planifier les travaux de
renforcement nécessaires des parties du réseau en contrainte. D’après [4], [8], les scénarios
dimensionnants définis par le planificateur sont :

1. Le dimensionnement à Température minimale de base (Tmb) avec une production nulle ;


2. Le dimensionnement à Température normale d’hiver avec une production nulle (« situation N-
1 » : défaillance d’un ouvrage). Ce dimensionnement est principalement utilisé pour la
simulation des réseaux HTA car hormis des cas très spécifiques (comme la ville de Paris), les
réseaux BT n’ont pas de réseau maillé et une « situation N-1 » n’est pas envisageable.
3. Le dimensionnement à production maximale et consommation minimale pour l’intégration
d’un nouveau producteur ;

La température minimale de base est la température froide dont la probabilité d’occurrence est de 1
jour par an. Quant à la température normale d’hiver, elle est calculée à partir de la température
moyenne statistiquement observée par les services de la météo le 15 janvier, sur plusieurs décennies,
sur la zone géographique du réseau.

La simulation de chacun de ces scénarios participe à la création d’une cible à long terme (en HTA) et
du développement de la meilleure stratégie de développement du réseau et des ouvrages [21]. Le
dimensionnement à Tmb est une approche généralement déterministe qui se base sur la
consommation maximum attendue au cours de l’année. Pour déterminer cette consommation,
l’auteur [10] propose l’équation II-1, issue d’un document EDF (publié en 1991 : avant la séparation
avec Enedis) permettant de calculer la consommation par classe de client (caractérisée par leur type
d’abonnement) :

𝑃𝑃 = 𝛼𝛼𝛼𝛼 + 𝛽𝛽√𝐸𝐸 II-1


Avec :

𝐸𝐸 : Energie annuelle consommée

𝛼𝛼 et 𝛽𝛽 : Paramètres déterminés de manière empirique.

Ensuite, les puissances de chaque classe sont additionnées en tenant compte du foisonnement 5 (voir
Annexe C : Calcul du coefficient de foisonnement à partir de courbes de charges réelles).

L’utilisation de l’équation II-1 pour l’étude du réseau est issue d’un compromis entre les performances
du calcul du 20e siècle, la difficulté d’évaluation de l’évolution de la consommation des foyers, et le

5
Le foisonnement correspond à la réduction des fluctuations temporelles de l’intermittence et de la variabilité
de la consommation ou la production d’énergie par la multiplication du nombre d’acteurs du système (CRE).

30
manque de remontée d’informations provenant de l’utilisation des réseaux. Elle permet, de plus, de
prendre des « coefficients de sécurité » [22] afin d’assurer une qualité et continuité de service.

Cette représentation considère que chaque client contribue à la pointe avec une part moyenne
(consommation stable) et une part aléatoire. Chacune des parts est définie en fonction des
caractéristiques du réseau telles que la topologie, la thermo-sensibilité, ou les informations des foyers
(puissance souscrite, consommation annuelle, entre autres).

Pour déterminer la valeur de chacun des paramètres de l’équations II-1, la modélisation de la


consommation de chaque client utilise des courbes de charge, dites courbes « Bagheera » pour les
études de planification [8]. Ces courbes ont été obtenues à partir de campagnes de mesures auxquelles
sont ajoutées des coefficients permettant de considérer les caractéristiques individuelles des clients,
l’accroissement de la consommation et un « facteur de risque à 10% ».

Le dimensionnement à production maximale est présenté par la DTR [23]–[25]. Pour la basse tension,
cela consiste à simuler le réseau en supposant que tous les producteurs sont à 100% de leurs capacités
de production et les consommateurs à 20% de leurs consommations à Tmb.

Au niveau de la tension au poste de distribution HTA, le GRD (Enedis) la fixe à 𝑈𝑈𝑛𝑛 + 𝑋𝑋%, avec X
correspondant à la consigne de tension, régulée par le régleur en charge du transformateur. Dans le
cadre d’une étude de raccordement de production, la tension au poste source est usuellement fixée à
𝑈𝑈𝑛𝑛 + 4% [8].

A l’international, les processus historiques de planification semblent peu documentés, notamment en


anglais. La modélisation des consommations est un processus complexe, sur lequel il n’y pas de
consensus international. Cependant, on remarque une certaine tendance, comme celle avec le GRD
néerlandais [22] qui utilise l’équation II-2. Ressemblante à l’équation II-1, son objectif est de calculer
la consommation au poste de distribution :

𝑃𝑃𝑚𝑚𝑚𝑚𝑚𝑚,𝑛𝑛 = 𝛼𝛼𝐸𝐸1 𝑛𝑛 + 𝛽𝛽�𝐸𝐸1 𝑛𝑛 II-2


Avec :

n : Nombre de clients sur le réseau

𝐸𝐸1 : Energie annuelle consommée

𝛼𝛼 et 𝛽𝛽 : Paramètres déterminés de manière empirique.

Les effets de foisonnement sont pris en compte dans cette équation en augmentant la valeur de la
variable 𝛽𝛽 et en diminuant celle de 𝛼𝛼.

II.1.b Contraintes : apparition et résolution


Comme discuté dans l’introduction de cette partie (II.1), les contraintes électriques sont définies par
les normes telles que la NF-EN 50160 [1] ou l’IEEE 1159 [20]. Pour chacun des scénarios
dimensionnants présentés ci-dessus, le planificateur examine les différents types de contraintes qui
peuvent apparaitre sur les ouvrages du réseau ou les installations qui y sont raccordées [25] :

1. Contrainte d’intensité sur le transformateur (surcharge) ;


2. Contrainte d’intensité sur le réseau (surchauffe des conducteurs) ;
3. Contrainte de tension (problème de tenue de diélectrique : dégradation ou disfonctionnement
des équipements) ;
4. Contrainte de déséquilibre.

31
La présence de ces contraintes entraîne une dégradation des équipements et donc une réduction de
leur durée de vie, un disfonctionnement de ces équipements, voire leur destruction.

Si une de ces quatre contraintes est relevée en basse tension par les simulations de dimensionnement,
alors des solutions traditionnelles peuvent être utilisées pour les lever. Ces solutions prennent toutes
la forme d’investissements matériels, c’est à dire :

1. Le changement de transformateur HTA/BT ;


2. L’augmentation de section des conducteurs ;
3. L’accroissement du nombre de départs ;
4. La création d’un poste HTA/BT supplémentaire.

Le coût de chaque solution est présenté dans [26]. Ces solutions pour éviter l’apparition de contraintes
sont en place depuis plus de 40 ans [11]. Cette expérience permet au planificateur d’avoir des
processus complets afin de trouver un optimum technico-économique pour chaque investissement
pour notamment :

1. Choisir entre les différentes solutions possibles ;


2. Déterminer les nouvelles sections optimales des conducteurs à renforcer ;
3. Prendre en compte le vieillissement des ouvrages du réseau
4. Mutualiser plusieurs investissements déjà prévus et suivre les tracés routiers.

II.1.c Limite de la situation dimensionnante


Chaque année, le GRD français investit plusieurs milliards d’euros sur son réseau, chiffre qui croit
depuis plus de dix ans (voir Figure II-3). Le déploiement du véhicule électrique (VE) et des pompes à
chaleur (PAC) encourage les planificateurs à revoir leurs modélisations et hypothèses de la
consommation. En effet, l’un des scénarios qui étudie le futur du réseau de distribution, dans le cas
d’une forte croissance de la consommation électrique et de la production décentralisée, envisage des
investissements matériels entre 6 et 8 milliards d’euros par an si des solutions de pilotage de la
consommation ne sont pas déployées pour faire face à l’augmentation du pic de consommation (Tmb),
estimé à 10% [14].

L’utilisation de la situation dimensionnante telle qu’elle est définie aujourd’hui devient plus difficile en
raison du changement de paradigme exprimé dans l’introduction :

Tout d’abord, il y a les limites historiques, telles que le manque de données sur la fréquence
d’apparition des situations dimensionnantes. Pour les pallier, le GRD effectue un certain nombre
d’hypothèses sur des paramètres d’entrée de ses modèles, comme par exemple l’évolution des
consommations (forme de la courbe de charge, valeurs des maxima) et des productions (type,
emplacement, puissance). Les paramètres décisionnels de sortie comme notamment le risque de sur
ou sous-tension ou de surcharge sont déterminés avec un niveau d’incertitude mal connu. Le retour
d’expérience avec des mesures issues des compteurs communicants est un phénomène encore trop
récent pour évaluer a posteriori la couverture de risques de la situation dimensionnante.

Ensuite, il n’y a pas non plus de certitude sur le fait que la situation dimensionnante doive être basée
sur la consommation à la pointe et non lorsque le déséquilibre est maximum entre les phases. Dans
des réseaux très déséquilibrés pour lesquels le GRD n’a pas connaissance de la répartition des phases
entre les foyers, il est vraisemblable que cette situation arrive (voir Annexe B : Impact du déséquilibre).

32
Puis, l’hypothèse de la tangente phi fixe à 0,4 n’a pas été requestionnée et la littérature ne se
positionne pas sur cette hypothèse alors qu’il s’agit d’une variable qui est très corrélée aux usages
utilisés par les clients. Cela signifie que le planificateur ne maitrise pas les risques qu’il couvre vis à vis
de la puissance réactive réellement consommée par les foyers. La modélisation des conducteurs se
limite à l’utilisation de la valeur nominale du conducteur alors que ses caractéristiques varient en
fonction des paramètres extérieurs (discutés en III.2.a), notamment pour les études de planification
long-terme. Des auteurs font varier les caractéristiques des conducteurs, [27] a réalisé une étude de
sensibilité sur la modélisation des conducteurs dans le cadre de la gestion prévisionnelle et [28]
modélise l’incertitude sur la longueur réelle des conducteurs à travers l’arithmétique floue. Ils
montrent que la modélisation peut avoir une influence sur les résultats sur certaines études. Mais pour
les études de planification long terme en basse tension, cela signifie qu’on ne considère pas le risque
d’une contrainte engendrée par la variation possible des caractéristiques des conducteurs dans les
processus de planification long terme en BT.

Le développement des réseaux électriques intelligents (REE) met progressivement en place une
intelligence capable de piloter une partie du flux transitant sur le réseau, c’est-à-dire d’activer des
flexibilités. Ces flexibilités portent tant sur la production décentralisée ou le stockage, interfacée par
de l’électronique de puissance (EP), que sur la consommation. Avec l’augmentation des capacités de
calcul et la possibilité de mettre en place des stratégies de contrôle actif du réseau (via les solutions
de flexibilités), la situation dimensionnante telle que définie historiquement devient alors conservative
et sous optimale et se prête difficilement à une réflexion sur la valorisation de la flexibilité en
planification. En effet, intégrer la conduite active de réseau dans les processus de planification est une
situation théorique, mais demande au planificateur de quantifier la fréquence d’utilisation de la
flexibilité et ses coûts associés sur plusieurs années.

Il devient nécessaire de probabiliser l’apparition des contraintes et les décisions d’investissement qui
en découlent compte tenu des incertitudes liées notamment à l’évolution de la consommation et de
la production et de la disponibilité des flexibilités. Dans nos travaux, la notion de disponibilité de la
flexibilité est définie comme la présence d’un gisement de flexibilité dans les foyers à une année
d’étude donnée.

33
4500

4000

3500
Investissement (Millions d'euros)

3000

2500

2000
2008 2010 2012 2014 2016 2018 2020

Année

Figure II-3 : Investissement d'Enedis dans les infrastructures des réseaux HTA et BT [29]–[32]

II.2 Evolution des réseaux intelligents basse tension


Les réseaux pilotables et actifs décrits ci-dessus sont les réseaux intelligents, aussi appelés « Smart
Grids » (SG) : ils utilisent des technologies de l’information et de la communication pour observer et
opérer le réseau électrique de manière optimale. Les éléments essentiels à ce système sont les
appareils de mesure qui vont fournir des informations sur l’état du réseau en temps réel afin
d’apporter une meilleure observabilité des réseaux de distribution. Sur les réseaux basse tension, cette
observabilité repose sur l’installation des compteurs communicants (II.2.a) associés à quelques
capteurs temps réel. A cela s’ajoute l’évolution des ressources locales (VE, PAC, performance
énergétique des bâtiments, entre autres) venant modifier les manières de consommer (II.2.b) et de
produire. Le développement de nouveaux services de flexibilité (II.2.c)

Par exemple, grâce aux SGs, le gestionnaire de réseau devrait pouvoir détecter en temps réel une
surtension ou sous-tension et exploiter ces services de flexibilité afin de régler cette contrainte
technique (planification opérationnelle). Ces flexibilités pourront également être utilisées pour
optimiser la planification long terme : réduire les pertes, et décaler dans le temps, voire éviter, des
investissements dans le réseau, entre autres.

II.2.a Instrumentation du réseau


L’instrumentation du réseau se définit par l’installation d’équipements venant fournir des informations
sur l’état du réseau aux centres de conduite et de supervision des réseaux. Sur les réseaux basse
tension, l’instrumentation du réseau est plus tardive que sur le réseau de transport ou le réseau
moyenne tension en raison d’un rapport bénéfice/coût plus faible. En effet, plus on descend en niveau
de tension et moins l’ouvrage qui pourrait être en contrainte va impacter de clients. En 2009, une
directive européenne 6 a imposé aux pays de l’Union Européenne, suivant la rentabilité du système, de

6
https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=celex%3A32009L0072

34
déployer des compteurs intelligents (Smart Meters). A l’échelle européenne, la Suède, la Finlande,
l’Estonie ou encore l’Espagne ont bien avancé leur déploiement tandis que d’autres pays tels que
l’Allemagne, l’Irlande, le Portugal n’ont pas atteint l’objectif de 80% de déploiement d’ici 2020 7.

En France, Enedis avait l’ambition d’installer 35 millions de compteurs communicants (Linky) d’ici 2020.
En raison de la crise sanitaire, 30 millions de compteurs sont installés en février 2021 8 et les dernières
estimations porteraient à 90% le déploiement des compteurs à la fin 2021 9. Le compteur communicant
remonte l’énergie journalière consommée ou produite par les clients BT, et informe aussi les centres
de supervision BT des excursions de tension en cas de contrainte. Des informations supplémentaires,
comme la courbe de charge (CdC), peuvent être remontées sur demande du client.

Le raccordement d’un producteur sur le réseau se fait via un onduleur dont le pilotage régule l’injection
de la puissance active et réactive sur le réseau. Cette capacité permet d’envisager d’effacer de la
production. Depuis 2020, un arrêté de raccordement demande aux nouveaux producteurs BT d’avoir
des capacités de pilotage en réactif 10.

D’autres capteurs peuvent aussi être installés, notamment au niveau des transformateurs, à l’image
des postes HTB/HTA, afin de connaitre les transits de puissances et vérifier qu’il n’y a pas de surcharge.
Cependant, cette installation est coûteuse à l’échelle nationale et difficile à justifier économiquement.

Grâce à l’observabilité du réseau BT apportée par les compteurs, Enedis est en mesure de savoir si des
contraintes de tension apparaissent, où elles se situent et à quels moments de la journée. Il peut ainsi
comparer ses prévisions avec la réalité du terrain. Il devient ainsi envisageable d’intégrer des moyens
de contrôle actif du réseau tel que le pilotage actif de la consommation ou de la production. Ces
perspectives de contrôle sont disponibles grâce au développement de l’électronique de puissance (EP).
L’EP sert, entre autres, d’interface entre les sources d’énergie photovoltaïque, des équipements
électroménagers, qui sont en courant continu, et le réseau électrique en courant alternatif à travers
des équipements de type onduleur et redresseur. L’EP peut aussi servir à interconnecter 2 réseaux
entre eux qui peuvent avoir des tensions, courants, et fréquence différents (en passant par une ligne
à courant continu). De plus, l’EP permet la gestion de la puissance réactive à travers, par exemple, des
convertisseurs (SVC) en régulant la tangente phi [33].

Un des avantages de cette technologie est le temps de réponse faible (1 microseconde). En effet, l’EP
utilise des interrupteurs pour commander ses caractéristiques de sortie.

II.2.b Evolution des ressources locales (VE, PV, PAC) et des


processus de planification
Les manières de consommer l’électricité sont en pleine évolution. En effet, le plan de transition
énergétique du gouvernement défini dans le PPE [34] prévoit :

- La rénovation énergétique des bâtiments : isolation thermique, transition vers des pompes à
chaleur.
- L’augmentation du parc automobile électrique : de 200 000 véhicules électriques en 2020 à 1
million en 2022 et jusqu’à 15 millions en 2035 sur le scénario avec la plus forte intégration.

7
https://www.tripica.com/blog/utilities/smart-meter-deployment-the-impact-on-eu-households/
8
https://www.enedis.fr/presse/30-millions-de-foyers-equipes-du-compteur-communicant-linky
9
https://www.kelwatt.fr/guide/compteur/electricite/calendrier-installation-linky
10
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000042032189/ (article 54)

35
- L’installation de moyens de production décentralisée chez les clients pour atteindre une
installation solaire de 35 à 44 GW de capacité de production décentralisée en France (en 2018,
la puissance installée était de 8,9 GW).

Ces ressources locales sont généralement invisibles pour le GRD, c’est-à-dire que le planificateur et le
centre de conduite ne savent pas où seront raccordés les usages exactement (hormis lors d’une
demande de raccordement de panneau(x) solaire(s)), rendant leur prise en compte dans les études de
planification plus difficile. Cette évolution des usages est essentielle à la décarbonation du système
mais vient perturber le planificateur du réseau dans l’intégration de ces ressources locales dans les
méthodologies et processus métiers.

Face à la complexité croissante de la modélisation de la consommation sur une projection long terme,
la littérature peine à se positionner sur des nouveaux modèles pour la basse tension. L’utilisation de
séries temporelles, comme par exemple des courbes de charge issues de campagnes de mesure [35]–
[37] pour simuler l’état du réseau permettrait d’être plus proche de la réalité. Cependant, plus on se
projette dans le temps et plus le niveau d’incertitudes de ces courbes de charge augmente (évolution
des consommations du foyer, déménagements, famille qui s’agrandit, entre autres). De plus, une autre
limite de ce type de modélisation est la quantité de données nécessaires et l’écart géographique
(température, habitude, entre autres) entre la zone issue des campagnes et la zone simulée.
L’utilisation de lois statistiques ou l’arithmétique floue [8], [38]–[40] fait aussi l’objet de recherche afin
de proposer une approche probabiliste de la planification. Les auteurs modélisent les variables de
façon probabiliste afin de calculer différents indicateurs sous forme de fonction de distribution telles
que la distribution de contrainte, la qualité de fourniture ou les pertes. En HTA, [41] propose de
découper une monotone de charge et de créer une fonction de densité de probabilité à partir de ces
différents découpages. Cette approche a aussi été explorée dans la thèse, voir Annexe A : Utiliser une
monotone de charge pour simuler la consommation des clients.

La modélisation de la puissance réactive via une tangente phi fixée à 0,4 [4] semble très utilisée.
Néanmoins, quelques publications, [42], [43], utilisent des mesures pour en améliorer les valeurs. Avec
les compteurs communicants, la recherche sur la modélisation de la tangente phi pour les
consommateurs pourrait évoluer grâce aux informations qu’ils relèvent chez les particuliers.

a) Evolution des équipements raccordés aux réseaux


En parallèle, de « nouveaux » équipements (sous contrôle du distributeur) peuvent être installés sur
les réseaux BT pour apporter plus de contrôle sur les flux de puissance :

1. Le régleur en charge du transformateur HTA/BT (ou OLTC pour On-Load Tap Changer)
Les transformateurs HTA/BT sont historiquement munis d’un régleur hors charge c’est-à-dire
que le changement de prise nécessite une déconnexion du réseau électrique. Le régleur en
charge, habituellement utilisé en HTB et HTA, permet de modifier le coefficient de
transformation entre la HTA et la BT automatiquement en fonction des mesures locales. Il
pourra par exemple remonter la tension du jeu de barre si ces relevés indiquent qu’elle est
trop faible par rapport à la tension de consigne ou, dans le cas contraire, diminuer la tension.
Ce levier a une action globale sur le plan de tension BT.

2. Les contacts virtuels des compteurs communicants


Lors de la création du compteur communicant, il a été prévu d’y installer des contacteurs
virtuels. Il devient possible de connecter des équipements spécifiques à ces contacteurs pour

36
qu’une entité extérieure puisse contrôler à distance ces équipements. Il est essentiel de noter
que la connexion de ces équipements ne pourra se faire sans l’aval du client.
3. Les onduleurs
Déjà essentiels pour interfacer un panneau solaire avec un réseau AC, les onduleurs peuvent
aussi être raccordés à un système de stockage ou en un point du réseau afin de rééquilibrer
les flux de puissance entre les phases [5].

b) Intégration des nouveaux usages dans les prévisions


de consommation (VE, PAC)
Au sujet de la modélisation des ressources locales pour la planification des réseaux BT, elles
représentent généralement des usages avec un fort potentiel électrique, comme le VE ou la PAC. Un
usage avec un fort potentiel électrique se définit comme un usage qui modifie significativement la
courbe de charge à la fois à la pointe et sur la forme. Ajouter un usage avec un fort potentiel électrique
en appliquant un taux d’accroissement sur la courbe de consommation utilisée par le planificateur
comme cela a toujours été fait est possible mais comporte des problèmes d’échelles : le taux
d’accroissement est généralement utilisé à une maille foisonnée, sans contrainte de localisation, et ne
prend pas en compte les caractéristiques de l’usage. Cela pourrait se traduire par l’aveuglement
d’appels de puissance en bout de réseau (par exemple : une recharge de VE) générant des contraintes
de sous tension.

De plus, la forme de la courbe de charge, par définition, doit également être modifiée si l’on fait appel
à de la flexibilité. De nouvelles études s'attardent sur la description de ces nouveaux usages et le
Tableau II-1 résume plusieurs solutions présentées dans la littérature pour les prendre en compte.

Référence Usages Modélisation


- Chaque VE consomme 7,5 kWh chaque jour
VE
- Niveau de charge variable avec un maximum à 11 kW
[36] Génération de courbes de charges calorifiques en fonction de la
PAC température et convertie en demande d’énergie avec un
coefficient de performance égal à 3.
- Fonction de probabilité normale pour le début de la recharge
[44] VE - 3 niveaux de recharge possible : 3,7 kVA, 7,4 kVA ou 22 kVA.
- Lieu de recharge issu d’une autre fonction de probabilité.
- Courbe de recharge issue d’une campagne de mesure
[45] VE
- Lieu de recharge connu
Tableau II-1 : Prise en compte des nouveaux usages dans les études de planification

A partir de ces différents articles, on constate que quatre variables définissent chaque usage :

- L’emplacement,
- La puissance consommée (ou produite),
- Le moment de l’utilisation de l’usage
- La durée de l’utilisation de l’usage.

Ces quatre paramètres doivent être pris en compte dans les processus de planification BT afin de
considérer le foisonnement de l’utilisation des usages entre eux, la présence de l’usage chez un client
et la puissance de l’équipement que possède le client.

37
On constate que les études se contredisent sur leurs choix de modélisation, ce qui montre une certaine
difficulté à se projeter sur la modélisation de VE, du court terme au long terme, et que le sujet n’est
pas encore suffisamment mature pour avoir un consensus de la communauté scientifique.

c) Evolution de la production décentralisée


Pour les études de planification concernant l’augmentation de la production décentralisée, des auteurs
utilisent, comme pour la consommation, des courbes de production issues de mesures [5], [8], [36]. Il
est aussi possible d’utiliser des fonctions de densités de probabilité comme la loi normale ou la loi Beta
par exemple comme le résume l’état de l’art [46] (synthèse dans le tableau 1 du document). Les
différentes contraintes qui sont étudiées restent les mêmes que pour une étude de planification à
température minimale de base (Tmb) décrite en II.1.a.

Les quatre variables qui définissent la production décentralisée sont identiques à celles définies pour
les usages. Pour la puissance de raccordement des panneaux solaires, la DTR précise comment faire
face à une demande de raccordement d’un client mais il n’y a pas à ce jour de document pour intégrer
des prévisions de demandes de raccordement futures sur les réseaux BT dans les processus de
planification BT. Cependant, le document [23] précise que pour une demande de raccordement de
production seule, le raccordement d’une puissance inférieure à 6 kVA est réalisé en monophasé, sinon
en triphasé afin d’éviter des impacts de déséquilibre, démontrés dans [37]. Le nombre de
raccordements déjà réalisés par Enedis ainsi que les puissances raccordées sont répertoriées sur leur
OpenData 11. Dans la littérature, les méthodes répertoriées pour obtenir les puissances de
raccordement sont nombreuses :

- La puissance crête est connue via la ou les demandes de raccordement du réseau [8]
- La puissance de raccordement est comprise entre 1 et 10 kW [36]
- La puissance est fixée à 10 kW [47]
- Les demandes sont anticipées via des questionnaires [48].

D’autres auteurs réalisent des calculs de capacité d’accueil, comme [49], qui place une production PV
sur chaque maison et étudie à partir de quelle puissance de raccordement le réseau devient contraint.

Dans nos travaux, nous avons choisi d’étudier l’impact de la modélisation de la consommation et de la
production sur la distribution de la chute de tension afin de définir les besoins en modélisation. A partir
des résultats de cette étude, nous avons choisi d’utiliser des outils développés en interne chez EDF afin
de prendre en compte et modéliser la production solaire et le véhicule électrique.

II.2.c Les solutions de flexibilités : présentation et


intégration
Depuis plusieurs années, le réseau de distribution évolue avec l’apparition de nouveaux services
permettant de soulager les contraintes précédemment énumérées. Par exemple, l’effacement de
consommation a fait son apparition en 2003 organisé par RTE à travers des contrats directs avec des
industriels et arrive sur les marchés de l’électricité en 2013 12. En basse tension, le réseau s’instrumente
aussi (II.2.a), grâce notamment à l’installation de compteurs communicants chez les particuliers.

11
https://data.enedis.fr/explore/
12
https://www.cre.fr/Electricite/Reseaux-d-electricite/Effacements

38
Les solutions de flexibilités font partie des nouvelles solutions qui émergent grâce au développement
des Smart Grids et des équipements connectés aux réseaux qui permettent de connaître l’état du
réseau et de piloter les flux de puissance, grâce notamment aux innovations des dernières décennies
dans le secteur de l’électronique de puissance. [5] propose dans son manuscrit un état de l’art
conséquent sur l’avancement des solutions de flexibilité.

Par la suite, nous appellerons « leviers » les solutions permettant de lever des contraintes sur le réseau.
Deux types de leviers seront distingués : les leviers dits traditionnels, comprenant ceux présentés en
II.1.a et les leviers dits « novateurs ». Les leviers se distinguent en deux catégories :

• Leviers traditionnels dont le TOTEX est majoritairement du CAPEX. Les quatre solutions
présentées en II.1.a s’incluent dans cette catégorie. D’autres solutions de flexibilité
s’ajouteront à cette liste, car elles nécessitent des investissements importants avec peu de
coût opérationnel et permettent de contrôler les flux de puissance.
• Leviers novateurs dont le TOTEX est majoritairement de l’OPEX : les leviers agissent (en continu
ou en intermittence) sur les flux de puissance et génèrent des coûts d’exploitation.

Pour les leviers traditionnels, on notera la proposition de [50] portant sur l’interconnexion des réseaux
BT (plutôt urbains ou en périphérie) lorsque cela est possible (économiquement intéressant et
topologiquement réalisable sous certaines conditions) permettant aux réseaux BT d’être reconfigurés,
à l’image de la HTA, pour améliorer la résilience des réseaux BT.

a) Description des solutions


Le « game changer » de ces 10 dernières années est le développement des solutions de flexibilité pour
la conduite temps réel des réseaux, que ce soit pour les périodes de forte consommation ou de forte
production. Pour chaque solution, la littérature propose différentes méthodes de modélisation pour
les prendre en compte dans les processus de planification avec différents résultats discutés ci-dessous.
Cette partie a été rédigée en s’appuyant principalement sur l’état de l’art [51].

N°1. Réglage avancé de puissance réactive des producteurs

Le réglage de la puissance réactive des producteurs utilise les onduleurs installés entre le réseau et les
producteurs pour fournir ou absorber de la puissance réactive afin de supporter le réglage de tension
et donc, par effet indirect et limité, de maximiser la puissance de raccordement du producteur. Cela
permet alors d’éviter un raccordement ou renforcement coûteux pour un producteur qui serait
susceptible de demander une puissance de raccordement plus faible qu’initialement prévue dans le
but d’éviter des surcoûts liés à l’installation. Ce type de réglage peut être utilisé de deux manières
différentes : localement, chaque onduleur applique son propre réglage qui peut être défini lors de
l’installation de celui-ci voire modifié avec une intervention humaine. Sinon, il peut être utilisé à
distance via un centre de contrôle [47], qui à partir de toutes les informations dont il dispose sur le
réseau, envoie des consignes de réglage aux onduleurs du réseau. L’état de l’art [46] recense
différentes méthodes de réglages de tension.

En basse tension, le ratio R/X est plus élevé que sur les autres niveaux de tension, rendant le réglage
en réactif moins efficace, mais son intérêt reste viable [51]. Cependant, d’après ce même auteur, la
capacité d’accueil des réseaux BT pourrait tout de même être augmentée en moyenne de 20% grâce à
l’utilisation de cette solution.

Deux types de réglages : (𝑎𝑎) ∶ 𝑄𝑄 = 𝑓𝑓(𝑈𝑈) 𝑜𝑜𝑜𝑜 (𝑏𝑏) ∶ 𝑄𝑄 = 𝑃𝑃 tan(𝜑𝜑) (Figure II-4) :

39
Figure II-4 : Schéma de méthodes de contrôle de puissance réactive [5], [51]

Un réglage 𝑄𝑄 = 𝑓𝑓(𝑈𝑈) réalisé par un onduleur est le réglage qui permet d’injecter ou de consommer
de la puissance réactive en fonction de la tension d’entrée que mesure l’onduleur.

Un réglage 𝑄𝑄 = 𝑃𝑃 tan(𝜑𝜑) considère la puissance produite par le panneau solaire et règle la valeur de
la tangente phi en fonction de cette puissance pour injecter ou consommer de la puissance réactive.

D’après [5] et pour la HTA, fixer tan 𝜑𝜑 = −0,5 augmenterait la capacité d’accueil de 12% tandis qu’un
tan 𝜑𝜑 = −1 l’augmenterait de 91%. D’autres auteurs ont comparé le coût des différentes solutions,
comme [47] qui réduit d’environ 50% le coût pour le GRD (CAPEX et OPEX) par l’utilisation d’une
régulation en réactif par rapport à un renforcement traditionnel du réseau. [52] compare relativement
le coût avec un transformateur OLTC, et montre que l’OLTC est plus intéressant. Il est quand même
montré que le réglage en réactif permet de retarder le renforcement de plusieurs années. Dans les
travaux de [8], s’inscrivant dans l’intégration de panneaux solaires en milieu rural, l’auteur teste
différentes solutions sur deux scénarios : un scénario, appelé NégaWatt, considère une forte
intégration de panneaux solaires sur ses réseaux. Le second scénario, appelé tendanciel, considère une
faible intégration de panneaux solaires. Les résultats sont présentés dans la Figure II-5 et la Figure II-6.
Le gain (en %) est issu du rapport entre le coût de la solution testée et une solution contenant
uniquement du renforcement.

Figure II-5 : forte insertion de PV [8, p. 159]


Figure II-6 : faible insertion de PV [8, p. 160]

Les 5 solutions étudiées, notées de S0 à S4, ont été définies par l’auteur telles que :

- « +R » : Renforcement minimum pour éviter l’apparition de contrainte


- S0 : aucune solution
- S1 : « Q=f(V) », correspondant au levier n°1 (Réglage Q) avec contrôle dynamique
- S2 : « Bridage à 70% » correspondant au levier n°3 (Effacement Prod)
- S3 : « OLTC » correspondant au levier n°2 (Réglage U)
- S4 : « tan ϕ fixe » correspondant au levier n°1 (Réglage Q) sans contrôle

40
Dans ses résultats, l’auteur montre l’intérêt important du réglage en réactif que ce soit pour un
contrôle actif (Q=f(V)) ou passif (tan 𝜑𝜑 fixe) contrairement à l’OLTC dont l’intérêt technique et
économique est très dépendant des scénarios et des réseaux.

N°2. Réglage avancé de tension dans les postes de distribution

Cette solution consiste à mettre en place un transformateur HTA/BT intelligent de type OLTC ou à base
d’électronique de puissance (semi-conducteur par exemple). Il s’agit d’un transformateur qui peut
𝑈𝑈
changer le ratio 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒é𝑒𝑒�𝑈𝑈 afin d’optimiser la tension du réseau BT en fonction du type de
𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠
contrainte qui peut apparaitre. Un transformateur HTA/BT traditionnel comporte en général trois
prises réglables hors charge [-2,5% ; 0% ; 2,5%]Un ou [0% ; 2,5% ; 5%]Un [53]. Comme cité
précédemment, [52] montre qu’en milieu rural, le transformateur HTA/BT avec OLTC peut être
avantageux pour décaler ou éviter un renforcement. Les résultats de [47] montrent que le
transformateur a des gains financiers similaires à d’autres leviers (n°1,3 : Réglage Q et Effacement
Prod). Cependant, le coût d’achat d’un transformateur OLTC étant élevé, cette solution devient moins
intéressante comme le montrent les Figure II-5 et Figure II-6 [8]. Dans ce sens, [51] formule des
conclusions similaires aux deux autres articles et incite les GRD à utiliser un transformateur régleur en
charge uniquement dans les cas où le réseau comporte plusieurs départs.

N°3. Effacement de la production

Cette solution consiste à demander aux producteurs d’effacer une partie de leur production afin de
limiter l’injection de puissance active sur un réseau pour éviter l’apparition de contraintes. Aux yeux
du public, effacer de l’énergie verte et gratuite parait inconcevable mais il s’agit d’une solution facile
à mettre en place avec un potentiel important pour éviter de limiter fortement le nombre de PV
installés sur un même réseau [51]. Comme pour le réglage avancé de puissance réactive, la valeur de
l’effacement peut être fixe ou variable, à partir d’un réglage local ou à distance. Dans [47], l’effacement
fixe de tous les producteurs à 70% se montre moins intéressant financièrement que le renforcement,
notamment dû à la rémunération des producteurs (28,74 c€/kWh effacé). Cependant, l’utilisation d’un
contrôle de puissance active de type 𝑃𝑃 = 𝑓𝑓(𝑉𝑉) permet d’avoir une meilleure rentabilité, puisque cette
solution est, d’après ce même auteur, la solution (traitée seule) la plus intéressante financièrement.
L’auteur [51] insiste sur le fait qu’un écrêtement fixe ne signifie pas que chaque jour, beaucoup
d’énergie sera effacée. En effet, la perte d’énergie peut être de 5% pour un certain jour et 0% un autre,
même avec un écrêtement à 70%. Comme le montre la référence [8], réaliser un écrêtement de la
production à 70% est « considérée acceptable pour les producteurs, car elle correspond déjà environ
aux écarts qu’on peut trouver entre le nord et le sud […], et cet effet se cumule à des effets
d’orientation et d’inclinaison non optimales (réductions entre 0% et 45%) ». Cet auteur a donc un avis
bien plus positif que [47] sur l’écrêtement sans donner de valeur mais en citant plusieurs études.
Cependant, un contrôle actif de l’effacement est plus efficace et permettrait notamment de partager
les coûts de l’énergie effacée entre l’ensemble des producteurs. A nouveau, l’état de l’art [46]
complète les références présentées ci-dessus.

N°4. Installation de systèmes de stockage d’énergie distribués

Les systèmes de stockage d’énergie distribuées (SSED) consistent à récupérer ou utiliser l’énergie qui
devait être effacée (n°3,5 : effacement conso ou prod) afin d’éviter des contraintes de courant, de
puissance, ou des excursions de tension haute ou basse pour la réinjecter au réseau à un moment plus
opportun. Le SSED étant connecté à un onduleur, le levier n°1 (Réglage Q) peut être aussi appliqué
pour contrôler de la puissance réactive afin de réguler la tension. Le stockage est un levier avec un fort

41
potentiel pour résoudre toutes les contraintes, mais il fait face à plusieurs verrous, dont sa viabilité
économique et son impact environnemental [5], [54].

Le dimensionnement d’un SSED doit prendre en compte les phénomènes stochastiques de la


consommation et de la production pour déterminer la capacité minimum du stockage [51]. Plusieurs
études comparatives ont été réalisées dont [36] qui montre un intérêt négatif pour le SSED sur des cas
applicatifs de planification long terme en BT en raison du coût d’investissement important dans une
batterie. En revanche, [55] propose de calculer l’énergie qui doit être effacée sans utiliser de stockage,
puis de calculer si le coût d’achat d’une batterie devient économiquement intéressant. L’estimation
du CAPEX du stockage est d’environ 350€/kWh[36] avec une hypothèse de diminution des coûts de
production à environ 175€/kWh d’ici 2030. Comme discuté en II.1.b, le stockage fait partie des leviers
testés dans le cadre de démonstrateurs comme le projet Nice-Grid [56]. D’autres études proposent
d’utiliser des batteries mobiles [57] permettant d’utiliser la batterie comme un groupe électrogène et
de la déplacer en fonction des besoins de plusieurs réseaux. La direction régionale des pays de Loire
d’Enedis porte un projet sur cette thématique13 avec pour objectif de remplacer les groupes
électrogènes pour des travaux d’aménagement du territoire par des batteries mobiles. Cependant, on
pourrait se demander si ce type de solution serait viable en planification et sur quelle maille.

NB : des modèles économiquement viables d’un SSED sont conçus pour recharger la batterie lorsque
le coût de l’électricité est faible et la décharger aux moments inverses. Cette situation pourrait
potentiellement créer des conflits entre les contraintes d’un GRD et le propriétaire du SSED.

N°5. Gestion active de la consommation

Cette solution consiste à demander aux consommateurs de moduler la consommation de certains


usages à fort potentiel électrique (chauffage, véhicule électrique, eau chaude sanitaire, entre autres)
afin d’éviter des excursions de tension haute et basse ou des surcharges. Ce levier est particulièrement
présent dans la littérature pour augmenter la capacité d’accueil des moyens de production
décentralisée [58]. Ce levier est déjà utilisé par Enedis via des agrégateurs en HTA et par des contrats
d’effacement négociés principalement avec des industriels. Mais l’effacement fonctionne aussi en
basse tension, aujourd’hui à partir d’acteurs/agrégateurs venant installer un « boitier intelligent » qui
connecte les équipements du consommateur à fort potentiel électrique et permettent de diminuer ou
d’effacer une partie de la consommation. L’entreprise se rémunère alors en proposant de l’effacement
de charges sur les marchés de l’électricité.
A l’international, cette solution a été testée expérimentalement par le projet « Activating Community
Engagement » [59] qui étudie comment inciter des consommateurs à modifier leurs consommations
journalières pour aider les gestionnaires de réseaux en échange de compensations financières. La
capacité d’effacement est estimée chaque jour pour chaque pas de temps (20 secondes) et les résultats
montrent un intérêt de cette solution de flexibilité. Les gains de tension sont d’1,2% avec l’utilisation
de modèles de consommation déterministe. Ce gain, qui semble négligeable, est dû au nombre très
important de données et sont calculés sur au moins 500 itérations Monte Carlo d’une année au pas de
temps 15 minutes. L’analyse des résultats de simulations montrent que le réseau serait contraint
18h20/an sans effacement, et 3h30/an avec. Cependant, la seconde figure du document (Figure II-7)
présente statistiquement la disponibilité d’effacement par foyer et montre une difficulté d’estimation
de la capacité d’effacement d’un foyer.

13
https://smile-smartgrids.fr/fr/les-projets/nos-projets/batmobile.html

42
Figure II-7 : figure 2 de l'article [59] représentant deux estimations statistiques de la capacité d’effacement du réseau simulé
(ensemble des clients) en fonction des heures de la journée

Les perspectives du document portent sur l’intégration de ce levier de flexibilité dans un outil de
planification et sur le besoin d’études supplémentaires pour trouver des méthodes optimales
d’engagement des clients. En effet, une autre étude, [60] a montré que l’utilisation seule de l’incitation
tarifaire (limitée à l’extinction de la machine à laver et de la pompe à chaleur) avec un système de
bonus / malus avait un taux de réponse à l’effacement limité :

2%

21%

35% Signal reçu, lancement retardé

Signal reçu, machine eteinte

Signal reçu, machine déjà en fonctionnement

Signal reçu, lancement de la machine

Signal non reçu

Signal reçu, pas de donnée sur le résultat

1%

4% 37%

Figure II-8 : Résultat de l'expérimentation du levier: gestion active de la consommation [60]

Pour résumer ces deux projets présentés, on notera que la gestion active de la consommation a un
potentiel électrique très important mais il est nécessaire de trouver une solution pour fiabiliser le
fonctionnement de ce levier de flexibilité.

43
Cette solution pour augmenter la fiabilité pourrait être l’installation du compteur communicant (Linky
pour la France), équipé de sept contacts virtuels 14, dont l’installation dans les foyers est presque
terminée. Il devient envisageable de permettre aux fournisseurs d’électricité de proposer des offres
plus personnalisées par client, comme l’intégration d’offres tarifaires multiples (en fonction des
saisons, de la semaine, entre autres) voire même l’effacement d’équipements préalablement
connectés au compteur Linky via la prise TIC. Ces offres tarifaires ou incitations tarifaires [61] ont pour
objectif de proposer des plages de consommations modulables où le prix de l’électricité est plus
attractif, à l’image des heures pleines / heures creuses (HP/HC) déjà utilisées en France depuis les
années 80. Des verrous réglementaires seront à résoudre [62], [63] mais le potentiel de ce levier est
très important, et peut se combiner avec d’autres leviers tels que le stockage ou l’effacement de
production [51]. Avec l’intégration massive attendue du véhicule électrique, la gestion active de la
consommation devient un enjeu majeur dans le développement des réseaux [18], [45], [64], [65]. La
recherche sur ce levier s’intéresse principalement à son fonctionnement sur le court terme [66] et peu
d’études s’intéressent à son intégration sur le long terme, particulièrement en basse tension. En effet,
les résultats des expériences sur les incitations tarifaires présentés en II.1.b [59] avaient montré la
difficulté de prévoir le bon fonctionnement de l’effacement. Cependant, dans la littérature, l’intérêt
de l’effacement de la consommation ne considère pas la probabilité qu’un client ne puisse pas être
effacé pour diverses raisons, comme pour l’article [66].
N°6. Contrôle des flux de puissance par des convertisseurs statiques

Cette solution est un levier novateur qui utilise de l’électronique de puissance pour rééquilibrer le
réseau. Il s’agit d’une solution nécessitant un investissement (elle se classe donc dans la catégorie des
leviers traditionnels) qui peut être utilisée sans communication ni contrôle centralisé une fois son
installation sur le réseau avec des logiques de pilotage déjà enregistrées, mais elle peut aussi être
utilisée avec un pilotage à distance via les centres de conduite.

Ce rééquilibrage peut déjà s’effectuer en utilisant les onduleurs des PV raccordés en triphasé. Sinon,
d’autres dispositifs permettent le même fonctionnement tels que :

- des convertisseurs STATCOM (compensateurs statiques synchrones) permettant de


rééquilibrer le réseau mais aussi d’autres applications présentées dans cet état de l’art [67].
Cette solution est utilisée sur les réseaux de transport et s’il existe des produits qualifiés, elle
reste très couteuse pour la basse tension et non justifiée économiquement;
- des DSSSC (Distribution Static Synchronous Series Compensators) qui s’installent directement
au poste de distribution HTA/BT pour rééquilibrer les différents départs [5], [68] ;
- d’autres dispositifs FACTS (SVC : Static Var Compensator ; TCSC :Thyristors Controlled Series
Compensator ; entre autres) [69].

N°7. Modification des phases de rattachement des utilisateurs BT

Cette solution, comme la n°6 (Contrôle flux), est un levier novateur qui, cette fois, n’utilise ni
électronique de puissance, ni contrôle à distance. L’objectif est donc de limiter le déséquilibre entre
les raccordements afin d’avoir des transits de puissance équilibrés entre les trois phases. La
modification de phase doit se faire manuellement. Cette solution devient possible grâce à l’installation
du compteur communicant qui permet de connaitre la phase de raccordement du foyer. En effet, cette
information était inaccessible avant et les foyers étaient raccordés arbitrairement. Ce type de solution
est utilisé lorsque le compteur communicant reporte des contraintes sur un réseau. Le réseau est alors

14
https://www.enedis.fr/media/2236/download

44
mis en surveillance et une étude du réseau permettra de vérifier si le problème vient d’un déséquilibre
trop important (discuté en II.1.c), d’un besoin de renforcement des infrastructures ou d’utilisation de
solutions de flexibilité. Dans les cas où il s’agira d’un déséquilibre, une modification des phases de
raccordement pourra être réalisée.

Cette solution, comme les six présentées précédemment pour lever les contraintes, doit pouvoir se
comparer aux solutions historiques, dont l’intérêt technico-économique varie en fonction des
hypothèses, des réseaux, notamment pour une maille d’étude locale comme celui de la basse tension,
où la difficulté à anticiper les évolutions est importante, comme l’a démontré [8].

b) Exemples d’utilisation des leviers


Des démonstrateurs en cours ou terminés en France et à l’international testent le bon fonctionnement
et l’intérêt économique de ces leviers sur des réseaux réels. Le plus connu, Smart Grid Vendée, est un
projet à l’échelle d’un département (Figure II-9) qui a duré 5 ans. Les solutions de flexibilité testées
sont la gestion de la consommation (effacement) et la production (effacement et réglage en réactif).
Le projet Nice Grid [56] a testé l’intégration de systèmes de stockage pour faciliter l’insertion de
production décentralisée. A Lyon et à Grenoble, le projet Greenlys 15 a étudié le compteur Linky pour
démontrer les avantages des solutions de pilotage du réseau en temps réel, ainsi que des technologies
pour stabiliser la tension (dans les plages de la norme [1]) dans un contexte d’augmentation de la
production décentralisée. Les leviers utilisés sont le stockage, le pilotage de l’installation électrique
(VE, production, entre autres). Le projet SMAP étudie l’optimisation du déploiement des moyens de
production et intègre des solutions comme le réglage en réactif, le transformateur OLTC ou encore
l’effacement de production. De plus, la CRE 16 et l’ADEME [70] référencent une cinquantaine de
démonstrateurs à travers la France et à l’international. Il y a notamment des projets en phase
d’expérimentation comme sur l’ile de Semakau 17 qui testent les leviers d’effacement de la
consommation et de la production ainsi que le stockage. D’autres projets à l’international, comme le
projet « Activating Community Engagement » [59] ou encore le « Custumer-Led Network Revolution »
[60], étudient la gestion active de la consommation via des incitations tarifaires. L’objectif est d’effacer
des clients pour reporter ou éviter des investissements en envoyant des messages aux consommateurs
(activation manuelle).

15
https://www.smartgrids-cre.fr/projets/greenlys
16
https://www.smartgrids-cre.fr/projets?tx_site_projectsearch%5Bpage%5D=2#results
17
https://www.edf.fr/groupe-edf/espaces-dedies/journalistes/tous-les-communiques-de-presse/edf-met-en-
service-le-premier-demonstrateur-microgrid-francais-operationnel-a-singapour

45
Figure II-9 : Périmètre du démonstrateur Smart Grid Vendée : Liste des infrastructures équipées de dispositifs de contrôle

c) Synthèse des solutions de flexibilité


Pour résumer, les solutions de flexibilités pour la basse tension peuvent être synthétisées dans le
Tableau II-2 ci-dessous avec leurs paramètres d’influence.

Paramètres d'influence
Topologie R X P Q U
Levier de flexibilité
N°1. Réglage avancé de puissance réactive
X
des producteurs (Réglage Q)
N°2. Réglage avancé de tension dans les
X
postes de distribution (Réglage U)
N°3. Effacement de la production
X
(Effacement Prod)
[5, p. 38], N°4. Installation d’un système de stockage
[8, p. 118 X X
d’énergie distribué (Stockage)
119 20]
N°5. Gestion active de la consommation
X X
(directe et indirecte [61]) (Effacement Conso)
N°6. Contrôle des flux de puissance par des
X X
convertisseurs statiques (Contrôle Flux)
N°7. Modification des phases de
rattachement des utilisateurs BT X X X
(Rééquilibrage)
Tableau II-2 : Classement des solutions de flexibilité pour la basse tension en fonction de leurs paramètres d'influence sur la
capacité d'accueil des réseaux suivant [5]

II.3 Méthodes de modélisation


L’ensemble des évolutions présentées dans les chapitres I et II challengent les planificateurs sur leurs
outils de simulation afin de considérer l’augmentation du nombre de variables et d’incertitudes.

Pour rappel, les défis pour les nouveaux outils de simulation se résument par la :

46
- Modélisation sur le long terme de la consommation des usages traditionnels et les nouveaux ;
- Modélisation des solutions de flexibilité pour connaître leurs impacts sur les processus de
planification.
- Détermination d’une probabilité de risque de contraintes annuel sur le long terme.

Pour anticiper ces changements qui s’opèrent actuellement sur le réseau, plusieurs approches sont
possibles, dont :

1. Approche déterministe : Chaque variable est modélisée empiriquement par une valeur haute
afin de considérer la majeure partie des cas réalistes (95%).
2. Approche analytique : Chaque variable est modélisée comme une loi statistique (voir Figure
II-10 : en bleu avec une modélisation par la loi normale).
3. Approche logique floue : Chaque variable est modélisée comme un ensemble flou [71] (voir
Figure II-10 :orange).
4. Approche « hybride » : Chaque variable est modélisée par une fonction de densité de
probabilité créée pour la variable (exemple : modèle issu de campagne de mesures).
5. Approche Machine Learning / Intelligence Artificielle (IA) : chaque variable est modélisée par
une loi déterminée via des algorithmes d’IA à partir d’historiques de mesures. Ces modèles
peuvent évoluer en réentraînant régulièrement les algorithmes d’IA.
1
0,8
0,6
0,4
0,2
0
-4 -3 -2 -1 0 1 2 3 4
6.
Figure II-10 : Modélisation floue (orange) et normale (bleu) d'une variable

Au regard de ces approches, on remarque que le choix de la méthode coïncide avec la modélisation
des variables mais aussi avec les performances de calcul qui sont un atout majeur à considérer. En
effet, la planification est un problème « multi-objectifs (linéaires ou non linéaires) à variables discrètes
et continues soumis à des contraintes linéaires et non linéaires. Certains critères et contraintes ne sont
d’ailleurs pas toujours modélisables comme par exemple des paramètres exogènes (mutualisation
possible de travaux, problématique de terrain public et privé…). » [6]. Avec plus de 790 000 réseaux en
basse tension en France, la méthode de planification doit s’exécuter dans un temps raisonnable et
s’adapter à la disparité des différents réseaux (longueur et nombre de conducteurs, densité de
charges, entre autres).

Quelle que soit l’approche utilisée, pour inclure les nouveaux leviers pour lever des contraintes, il est
nécessaire de trouver une méthode pour les prendre en compte et les comparer financièrement les
uns aux autres ainsi qu’au coût d’un renforcement classique.

47
II.4 Conclusion
A travers les différentes lectures présentées dans ce chapitre, nous avons remarqué que la littérature
sur la basse tension était limitée. En effet, il s’agit d’un niveau de tension complexe à étudier : peu
voire pas du tout de foisonnement, un nombre de réseaux très important (≈790 000) avec une faible
observabilité et une dispersion fondamentale par leurs configurations, leurs localisations, mais aussi
par les clients qui y sont raccordés. Cependant, il s’agit d’un sujet de plus en plus étudié comme le
montrent les dates des publications citées.

La complexité d’étude d’un unique réseau basse tension provient dans sa manière d’être modélisé
(mathématiquement ou par simulations). Historiquement, la modélisation et les calculs
électrotechniques étaient faits de manière déterministe afin de minimiser le temps de calcul tout en
couvrant un important risque de contraintes grâce à la définition de scénarios dimensionnants. La
transition des modèles déterministes vers des modèles probabilistes doit s’accompagner d’une étude
de sensibilité, présentée dans le chapitre III, afin de comprendre l’impact des modèles utilisés sur la
distribution de la chute de tension et mieux comprendre les choix d’investissements pour ainsi vérifier
leurs cohérences avec les attentes du planificateur. Cela nous a permis d’élaborer une méthodologie
de planification avec une bonne maîtrise de nos modèles et de leur fonctionnement.

Des méthodes de planification BT ont été proposées dans la littérature, prenant en compte les risques
liés à l’utilisation de solutions de flexibilité en remplacement de solutions « traditionnelles » telles que
celles énoncées dans la section II.1.b. Certaines méthodes utilisaient une évolution possible du cadre
législatif (comme l’obligation des producteurs à être capables d’injecter ou absorber de la puissance
réactive dans le réseau, mesure devenue obligatoire au cours de la thèse) pour développer l’utilisation
de solutions de flexibilité (effacement de production, absorption de réactif). Du côté des flexibilités
utilisant les consommateurs, il n’y a ni proposition méthodologique sur le long terme, ni d’évolution
prévue pour le cadre législatif, alors que l’état de l’art a montré un vrai potentiel pour l’effacement de
la consommation. S’il n’est pas envisageable d’obliger un client à effacer ou réduire sa consommation,
l’utilisation des statistiques pour probabiliser cette action semble nécessaire.

Cependant, les statistiques ne sont pas du côté du distributeur comme l’ont montré les différents
démonstrateurs sur l’effacement de la consommation où le taux de réponse était très faible. Pour y
remédier, notre méthodologie de planification décrite dans le chapitre IV supposera l’arrivée
prochaine de nouvelles offres tarifaires des fournisseurs proposant aux clients de raccorder certains
de leurs usages sur les contacts virtuels du compteur communicant. Cela a pour effet de supprimer la
probabilité de réussite de l’effacement, mais apporte une nouvelle probabilité : celle de la souscription
du client à une offre d’électricité intégrant de l’effacement de consommation. Cette hypothèse
demande au planificateur de considérer cette probabilité dans ses processus s’il souhaite intégrer de
l’effacement de consommation, et permet de garantir de la flexibilité aux postes de conduite de
distribution à l’image d’entreprises de type agrégateur venant installer des modules de communication
chez les particuliers.

48
49
III. Evaluation des modèles dans les processus de
planification BT
Dans la planification des réseaux de distribution, le gestionnaire de réseaux tente de projeter ses
décisions d’investissement sur un temps long de plusieurs années. Pour ce faire, il dispose d’une vision
précise des usages actuels de l’électricité et de fortes incertitudes sur leurs évolutions futures.
L’utilisation d’informations agrégées en HTA, c’est à dire plus lissées grâce au foisonnement des postes
HTA/BT, ne suffit pas à décrire précisément la circulation des flux électriques sur des mailles d’étude
très locales en BT. Les chapitre I et II ont montré l’évolution des anciens et des nouveaux modèles
utilisés en planification, due, par exemple, aux nouveaux usages tels que le véhicule électrique et les
panneaux photovoltaïques (PV) ou encore à l’émergence de l’auto-consommation et des
communautés locales d’énergie. Des progrès technologiques dans le domaine des technologies de
l’information et de la communication permettent également de collecter plus de données et
d’augmenter les performances de calculs pour améliorer la résolution de problèmes complexes. Toutes
ces évolutions ont pour but d’apporter des modèles en adéquation avec la réalité pour dimensionner
les réseaux au plus proche des besoins réels. Dans ce chapitre, nous étudions le compromis entre la
complexité et la précision d’un modèle et l’impact de ce modèle sur la planification long terme des
investissements en BT. Pour cela, nous proposons de mesurer l’impact des modèles des variables
d’entrée du processus de planification sur les indicateurs de performance grâce à une analyse de
sensibilité. Cela permet ensuite de sélectionner ceux qui seront utilisés dans la suite des travaux et de
vérifier qu’ils sont en adéquation avec nos objectifs de planification tels que le développement des
nouveaux usages et solutions de flexibilité pour maintenir le bon fonctionnement du réseau au coût
sociétal minimal. Dans ce chapitre, pour répondre à la problématique du compromis exposé ci-dessus,
un état de l’art sur l’analyse de sensibilité est présenté. Ensuite les méthodes utilisées pendant nos
travaux sont exposées puis nous proposons une adaptation de ces méthodes aux réseaux BT. Cette
proposition est appliquée sur 10 réseaux BT puis analysée afin de choisir de nouveaux modèles pour
certaines variables d’entrée étudiées. Une conclusion présente l’apport de la méthode développée
ainsi que la contribution scientifique de ce chapitre.

III.1 Analyse de sensibilité


Les méthodes d’Analyse de Sensibilité (AS) déterminent la contribution de variables d’entrées d’un
système sur une ou plusieurs données de sortie. L’intérêt de telles méthodes est double : simplification
et meilleure compréhension du modèle et orientation des efforts de recherche sur les modèles (voir
[72]). L'objectif de l'analyse de sensibilité est d'indiquer l'importance relative des entrées incertaines
sur la distribution des données de sortie, plus précisément sur les variables d'intérêt, c’est-à-dire les
variables sur laquelle l’AS est réalisée. Le choix des entrées qui doivent être fixées et celles qui doivent
être modélisées comme incertaines sous peine de dégradation importante de la précision du modèle
peut être très subjective sans une étude de quantification des sources d’incertitudes.

La question centrale de l’analyse de sensibilité est : la sortie Y est-elle plus ou moins variable lorsque
l’on fait varier une des entrées Xi ? Les quatre objectifs d’une analyse de sensibilité sont rappelés ci-
dessous [73] :

• U (understand) : Comprendre l’influence ou classer l’incertitude de la variable, afin de guider


l’utilisateur à dimensionner ses besoins sur les variables.

50
Exemple : Quelle est l’influence du profil de charge d’un client sur le calcul de répartition des
charges.
• A (accredit) : Donner du crédit à un modèle ou une méthode de mesure dans le but d’atteindre
un niveau de qualité acceptable.
Exemple : Comment la précision de la mesure de la consommation par le Linky impacte le
calcul de répartition des charges.
• S (Select) : Comparer la performance relative d’un système et l’optimiser.
Exemple : Comment les variables d’entrée peuvent être adaptées pour obtenir une chute de
tension plus réaliste avec des mesures terrain.
• C (Comply) : Démontrer la conformité du système.
Exemple : le système répond-il aux exigences de la norme NF 50-160 ?

L’analyse de sensibilité devrait donc nous permettre de caractériser mathématiquement les besoins
sur les variables du réseau, c’est-à-dire de savoir si nous devons chercher à simuler des modèles plus
précis ou si les modèles actuels sont suffisants.

III.1.a Analyse de sensibilité Globale


« Le caractère risqué d’un processus est lié à l’omniprésence des incertitudes dans les variables qui
composent ce processus » [73]
L’Analyse de Sensibilité Globale (ASG) s’est développée pour pallier les limites des méthodes dites
locales (hypothèses de linéarité et de normalité, variations locales) [72]. L’intérêt de ce type de
méthodologie est l’étude de l’ensemble du domaine des variations possibles des variables d’entrée
[3]. La figure III-1 présente le processus de réalisation d’une analyse de sensibilité avec comme
paramètres d’entrées les variables incertaines 𝑥𝑥 et fixe 𝑑𝑑, le modèle 𝐺𝐺 et Y pour les variables de
sorties/d’intérêt:

Figure III-1 : Grandes étapes d’une étude d’incertitudes [74]

51
a) Etape A : Spécification du problème
Tout d’abord il faut définir l’ensemble des variables d’entrée en distinguant celles qui varient, notées
x, et celles qui sont fixes, notées d. Cette étape consiste à modéliser mathématiquement le problème
étudié et est donc une étape clé de l’AS. Les variables d’intérêt se définissent comme un vecteur, noté
Y, pour lequel l’incertitude doit être quantifiée.

Le modèle correspond à la fonction, notée G, qui permet de calculer les valeurs des variables d’intérêt
à partir des variables d’entrée du modèle. La base d’une étude d’incertitude se caractérise suivant
l’équation III-1:
III-1
𝑌𝑌 = 𝐺𝐺(𝑥𝑥, 𝑑𝑑)
Avec :

• 𝑥𝑥 = (𝑥𝑥 1 , … , 𝑥𝑥 𝑝𝑝 ) ∈ ℝ𝑝𝑝 désigne le vecteur des p variables d’entrées incertaines,


• 𝑑𝑑 = (𝑑𝑑1 , … , 𝑑𝑑 𝑠𝑠 ) ∈ ℝ𝑠𝑠 désigne le vecteur des s variables d’entrée fixées. Une variable est
généralement fixée lorsque son impact est faible où dans le cas de scénarios d’étude définis
lors de la spécification du problème,
• 𝐺𝐺(. ) désigne le modèle pouvant être une fonction mathématique ou un outil/logiciel à
condition de connaitre suffisamment ses entrées et sorties,
• 𝑌𝑌 = (𝑦𝑦1 , … , 𝑦𝑦 𝑟𝑟 ) ∈ ℝ𝑟𝑟 désigne le vecteur des r variables d’intérêt ou de sortie.

Figure III-2 : Description graphique de l'étape A : Spécification du problème

b) Etape B : Quantification des sources d’incertitudes


Une fois l’étape A réalisée, l’étape B consiste à définir les modèles des variables d’entrées de 𝑥𝑥. En
fonction du cadre de l’étude (déterministe ou probabiliste), la modélisation peut être issue de lois
statistiques, provenant de campagnes de mesure ou à dire d’experts. La principale contrainte
concernant la méthodologie est la nécessité d’avoir des variables indépendantes. Si des dépendances
sont jugées plausibles, il faudra se tourner vers d’autres méthodes d’analyses multi-dimensionnelles
[75].

c) Etape C : Propagation des sources d’incertitudes


L’objectif de l’étape C est identique à l’étape B, mais à la différence de travailler sur les variables
d’entrées, cette étape quantifie les incertitudes sur les variables de sortie, induites par les incertitudes
sur les variables 𝑥𝑥. Cette étape fournit les données statistiques de la réponse Y pour savoir comment
les variables d’intérêt du système (Y) répondent aux incertitudes modélisées par les variables 𝑥𝑥. Il s’agit
ici d’appliquer l’équation III-1.

52
d) Etape D : Analyse de sensibilité
Cette étape, qui peut aussi être appelée hiérarchisation des incertitudes, a pour objectif de classer les
incertitudes en fonction de leurs impacts sur les variables de sortie. Cette compréhension s’obtient par
l’analyse de la contribution des variables d’entrée sur la ou les variables de sortie. Pour calculer cette
contribution, de nombreuses méthodes ont été développées pour classer les sources d’incertitudes
par importance. On notera qu’une étude d’incertitude (Figure III-1) s’arrête rarement à l’issue de
l’étape D. L’un des objectifs de cette étape consiste à revoir si la pertinence des modélisations de
chaque variable d’entrée est en adéquation avec les résultats de l’étude de sensibilité.

e) Etape E : Requalification des sources d’incertitudes


Dans la Figure III-1, des flèches sont présentes pour boucler le processus d’analyse de sensibilité. Une
fois l’étude réalisée, si des besoins de nouveaux modèles sont adoptés, alors il est préconisé de refaire
les étapes B, C puis D afin de vérifier que les modifications des variables et du modèle G correspondent
aux attentes. Cette requalification doit se faire à partir des premiers résultats pour en ajuster les
paramètres aux besoins de l’utilisateur.

III.1.b Les méthodes d’analyse de sensibilité


Comme décrit dans l’étape D, il existe plusieurs méthodes pour réaliser une étude de sensibilité. La
Figure III-3 présente une partie de ces méthodes [72].

Figure III-3: Résumé de l’état de l’art sur les méthodes d’AS [72]

Les méthodes d’AS sont aujourd’hui connues des scientifiques et la description de chaque méthode
peut être facilement retrouvée. Les ouvrages répertoriés les plus utilisés dans la littérature sont écrits
notamment par Etienne Rocquigny [73] et par Andrea Saltelli [76] qui décrivent la plupart de ces
méthodes. Des auteurs plus récents s’inspirent généralement des fondamentaux proposés ci-dessus.

53
Pour choisir la méthode la plus adaptée au problème de planification sous incertitudes, il faut d’abord
se demander si les variables d’entrées sont bien indépendantes entres elles pour ensuite définir le type
d’informations souhaitées en sortie de l’AS. De plus, les objectifs définis pour choisir la méthode la plus
adaptée (parmi la Figure III-3) sont les suivants :

a. Classer l’importance des variables ;


La méthode doit être capable de donner avec une certaine précision la part de responsabilité
de chacune des variables, aussi appelée indice de sensibilité du premier ordre.
b. Connaitre l’effet des interactions ;
L’effet des interactions, ou indices aux ordres supérieurs apportent des informations sur la
part de variance d’une sortie du modèle causée par la variation de plusieurs variables d’entrée.
c. Pouvoir intégrer les résultats dans un intervalle de confiance ;
La quantité d’incertitudes étant non négligeable sur un problème de planification en basse
tension, bénéficier d’un intervalle de confiance sur les résultats est un atout pour la robustesse
des résultats.
d. Ne pas faire d’hypothèse de linéarité et de monotonie ;
Nous ne souhaitons pas faire d’hypothèse de linéarité et de monotonie car la fonction G
considérée est le calcul de flux de répartition des charges triphasé-déséquilibré (LF pour Load
Flow ou calcul de répartition des charge), réalisé dans la thèse par OpenDss [77].
e. Proposer une méthode simple à implémenter.
Afin que les travaux puissent être réplicables, l’objectif de ce chapitre est de proposer une
méthode simple à présenter et à implémenter si les hypothèses sur les modèles et la fonction
G viennent à changer.

A partir de cette liste, le nombre de méthodes disponibles se restreint sensiblement. La méthode FAST
pour Fourier Amplitude Sensitivity Test permet de répondre aux objectifs a, c. Cependant, cette
méthode ne permet pas de répondre à l’objectif b (intégrer les résultats dans un intervalle de
confiance). D’autres méthodes, à l’image de la méthode FAST, peuvent répondre à une partie des
objectifs, cependant aucune des méthodes répertoriées ne permet de répondre à l’ensemble des cinq
objectifs. Nous avons opté pour combiner deux méthodes existantes : les indices de Sobol [78] qui
permettent de répondre aux objectifs a, b, c et e, et le calcul de l’intervalle de confiance par la méthode
du Boostrap [79] pour répondre aux l’objectifs d et e. Il s’agit de la combinaison de méthodes qui
s’implémente rapidement et simplement et permet d’atteindre nos objectifs, en contrepartie des
performances de calcul.

III.1.c Présentation des méthodes retenues

a) Présentation de la méthode des indices de Sobol


La méthode des indices de Sobol, autrement appelée « mesures d’importance basées sur la variance »,
est une méthode fondée sur la décomposition de la variance de la fonction G :
𝑉𝑉(𝑌𝑌) = 𝑉𝑉(𝐸𝐸[𝑌𝑌|𝑋𝑋𝑖𝑖 ]) + 𝐸𝐸[𝑉𝑉(𝑌𝑌|𝑋𝑋𝑖𝑖 )] III-2
Avec :

𝑉𝑉(𝐺𝐺), la variance de la fonction G ;

𝑉𝑉(𝐸𝐸[𝐺𝐺|𝑋𝑋𝑖𝑖 ]), la variance conditionnelle de 𝑋𝑋𝑖𝑖 sur la fonction G ;

54
𝐸𝐸[𝑉𝑉(𝑌𝑌|𝑋𝑋𝑖𝑖 )], l’espérance conditionnelle de 𝑋𝑋𝑖𝑖 sur la fonction G.

Le principe des indices de Sobol consiste à normaliser cette variance conditionnelle par la variance
totale :
𝑉𝑉(𝐸𝐸[𝑌𝑌|𝑋𝑋𝑖𝑖 ]) 𝑉𝑉𝑖𝑖
𝑆𝑆𝑖𝑖 = = III-3
𝑉𝑉(𝑌𝑌) 𝑉𝑉(𝑌𝑌)
Avec :

𝑆𝑆𝑖𝑖 , indice de sensibilité du premier ordre pour la variable i [78].

Cette normalisation est l’une des valeurs ajoutées de la méthode car elle permet une lecture simple et
𝑝𝑝
intuitive des résultats puisqu’ils sont en pourcentage avec ∑𝑖𝑖=1 𝑆𝑆𝑖𝑖 = 1 , p étant le nombre de variables
d’entrées incertaines du système G.

L’auteur propose ainsi un théorème sur la décomposition de la variance :


𝑝𝑝

𝑉𝑉 = � 𝑉𝑉𝑖𝑖 + � 𝑉𝑉𝑖𝑖𝑖𝑖 + ⋯ + 𝑉𝑉1…𝑝𝑝 III-4


𝑖𝑖=1 1≤𝑖𝑖<𝑗𝑗≤𝑝𝑝
Avec :

𝑉𝑉𝑖𝑖𝑖𝑖 = 𝑉𝑉�𝐸𝐸�𝑌𝑌�𝑋𝑋𝑖𝑖 , 𝑋𝑋𝑗𝑗 �� − 𝑉𝑉𝑖𝑖 − 𝑉𝑉𝑗𝑗


𝑝𝑝
III-5
𝑉𝑉1…𝑝𝑝 = 𝑉𝑉 − � 𝑉𝑉𝑖𝑖 − � 𝑉𝑉𝑖𝑖𝑖𝑖 − ⋯ − � 𝑉𝑉𝑖𝑖1…𝑖𝑖𝑝𝑝−1
𝑖𝑖=1 1≤𝑖𝑖<𝑗𝑗≤𝑝𝑝 1≤𝑖𝑖1 <⋯<𝑖𝑖𝑝𝑝−1 ≤𝑝𝑝
C’est sur cette décomposition que Sobol définit les indices de sensibilité d’ordre supérieur à 1 [80],
[81] :
𝑉𝑉𝑖𝑖𝑖𝑖 III-6
𝑆𝑆𝑖𝑖𝑖𝑖 =
𝑉𝑉(𝑌𝑌)

Pour calculer les indices de sensibilité par la méthode de Sobol, les travaux [80], [82] sur l’estimation
des indices permettent de mettre en place rapidement une méthodologie validée, voir section
suivante.

b) Estimation des indices de Sobol


Le modèle G utilisé dans les travaux de thèse est le calcul de répartition des charges triphasées
déséquilibrées d’OpenDss [77]. L’estimation des indices de sensibilité doit donc être effectuée par des
appels successifs à OpenDSS en utilisant un tirage Monte Carlo [83] de taille n.

On pose 𝐸𝐸[𝐺𝐺] = 𝑓𝑓0 , l’espérance de G, et 𝑉𝑉(𝐺𝐺) = 𝑉𝑉, sa variance, estimées par :

𝐺𝐺 = 𝑓𝑓�𝑥𝑥1 , … , 𝑥𝑥𝑝𝑝 �
𝑛𝑛 𝑛𝑛
1 1 2 III-7
𝑓𝑓�0 = � 𝑓𝑓�𝑥𝑥𝑘𝑘1 , … , 𝑥𝑥𝑘𝑘𝑘𝑘 � , 𝑒𝑒𝑒𝑒 𝑉𝑉� = � 𝑓𝑓 2 �𝑥𝑥𝑘𝑘1 , … , 𝑥𝑥𝑘𝑘𝑘𝑘 � − 𝑓𝑓�0
𝑛𝑛 𝑛𝑛
𝑘𝑘=1 𝑘𝑘=1
Pour estimer la variance conditionnelle, la méthode présentée par [80] a été adaptée :
2
𝑉𝑉𝑖𝑖 = 𝑉𝑉(𝐸𝐸[𝑌𝑌|𝑋𝑋𝑖𝑖 ]) = 𝐸𝐸[𝐸𝐸[𝑌𝑌|𝑋𝑋𝑖𝑖 ]2 ] − 𝐸𝐸�𝐸𝐸[𝑌𝑌|𝑋𝑋𝑖𝑖 ]� = 𝑈𝑈𝑖𝑖 − 𝐸𝐸[𝑌𝑌]² III-8

𝑈𝑈𝑖𝑖 correspond à « l’espérance du carré de l’espérance de Y conditionnellement à Xi » [80]

Sobol propose d’estimer ce paramètre à partir de deux appels à la fonction 𝑓𝑓 :

55
𝑛𝑛
1 (1) (1) (1) (1) (1) (2) (2) (1) (2) (2)
Û𝑖𝑖 = � 𝑓𝑓�𝑥𝑥𝑘𝑘1 , … , 𝑥𝑥𝑘𝑘(𝑖𝑖−1) , 𝑥𝑥𝑘𝑘𝑘𝑘 , 𝑥𝑥𝑘𝑘(𝑖𝑖+1) , … , 𝑥𝑥𝑘𝑘𝑘𝑘 �. 𝑓𝑓(𝑥𝑥𝑘𝑘1 , … , 𝑥𝑥𝑘𝑘(𝑖𝑖−1) , 𝑥𝑥𝑘𝑘𝑘𝑘 , 𝑥𝑥𝑘𝑘(𝑖𝑖+1) , … , 𝑥𝑥𝑘𝑘𝑘𝑘 ) III-9
𝑛𝑛
𝑘𝑘=1

Les indices de sensibilité du premier ordre se calculent donc par :


2
𝑉𝑉�𝑖𝑖 Û𝑖𝑖 − 𝑓𝑓�0 III-10
𝑆𝑆̂𝑖𝑖 = =
𝑉𝑉� 𝑉𝑉�
Pour en savoir plus sur la partie théorique du calcul des indices de Sobol, les références déjà présentées
ci-dessus [73], [76], [80], [82] permettent d’aller plus loin dans la description des procédés
mathématiques.

Afin d’appliquer la méthodologie à notre problème, soient M1 et M2, deux matrices définies par
l’équation III-11 contenant n tirages Monte Carlo différents des p variables d’entrée du système. [82]
propose de générer (𝑝𝑝 + 2) matrices de dimensions (𝑛𝑛, 𝑝𝑝), notées Ni, 𝑖𝑖 = 1 … 𝑝𝑝 telle que Ni soit égale
à M2 sauf la ième colonne qui correspond à celle de M1.
(1) (1) (2) (2) (2) (1) (2)
𝑥𝑥11 ⋯ 𝑥𝑥1𝑝𝑝 𝑥𝑥11 ⋯ 𝑥𝑥1𝑝𝑝 𝑥𝑥11 ⋯ 𝑥𝑥1𝑖𝑖 ⋯ 𝑥𝑥1𝑝𝑝
𝑀𝑀1 = � ⋮ ⋱ ⋮ � 𝑀𝑀2 = � ⋮ ⋱ ⋮ � 𝑁𝑁𝑖𝑖 = � ⋮ ⋱ ⋮ ⋱ ⋮ � III-11
(1) (1) (2) (2) (2) (1) (2)
𝑥𝑥n1 ⋯ 𝑥𝑥𝑛𝑛𝑛𝑛 𝑥𝑥n1 ⋯ 𝑥𝑥𝑛𝑛𝑛𝑛 𝑥𝑥n1 ⋯ 𝑥𝑥𝑛𝑛𝑛𝑛 ⋯ 𝑥𝑥𝑛𝑛𝑛𝑛
2
Ces matrices vont servir à estimer Û𝑖𝑖 et 𝑓𝑓�0 [82]:
𝑛𝑛
1
Û𝑖𝑖 = � 𝐺𝐺(𝑀𝑀1) × 𝐺𝐺(𝑁𝑁𝑖𝑖 ) III-12
𝑛𝑛
1
𝑛𝑛
1 III-13
2
𝑓𝑓�0 = � 𝐺𝐺(𝑀𝑀1) × 𝐺𝐺(𝑀𝑀2)
𝑛𝑛
1

L’un des atouts de la méthodologie proposée par Sobol : proposer des indices de sensibilité à partir de
calculs simples (équation III-12 et III-13), en contrepartie des performances de calcul. La Figure III-4 et
l'équation III-14 illustrent un exemple simple d'application de la méthodologie sur un modèle G à trois
variables avec Y comme variable d'intérêt.

Figure III-4: Exemple pédagogique de l’application de l’équation III-12 dans le calcul des indices de Sobol

∑ 𝐺𝐺(𝑀𝑀1) × 𝐺𝐺(𝑁𝑁2) − ∑ 𝐺𝐺(𝑀𝑀1) × 𝐺𝐺(𝑀𝑀2)


𝑆𝑆2 = III-14
𝑛𝑛 × 𝑣𝑣𝑣𝑣𝑣𝑣(𝐺𝐺(𝑀𝑀1&𝑀𝑀2)
En effet, le nombre d’appels à la fonction LF est donc de 𝑛𝑛. (𝑝𝑝 + 1) pour estimer les indices du premier
ordre. En ajoutant n appels, soit 𝑛𝑛. (𝑝𝑝 + 2), il devient possible d’estimer les indices d’ordres supérieurs.
Il faudra ensuite ajouter n appels pour estimer chaque indice de sensibilité d’ordre supérieur. A travers

56
cette explication, on comprend assez vite pourquoi la méthodologie de Sobol se trouve dans la partie
droite de la Figure III-3. Le choix du nombre de tirages de Monte Carlo devient critique pour estimer
des indices de sensibilité stables en conservant un temps de calcul acceptable. Nous reviendrons sur
ce choix de n dans la partie III.2.b

c) Intervalle de confiance par la méthode du Bootstrap


La méthode développée et utilisée par [79] permet de ne pas faire d’appels supplémentaires à la
fonction G. Le calcul réalisé est un tirage avec remise sur un échantillon de taille t répété B fois :

𝐵𝐵
1 2
𝑆𝑆̂𝑖𝑖 ± 1.96 × � ��𝑆𝑆𝑖𝑖∗𝑏𝑏 − 𝑆𝑆𝑖𝑖∗∎ �
𝐵𝐵 − 1
𝑏𝑏=1

𝐵𝐵
1
𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 𝑆𝑆𝑖𝑖∗∎ = � 𝑆𝑆𝑖𝑖∗𝑏𝑏
𝐵𝐵
𝑏𝑏=1

Cette formule correspond à l’estimation d’un intervalle de confiance de 95%. Le principe est de calculer
les indices de sensibilité sur un échantillon (avec remise) de taille t afin de créer une distribution des
indices de Sobol pour ensuite en calculer la moyenne (𝑆𝑆𝑖𝑖∗∎) et l’écart type. Dans [79], la taille de
l’échantillon B correspond au nombre d’itérations Monte Carlo n. La distribution est supposée normale
et l’intervalle de confiance est calculé comme tout intervalle de confiance dont la fonction suit une loi
normale. La Figure III-5 présente le logigramme implémenté pour calculer l’intervalle de confiance.

57
Figure III-5: Logigramme de calcul de l'intervalle de confiance

d) Amélioration de la convergence des indices de


sensibilité
Ci-dessus, le calcul des indices de sensibilité par la méthode de Sobol a été présenté. Certaines
équations demandent de mettre les résultats de la fonction G au carré, et ainsi, les valeurs calculées
deviennent rapidement très grandes alors que les résultats doivent être dans l’intervalle [0,1]. Une
estimation par Monte Carlo sous-entend une incertitude sur les résultats, et engendre une certaine
instabilité sur les résultats. Ces comportements ont déjà été mentionnés dans [84] et des solutions
existent pour améliorer la stabilité des résultats [85]. Parmi les propositions présentées, celle retenue
est la proposition qui vient centrer la moyenne à zéro :

𝐺𝐺(𝑀𝑀1′ ) = 𝐺𝐺(𝑀𝑀1) − 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚(𝐺𝐺(𝑀𝑀1, 𝑀𝑀2, 𝑁𝑁1 , … , 𝑁𝑁𝑝𝑝 )


𝐺𝐺(𝑀𝑀2′) = 𝐺𝐺(𝑀𝑀2) − 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚(𝐺𝐺(𝑀𝑀1, 𝑀𝑀2, 𝑁𝑁1 , … , 𝑁𝑁𝑝𝑝 ) III-15
𝐺𝐺(𝑁𝑁𝑖𝑖 ′) = 𝐺𝐺(𝑁𝑁𝑖𝑖 ) − 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚(𝐺𝐺(𝑀𝑀1, 𝑀𝑀2, 𝑁𝑁1 , … , 𝑁𝑁𝑝𝑝 )

Cette modification n’impacte pas les résultats car les indices de sensibilité par la méthode de Sobol
étudient uniquement la variance de la fonction G, et garantissent des résultats plus cohérents.

58
III.2 Utilisation de la méthode des indices de Sobol pour
les réseaux
La partie précédente a défini les notions et outils nécessaires à la réalisation d’une étude de sensibilité.
Cette partie présente leur application à la problématique de planification des réseaux BT sous
incertitudes. Pour rappel (chapitre II), les questions auxquelles on souhaite répondre avec l’analyse de
sensibilité pour la problématique de planification sont les suivantes :

- A quel point la modélisation de la charge influence les résultats d’un Load flow ?
- Faut-il garder la tangente phi (notée tan 𝜑𝜑) des charges à une valeur fixe ?
- Existe-t-il un intérêt à modéliser les incertitudes de la résistance des conducteurs ?

Les variables ont été modélisées dans un premier temps selon les mêmes hypothèses que celles émises
par le GRD. Les informations utilisées sont issues de [4], [8], [22].

III.2.a Mise en forme des variables


Pour appliquer la méthodologie d’analyse de sensibilité, quatre variables ont été définies comme
incertaines. Ce choix provient de la formule générale approchant la chute de tension [86] présentée
ci-dessous (III-16). L’étude de la variation de ces variables permettra de mieux comprendre leurs
impacts sur les transits de puissance et donc indirectement sur la planification.
𝑅𝑅 × 𝑃𝑃 + 𝑋𝑋 × 𝑄𝑄 𝑅𝑅 × (𝑃𝑃𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐 + 𝑃𝑃𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 ) + 𝑋𝑋 × 𝑄𝑄 III-16
𝛥𝛥𝛥𝛥 ≈ ≈
𝑉𝑉 𝑉𝑉

Les quatre variables considérées sont :

1. La consommation active d’un foyer, définie par la puissance active qu’il consomme (𝑃𝑃𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐 ).
2. La consommation réactive d’un foyer, définie par la puissance réactive qu’il consomme (Q).
3. La production, définie uniquement pour le moment par la puissance active produite par le
générateur, c’est-à-dire un panneau photovoltaïque dans le cas de ces travaux de thèse (Pprod).
4. La résistance du conducteur, définie par la résistance par phase et dans le neutre des
conducteurs (R). La partie réactance des conducteurs est supposée fixe car elle dépend de la
géométrie et du type de conducteur qui varie très peu dans les réseaux BT.

Dans III.1.b, la principale contrainte pour appliquer les indices de sensibilité est l’indépendance des
variables, nécessaire pour ne pas créer de problème de convergence sur l’analyse de sensibilité. La
température par exemple crée une dépendance entre toutes les variables du système. Elle influe sur
la consommation d’un foyer, active ou réactive, sur la variance de la résistance des conducteurs, et
aussi sur le rendement de la production (cf. coefficient de température d’un module PV). Cependant,
les variables seront supposées indépendantes, notamment parce que les modèles utilisés sont
indépendants entre eux. Ensuite, pour répondre aux objectifs définis en introduction de cette partie
et éviter la création de dépendance entre les clients, les conducteurs ou les producteurs, tous les
composants identiques du réseau sont assemblés dans une seule et même variable. Cela signifie par
exemple que pour i=P, l’indice 𝑋𝑋𝑖𝑖 de l’équation III-2 correspond à un vecteur de taille égale au nombre
de consommateurs dans le réseau. Le même raisonnement est appliqué aux trois autres variables
modélisées dans cette étude. En plus d’éviter les dépendances, cela réduit drastiquement le nombre
de variables p, et donc le nombre d’appels à la fonction LF. Cela permet aussi d’étudier le
comportement général de la modélisation sur tout le réseau et évite que des comportements isolés

59
influencent les résultats. Cela signifie que les matrices de l’équation III-11 ne sont plus en 2D mais en
3D. Cette troisième dimension est de taille variable en fonction du nombre de variables (clients,
conducteurs, producteurs) qui composent les variables p.

Pour réaliser tous les calculs introduits jusqu’ici et pendant toute la durée de la thèse, tous les
développements ont été réalisés dans l’environnement Matlab. Pour interfacer entre Matlab et
OpenDss, nous avons utilisé DisNetSimPl, pour Distribution Network Simulation Plateform. Il s’agit
d’une plateforme de simulation des réseaux de distribution développée par EDF R&D – MIRE dans le
cadre de projet Européen ADDRESS. Le code source de DisNetSimPl était accessible et toutes les
fonctions, méthodes développées pendant la thèse ont pour vocation à s’intégrer dans le logiciel et
l’IHM.

III.2.b Première modélisation des variables d’entrées


Pour cette première analyse de sensibilité, la modélisation des quatre variables considérées sont les
suivantes :

Si on repart de l’équation III-1 : 𝑌𝑌 = 𝐺𝐺(𝑥𝑥, 𝑑𝑑), les variables 𝑑𝑑 sont les variables liées à la topologie et au
dimensionnement du réseau et les variables 𝑥𝑥 sont les quatre variables décrites précédemment (P, Q,
Pprod et R) principalement en raison de leur caractère variable en fonction du temps.

a) Modélisation du réseau
Chaque réseau est reconstruit à partir d’une base d’informations considérée fixe dans notre étude :

- Puissance souscrite et énergie moyenne annuelle des consommateurs : ces informations ne


seront pas remises en cause car il s’agit d’informations accessibles coté distributeur.
- Section et longueur des conducteurs : il sera considéré que les informations sont exactes
dans le cadre de la thèse. Ces variables ont déjà été traitées comme incertaines dans la
littérature par [87].
- Puissance et prise du transformateur HTA/BT: la puissance installée du transformateur
HTA/BT ne varie pas au cours du temps, sauf en cas de renforcement. De plus, il est équipé
d’un régleur hors charge dont la position de la prise est très rarement modifiée. L’utilisation
de régleurs en charge (ou OLTC pour On Load Tap Changer) est encore aujourd’hui utilisée
seulement dans quelques projets de démonstrations.
- Répartition des lignes et des nœuds : la structure du réseau sera considérée exacte et
invariante dans le temps c’est-à-dire qu’il n’y aura pas de nouveaux consommateurs ou de
nouvelles lignes qui seront ajoutés.
- Tension en amont du poste HTA/BT : bien que cette hypothèse soit discutable, la tension
amont a été fixée en supposant une corrélation linéaire entre la tension HTA en amont du
poste et celle des nœuds BT en aval. De plus, la planification historique sépare les niveaux de
tension et les travaux de thèse se focalisent sur la BT plutôt que sur le lien entre les deux
niveaux de tension.
Dix réseaux ont été mis à disposition, ci-dessous, un tableau récapitulatif des principales informations
des réseaux :

Numéro réseaux 1 2 3 4 5 6 7 8 9 10

Nombre de
68 29 57 18 101 145 73 225 51 83
charges

60
Nombre de nœuds
contenant des 40 16 31 9 9 62 17 95 41 36
charges

Longueur
maximale des 352 380 437 195 108 580 401 484 990 535
départs (m)

Longueur totale de
1 884 1 606 820 435 316 2 592 1 227 2 509 2 683 1 684
conducteur (m)

% souterrain 100 100 70,85 45,52 100 93,67 80,44 87,68 65,41 100

Puissance du
transformateur 250 160 160 160 400 400 400 400 100 250
(kVA)

Somme des
puissances 475 359 380 171 729 1 176 597 1 698 384 555
souscrites (kVA)

Tableau III-1 : Principales informations des réseaux BT utilisés pour les études de la thèse

b) Modélisation de la consommation
A partir de la puissance souscrite des clients, une loi normale est utilisée pour estimer la consommation
des clients, à l’image des informations disponibles sur la modélisation des consommations par le GRD.
Cette loi normale est centrée sur le coefficient de foisonnement du réseau, déterminé par une étude
réalisée au cours de la thèse à partir de courbes de charges réelles (Annexe C : Calcul du coefficient de
foisonnement à partir de courbes de charges réelle). La Figure III-6 montre la valeur moyenne et le
quantile à 95% du coefficient de foisonnement en fonction du nombre de charges BT obtenues à partir
de 1000 courbes de charges réelles issues du régulateur irlandais CRU (Commission for Regulation of
Utilities).

Moyen

95%
0.8
Coefficient de foisonnement

0.6

0.4

0.2
0 50 100 150 200 250 300 350

Nombre de charges

Figure III-6: Évolution du coefficient de foisonnement en fonction du nombre de clients sur un réseau

L’écart type choisi est 25% du coefficient de foisonnement. La consommation d’un client est donc
définie par la formule III-17 :

61
𝑃𝑃𝑗𝑗 = 𝑃𝑃𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑗𝑗 × 𝒩𝒩(𝜇𝜇, 𝜎𝜎) × 𝑠𝑠𝑠𝑠 III-17

Avec :

𝑃𝑃𝑗𝑗 : Consommation active du client j ;


𝑃𝑃𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑗𝑗 : Puissance souscrite du client j ;

𝜇𝜇 : coefficient de foisonnement qui dépend du nombre de clients du réseau étudié ;

𝜎𝜎 = 0.25𝜇𝜇 ;

𝑠𝑠𝑠𝑠 : Variable en fonction du scénario simulé. Cette variable est égale à 1 dans le cas d’une
simulation avec forte consommation et égale à 20% dans le cas avec de forte production [8]

c) Modélisation de la puissance réactive


Traditionnellement, la puissance réactive est calculée à partir d’une valeur fixe de la tan 𝜑𝜑. Cette valeur
a historiquement été fixée à 0,4 pour les études de planification. Nous nous sommes demandés quel
sens donner à une tan 𝜑𝜑 fixe, dans le contexte d’aujourd’hui, où l’électronique de puissance interface
la plupart des charges électromotrices à facteur de puissance unitaire, de même que les chauffages
électriques qui sont principalement résistifs. A dire d’expert, il a été décidé de modéliser la tan 𝜑𝜑 par
une distribution uniforme entre une valeur minimale et maximale dépendant de la valeur de la
puissance souscrite du consommateur.

tan 𝜑𝜑𝑗𝑗 ~ 𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈 [min; max]

𝑆𝑆𝑆𝑆 𝑃𝑃𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑗𝑗 ≥ 9 𝑘𝑘𝑘𝑘; [min; max] = [−0,1 ; 0,1]

𝑆𝑆𝑆𝑆 𝑃𝑃𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑗𝑗 < 9 𝑘𝑘𝑘𝑘; [min; max] = [−0,2 ; 0,4]

L’hypothèse principale de cette modélisation est que plus un foyer a une puissance souscrite élevée
plus il est probable que ses usages soient résistifs c’est-à-dire qu’il soit équipé d’un chauffage
électrique et d’un ballon d’eau chaude à facteur de puissance 1. De la même façon, on suppose que
les pompes à chaleur et chauffe-eau thermodynamiques modernes sont interfacés par électronique
de puissance et capables de maintenir une tan 𝜑𝜑 faible 18 (c’est à dire facteur de puissance de 0,95).

Pour éviter l’apparition d’« effets moyens » qui apparaissent lorsque le nombre de clients augmente
couplé avec un tirage aléatoire entre chaque client, c’est-à-dire éviter que la moyenne des tan 𝜑𝜑 par
simulation soit identique, l’attribution aléatoire de la tan 𝜑𝜑 se fera selon l’équation III-18 :

tan 𝜑𝜑(𝑗𝑗,𝑘𝑘) ~ min + (𝑚𝑚𝑚𝑚𝑚𝑚 − min) × 𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈 [0 ; 1]𝑘𝑘 × 𝒩𝒩𝑗𝑗 (𝜇𝜇 = 1, 𝜎𝜎 = 0.03) III-18

Avec k, le numéro de simulation compris entre 1 et n et j le numéro du client. 𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈 et 𝒩𝒩𝑗𝑗


correspondent respectivement à un tirage sur une loi uniforme et une loi normale. Cette formulation
suppose qu’il y a un comportement collectif entre tous les clients du réseau (tirage aléatoire uniforme)
et un comportement indépendant représenté par une loi normale d’écart type 3%. Cette valeur a été
choisie pour faire varier la tangente phi de ± 0,1 autour de la valeur nominale (choix arbitraire).

18
https://www.daikin.fr/content/dam/DAF/document-library/Brochures%20commerciales/applied-et-
cta/250.DOC.VISINV.16.pdf (page 5)

62
d) Modélisation des conducteurs
La variance des conducteurs provient de
𝐿𝐿
𝑅𝑅 = 𝜌𝜌. 𝑒𝑒𝑒𝑒 𝜌𝜌 = 𝜌𝜌20 × �1 + 𝛼𝛼20 (𝜃𝜃 − 𝜃𝜃20 )� III-19
𝑆𝑆
Avec :

L: Longueur du conducteur (en m)


S: Section du conducteur (en mm²)
𝜌𝜌: Résistivité du conducteur à la température 𝜃𝜃 (en Ω.mm²/m)
𝜌𝜌20 : Résistivité du matériau à 20°C (en Ω.mm²/m)
𝛼𝛼𝟐𝟐𝟐𝟐 : Coefficient de température moyen (en °C-1)
𝜃𝜃: Température du conducteur (en °C)
𝜃𝜃20: 20°C.

Les bases de données des conducteurs utilisées par le GRD contiennent des informations sur leur
résistance, résistivité et section. A partir de la formule III-19, la température nominale des conducteurs
de la base de données utilisée est calculée : 25°C pour les conducteurs aériens et 55°C pour les
conducteurs souterrains. L’utilisation de ces températures nominales peuvent être modulées en
fonction de la température entre les saisons.

Certains travaux, comme [88] étudient l’intérêt d’un estimateur d’état pour les réseaux BT. On notera
que la résistance du conducteur varie principalement en fonction de :

- L'intensité qui transite dans le câble ;


- La résistance du câble liée à ses caractéristiques : longueur, section, résistivité (variable selon la
température du conducteur : équation III-19) ;
- L'environnement du câble qui va plus ou moins favoriser les échanges thermiques avec le sol
(réseau souterrain) ou l'air (réseau aérien) ;
- La nature du sol ;
- L'existence d'autres câbles à proximité ;
- La température extérieure voire la vitesse du vent pour les réseaux aériens ;
- L’incertitude sur la pureté du conducteur c’est à dire la variabilité de 𝜌𝜌 et 𝛼𝛼 ;

Il est très difficile de quantifier les incertitudes et de proposer une loi pour intégrer chaque paramètre.
Nous avons donc décidé d’estimer l’incertitude de la résistance par une loi uniforme :

𝑅𝑅𝑖𝑖 ~ 𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈 [0,9; 1,1] × 𝑅𝑅𝑛𝑛𝑖𝑖 III-20

Avec :

- 𝑅𝑅𝑖𝑖 : la résistance du conducteur i,


- 𝑅𝑅𝑛𝑛𝑛𝑛 : la résistance nominale du conducteur i.

A l’image de la tan 𝜑𝜑, l’effet moyen est aussi présent sur les conducteurs.

𝑅𝑅(𝑖𝑖,𝑘𝑘) ~ 0,9 +0,2 × 𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈 [0 ; 1]𝑘𝑘 × 𝒩𝒩𝑖𝑖 (𝜇𝜇 = 1, 𝜎𝜎 = 0,03) III-21

63
e) Modélisation de la production
i. Répartition de la puissance installée et de la localisation des panneaux photovoltaïques
La plupart des réseaux à notre disposition ne sont pas équipés de panneaux photovoltaïques, et la
capacité des productions existantes est limitée. Pour la réalisation de l’analyse de sensibilité, le nombre
de panneaux photovoltaïques installés sera augmenté délibérément en équipant des consommateurs
existants d’une capacité de production en fonction d’une trajectoire correspondant à des scénarios du
ministère [34]. La puissance installée est déterminée à partir d’un tirage aléatoire. Les probabilités de
ce tirage découlent des données de répartition des puissances installées des PV en France disponibles
sur l’OpenData d’Enedis 19. La puissance de production maximale installée sera limitée à 6kVA. En effet,
d'après la documentation Enedis [89], le raccordement d'une puissance installée supérieure à 6 kVA
doit être réalisée en triphasé, et permet de limiter le déséquilibre [90].

La proportion des PV installés avec une capacité de production supérieure à 6kVA en France est de
16% sur les données de 2019 20. Cette proportion étant basse et la surface de toiture nécessaire pour
installer plus de 6kVA de panneaux photovoltaïques étant importante (1𝑘𝑘𝑘𝑘𝐴𝐴 ≈ 1𝑚𝑚2 /𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟, soit
40m² pour une installation de 6kVA, avec un rendement moyen des PV de 15%), une telle installation
est donc réservée à un type de logement ou terrain spécifique (ferme, entreprise, projets
expérimentaux, entre autres) que l’on ne simulera pas dans nos travaux. Ainsi, la loi de tirage aléatoire
des capacités de production PV est donnée par le Tableau III-2 issu de la répartition nationale obtenue
sur l’OpenData d’Enedis20.
Tableau III-2: Répartition des capacités de production lors de l'installation d'un PV

Puissance installée (kVA) Probabilité (%)


1 1.4
3 82.4
6 16.2
Dans un premier temps, tous les clients consommateurs deviennent également des producteurs sur la
même phase de raccordement comme le montre la Figure III-7, avec « AN » représentant un client sur
la phase A, « BN », un client sur la phase B ou encore « ABCN » pour un client raccordé en triphasé. La
puissance de raccordement est initialisée à 0. Ensuite, la répartition des producteurs sur le réseau se
fait de manière aléatoire (tirage sans remise) selon une loi uniforme parmi les PV raccordés
précédemment sur le réseau. La répartition des producteurs ainsi que leur puissance installée sont
tirées aléatoirement pour chacune des n simulations Monte Carlo.

19
https://data.enedis.fr/explore/
20
https://data.enedis.fr/explore/dataset/bilan-electrique-demi-heure/information/?refine.horodate=2019

64
Exemple à deux départs Ajout de PV sur la phase de raccordement des clients
Légendes
PV Charge Lignes souterraines Lignes aériennes

Figure III-7: Implantation de panneaux photovoltaïques sur un bout de réseau

Cette redistribution des emplacements de PV entre chaque simulation permet de considérer que le
distributeur ne connait pas les futures demandes de raccordement et il est possible de modifier
rapidement la proportion de consommateurs équipés de panneaux photovoltaïques.

ii. Puissance produite


Traditionnellement, les études de planification BT pour les raccordements de production sont faites
pour le cas dimensionnant c’est-à-dire lorsque la production est maximale. Comme décrit dans la
partie III.1, les indices de sensibilité fonctionnent uniquement si la variable possède une variance, c’est-
à-dire une fonction de densité de probabilité. Comme première distribution, les données annuelles
nationales de l’openData ont été récupérées puis normalisées pour être attribuées en fonction de la
puissance installée des PV. La puissance produite considérée pour une simulation donnée correspond
à un pas de temps tiré aléatoirement entre 12h et 14h sur le mois de juin.

0.9

0.8
Puissance produite (pu)

0.7

0.6

0.5

0.4
0 50 100 150

Pas de temps (0.5h)

Figure III-8: Monotone de la puissance de production normalisée pour le mois de juin entre 12h et 14h

f) Modèle G et réponse Y
Comme expliqué en III.1.b, le modèle G correspond au calcul de répartition des charges (ou LF)
d’OpenDSS [77]. Considéré comme une boite noire, il permet de réaliser rapidement le LF triphasé
déséquilibré et de récupérer la réponse Y, c’est-à-dire la chute de tension dans les nœuds pour chaque
phase, mais aussi le courant dans les conducteurs et la puissance au niveau du transformateur en
fonction des besoins de l’étude. Le calcul des indices de sensibilité est réalisé sur la réponse Y, ce qui
signifie qu’il est possible de calculer un très grand nombre d’indices différents. Ci-dessous, une liste
non exhaustive des réponses Y sur lesquelles il serait possible de calculer les indices de sensibilité :

- Chute de tension sur chaque nœud et chaque phase du réseau ;


- Courant par conducteur et par phase ;
- Somme/moyenne/max des excursions de tension ;
- Nombre de contraintes de tension/courant/puissance ;
- Entre autres.

65
Les indices de sensibilité seront calculés sur les valeurs maximales des différents types de contrainte.
Par exemple, pour les excursions de tension, les indices de sensibilité sont calculés à partir de
l’excursion de tension maximale par simulation.

III.2.c Application de la méthode de Sobol


[81] propose une liste de fonctions pour calculer les indices de sensibilité disponibles dans différents
logiciels (Python, OpenTurns, R et Matlab entre autres). L’applicabilité du calcul des indices de
sensibilité étant simple et la principale difficulté de la méthode de Sobol étant la définition des
hypothèses des variables, nous avons préféré développer les fonctions de calcul sur Matlab afin d’avoir
la maitrise totale des processus de calculs et une intégration sur mesure pour DisNetSimPl. Dans la
littérature, beaucoup d’auteurs partagent leurs résultats sur des fonctions connues pour s’assurer que
leur méthode de calcul développée soit correcte. Pour valider nos développements, nous avons aussi
comparé nos résultats sur une fonction avec ceux de la littérature.

a) Validation des développements réalisés


Dans la littérature, l’exemple généralement utilisé pour présenter les indices de Sobol est la fonction
d’ISHIGAMI donnée par l’équation III-22.

𝑓𝑓(𝑥𝑥) = sin(𝑥𝑥1 ) + 𝑎𝑎. 𝑠𝑠𝑠𝑠𝑛𝑛2 (𝑥𝑥2 ) + 𝑏𝑏. 𝑥𝑥34 . sin(𝑥𝑥1 ) III-22

Avec 𝑎𝑎 = 7 et 𝑏𝑏 = 0.1 par défaut et 𝑥𝑥𝑖𝑖 ~ 𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈𝑈 [−𝜋𝜋, 𝜋𝜋] pour 𝑖𝑖 = 1, 2, 3.

Les résultats des indices de sensibilité trouvés sur les variables d’entrée de la fonction d’ISHIGAMI sont
comparés à la littérature (Tableau III-3). Les résultats issus de la formule III-22 (colonne 2) et ceux du
script (colonne 3) proviennent d’un même échantillon avec n = 10.000. Cependant, le script développé
applique automatiquement l’équation III-15 dans son calcul. Avec la librairie python 21, l’échantillon est
n = 1024, mais le script peut lui aussi fournir les intervalles de confiance. Les résultats avec R
proviennent de l’article [80], l’échantillon est n= 10 000.

Variables Formule Script développé Librairie Python Script R [80]


0.311 0.305
X1 0.323 0.317
[0.297 ; 0.324] [0.269,0.338]
0.440 0.436
X2 0.445 0.444
[0.426 ; 0.453] [0.403,0.462]
≈0 ≈0
X3 ≈0 0.012
[0 ; 0.006] [0,0.011]
≈0 0.009
X12 ≈0 /
[0 ; 0.014]
X13 0.242
0.249 0.238 /
[0.236 ; 0.263]
≈0
X23 ≈0 ≈0 /
[0 ; 0.014]
Tableau III-3: Comparatif des indices de sensibilité calculés avec 4 méthodes différentes

21
https://salib.readthedocs.io/en/latest/basics.html#an-example

66
Les résultats du Tableau III-3 permettent de valider le script développé pour calculer les indices de
Sobol. Il fournit des résultats conformes aux résultats attendus avec l’équation III-3 et similaires aux
algorithmes existant dans la littérature.

b) Choix des paramètres de simulation


Afin de finaliser l’application de la méthode sur les réseaux, il reste à définir la taille n, correspondant
au nombre de simulations à réaliser pour converger vers une distribution de l’échantillon représentatif
de la réalité, ou au mieux, une représentation proche de n= +∞. Le choix de n est limité par OpenDSS
car il n’est pas possible de paralléliser les calculs dans sa version actuelle [91]. La Figure III-9 présente
4 distributions d’un même tirage en fonction de la taille de n. Pour choisir la taille de n, nous avons
calculé l’intervalle de confiance de la moyenne de chute de tension (Tableau III-4) pour nous aider à
choisir un compromis entre temps de calcul et précision :

n Intervalle de confiance à 95%


100 [0,300 < 0,36 < 0,420]
500 [0,330 < 0,36 < 0,380]
1000 [0,345 < 0,36 < 0,376]
2000 [0,353 < 0,36 < 0,375]
Tableau III-4 : Tableau d'aide au choix de n

A partir des infos du Tableau III-4 et de la Figure III-9, il a été décidé de traiter les indices de sensibilité
sur chaque réseau avec n = 1000 tirages Monte Carlo.

67
0.1 0.09

N = 100 N = 500
0.09 0.08

0.08
0.07

0.07
0.06

0.06
0.05

0.05

Probabilité
Probabilité

0.04
0.04

0.03
0.03

0.02
0.02

0.01
0.01

0 0
2 2.5 3 3.5 4 2 2.5 3 3.5 4

Chute de tension Chute de tension

0.09 0.09

N = 1000 N = 2000

0.08 0.08

0.07 0.07

0.06 0.06

0.05 0.05
Probabilité
Probabilité

0.04 0.04

0.03 0.03

0.02 0.02

0.01 0.01

0 0
2 2.5 3 3.5 4 2 2.5 3 3.5 4

Chute de tension Chute de tension

Figure III-9: Distribution de la chute de tension en fonction du nombre de simulations n

Application sur 10 réseaux français

Chaque indice de Sobol a été calculé sur les 10 réseaux à notre disposition (Tableau III-1). Les Figure
III-10 et Figure III-11 à gauche présentent les résultats obtenus pour le scénario de forte consommation
(équation III-17, sc = 1). Pour la Figure III-10, l’effet de la production et les interactions ont
volontairement été négligés car leurs indices de Sobol sont très proches de zéro. On remarque que la
consommation explique le plus la distribution des tensions car son indice de Sobol varie entre 70% et
90% en fonction des réseaux.

68
1

0.9

0.8

0.7

0.6
Consommation active
Indices de sensibilité

Resistance des conducteurs


0.5
Tangente phi

0.4

0.3

0.2

0.1

0
1 2 3 4 5 6 7 8 9 10

Numéro du réseau

Figure III-10: Indices de sensibilité pour le scénario forte consommation sur 10 réseaux

Une seconde simulation a été réalisée pour calculer les indices de sensibilité dans le cas d’une
simulation avec forte production (Figure III-11 à droite) : Equation III-17 avec sc = 20% pour la
consommation et la puissance produite est issue de la monotone nationale des données de production
française présentées dans la Figure III-8. Les indices de sensibilité pour la production ont été calculés
à partir de trois échantillons, chacun avec un taux de pénétration de panneaux photovoltaïques
différent : [10% ; 20% ; 30%]. On peut constater un impact encore plus important de la production sur
l’explication de la chute de tension.
Indices de sensibilité Indices de sensibilité

pour la consommation pour la production

< 1% < 1%

2%
20% < 1%

1%

78%

Consommation active
97%
Tangente phi

Résistance des conducteurs

Production

Figure III-11: Indices de sensibilité obtenus pour les deux types de simulation

A nouveau, les interactions entre les variables sont négligeables et donc n’apparaissent pas sur les
résultats de cet exemple particulier.

69
III.2.d Analyse des résultats

a) La tan 𝜑𝜑
D’après les résultats présentés dans la Figure III-11, la variance de la tan 𝜑𝜑 n’impacte pas la distribution
de la tension (Figure III-11) c’est-à-dire que statistiquement, il est toujours cohérent de fixer la variable
tangente phi (indice de Sobol inférieur à 1%).

Cependant, les usages devenant moins résistifs, nous souhaitions connaître l’impact sur la chute de
tension de la valeur fixe choisie de la tan 𝜑𝜑, pour revoir cette valeur fixe à la baisse si besoin. La Figure
III-12 montre la distribution de la chute de tension obtenue sur le réseau 8 (Tableau III-1) en fonction
de la valeur de la tan 𝜑𝜑 fixée. Les autres paramètres tels que la consommation active (avec sc =1) et
les caractéristiques des conducteurs sont identiques entre les différentes simulations.

0.12

Tangente phi 0,4


0.1 Tangente phi 0,2
Tangente phi 0
Tangente phi -0,2
0.08
Tangente phi-0,4
Probabilité

0.06

0.04

0.02

0
180 185 190 195 200 205 210 215 220 225 230

Tension minimale simulée (V)

Figure III-12: Distribution de la tension minimale en fonction de la valeur du 𝑡𝑡𝑡𝑡𝑡𝑡 𝜑𝜑 fixée

Les résultats de la Figure III-12 montrent que la valeur fixe de la tan 𝜑𝜑 impacte la moyenne et l’écart
type des tensions minimales simulées. Par conséquent, une révision de cette valeur aurait un impact
important sur les résultats d’une étude de planification BT. Cependant, il reste difficile d’estimer la
majoration du coût moyen d’investissement d’une hypothèse de la tan 𝜑𝜑 de 0,2 à 0,4 sur une base
limitée de 10 réseaux.

NB : Pendant le développement et la mise en place des travaux sur la sensibilité, nous avons remarqué
que lorsque la variable tan 𝜑𝜑 est différente entre chaque charge et chaque simulation, l’indice de
sensibilité devient significatif sur des réseaux ruraux. Cela signifie que si l’hypothèse d’une tan 𝜑𝜑 quasi-
équivalent entre les consommateurs à la maille d’un réseau BT est fausse, l’impact de la tan 𝜑𝜑 devient
alors non négligeable.

b) La résistance des conducteurs


Les résultats de l’impact des conducteurs montrent que l’effet de la variabilité est négligeable dans le
cas testé avec une forte production et faible dans le cas d’une forte consommation. Cela signifie que
pour des études de planification BT, considérer l’incertitude des conducteurs dans le cas d’une étude
de type forte consommation est envisageable, comme par exemple introduire une nouvelle variable
d’entrée représentant la température pour ensuite l’utiliser dans l’équation physique des conducteurs.

70
Cela s’explique par la différence importante entre la variance conditionnelle de consommation et celle
de la production en fonction des scénarios simulés alors que cette différence pour les conducteurs est
faible sur la plupart des réseaux. Des travaux récents ont été publiés dans [88] et proposent une
méthode d’estimation d’état des conducteurs afin d’aider les postes de conduite à estimer la valeur
des flux qui transitent dans le réseau au plus proche de la réalité. Dans le cadre de la gestion
prévisionnelle, considérer la variance des conducteurs est une valeur ajoutée non négligeable, et pour
la planification, la variance peut être négligée. Cependant, le changement de conducteurs vient décaler
la distribution de la chute de tension de la même manière que la tan 𝜑𝜑 sur la Figure III-12.

c) Puissance active des consommateurs


Lors de la simulation des cas avec une forte consommation (Equation III-18, sc= 1), l’impact de la
consommation s’avère être la principale raison à la variation de tension (voir Figure III-10 et Figure
III-11). Environ 80% de la variation de la chute de tension provient de la modélisation de la charge, cela
signifie que s’il y a un investissement à réaliser pour améliorer la vraisemblance de la chute de tension,
c’est dans la création d’un modèle de consommation plus proche de la réalité.

d) Production des panneaux photovoltaïques


Les résultats ont montré un impact conséquent de la production sur les pas de temps de juin entre 12h
et 14h. Ces résultats mettent en évidence le besoin de disposer d’une représentation statistique de la
production PV sur un réseau BT, prioritairement à l’établissement d’un modèle fin des « creux de
charge ». La variance importante du modèle proposé (Figure III-8) explique en partie les résultats
obtenus sur la production, le niveau de production pouvant varier du simple au double, contrairement
aux autres modèles simulés sur cette étude.

III.2.e Mise à jour des variables d’entrées


L’analyse de sensibilité a permis d’identifier les variables dont il est nécessaire de revoir la modélisation
de l’incertitude dans les études de planification (les puissances actives consommées et produites) et
celles que l’on pourra considérer comme fixe (tan 𝜑𝜑 et le modèle des conducteurs).

a) Modélisation de la puissance active et réactive de la


consommation
L’une des conclusions de l’analyse de Sobol est le besoin d’un modèle plus réaliste pour modéliser la
consommation. De plus, le tableau de flexibilité (chapitre II) propose plusieurs flexibilités sur la
consommation comme par exemple la gestion active de la consommation et les incitations tarifaires.

Nos recherches nous ont orientés vers l’utilisation d’un logiciel qui génère des courbes de charge
détaillées par usage comme le montre le Tableau III-5. En effet, le chapitre II montre un potentiel
d’effacement non négligeable sur le VE et tous les autres usages à fort potentiel électrique, et les
scénarios prospectifs (RTE par exemple) montrent un intérêt grandissant pour le V2Grid. A EDF R&D,
un projet de recherche, dirigé par des ergonomes, est en cours sur le développement d’un logiciel de
modélisation du comportement humain : SMACH [92]. Le logiciel propose de décrire les activités d’un
ménage pendant une certaine durée de temps. Ce logiciel est calibré sur la base de mesures de
consommations d’usages, véhicules électriques compris, en laboratoire, et intègre l’impact de facteurs
externes comme les incitations tarifaires. Le principe de fonctionnement est expliqué dans [93] et la
version que nous avons utilisée intègre un grand nombre de paramètres tels que :

71
- Le nombre de personnes dans le foyer, leur âge et activités ;
- Le type de logement, la surface, l’année de construction (norme RT) ;
- La situation géographique et la météo (données d’entrée)
- Les équipements : réveil, box, machine à café, TV, console, plaque(s) de cuisson,
etc.

La principale limite du logiciel est son domaine de validité. En effet, le nombre d’appareils différents
utilisés pour connaitre la consommation des usages est restreint et se limite aux usages français. De
plus, il est très difficile d’évaluer l’écart entre des courbes simulées et des courbes réelles. Il s’agit d’un
modèle issu de simulations et donc il y aura toujours des écarts non maitrisés.

Sur les bases actuelles du projet, nous avons obtenu 1 000 courbes de charges pour différents types
de foyers et types de logements. La seule contrainte demandée est que chaque foyer possède un
véhicule électrique, qui puisse être activé ou non. Cela permettra de pouvoir modifier à souhait la
proportion de véhicules électriques sur le réseau.

Au lieu de fixer la tan 𝜑𝜑 à une valeur fixe comme initialement proposé, les courbes de charges générées
fournissent aussi la puissance réactive et donc une tan 𝜑𝜑 équivalent.

Dans le Tableau III-5 ci-dessous, on indique par exemple la courbe de charge d’un client sur 4 pas de
temps demi-horaires, en distinguant les usages principaux.

Date ECS VE P VE Q Chauffage Reste P Reste Q


2018-01-01
0 1 -7 0 88 -110
00-00-00
2018-01-01
0 1 -7 439 93 -107
00-00-30
2018-01-01
0 1 -7 785 44 -138
00-01-00
2018-01-01
0 1 -7 1089 38 -141
00-01-30
Tableau III-5: Information des courbes de charge pour un client

ECS : Puissance active consommée par l’Eau Chaude Sanitaire (W),

VE P : Puissance active consommée par le véhicule électrique (W),

VE Q : Puissance réactive consommée par le véhicule électrique (Var),

Reste P et Q : Puissance active et réactive consommée par tous les autres usages de la maison (W et
Var).

L’attribution de la consommation par les courbes de charges SMACH sera réalisée par un tirage Monte
Carlo : chaque foyer se verra attribuer une courbe de charge pour chaque tirage en fonction de sa
puissance souscrite. Pour éviter de simuler une année complète de consommation et perdre en
performance de calcul, les simulations seront réalisées sur quelques pas de temps où la consommation
est élevée. Ce nombre de pas de temps à simuler et le nombre de tirages Monte Carlo sont à définir
par le planificateur et doivent être issus d’un compromis entre les performances de calcul, la
convergence des résultats et l’observabilité souhaitée sur les contraintes.

72
b) Modélisation de la production
Dans les cas simulés où la production est élevée, l’impact de la production est non négligeable. De plus,
le nombre de flexibilités sur les moyens de production nous incite à la recherche de modélisations plus
précises. Plusieurs possibilités se sont offertes pendant la thèse, notamment les données de
production du G2Elab, équipées de panneaux photovoltaïques. Chez EDF R&D, il existe aussi des
projets sur la modélisation de la production photovoltaïque. Il existe notamment un logiciel,
BuildSysPro [94], qui prend comme données d’entrées le même fichier météo que SMACH et c’est pour
cette raison que nous l’avons retenu pour simuler la production photovoltaïque. Ce logiciel permet de
modifier et d’étudier plusieurs paramètres d’entrée (voir Figure III-13). Ces paramètres apportent une
meilleure précision sur les courbes de production par rapport à celles utilisées précédemment.

Figure III-13: Capture d'écran de l'interface de BuilsSysPro

Puisqu’il est impossible de prédire plusieurs années en avance certains des paramètres proposés par
le logiciel, les paramètres sélectionnés sont les paramètres initiaux, visibles sur la Figure III-13. La
courbe de production annuelle a été normalisée. On notera que contrairement à la normalisation faite
à partir des données de l’OpenData en partie III.2.a, la normalisation se fait ici sur la capacité
d’installation du panneau photovoltaïque. Cela signifie notamment que sur l’année simulée, et à partir
des informations remplies dans BuildSysPro, un panneau photovoltaïque ne produira jamais plus de
94% de sa capacité totale de production. En ce qui concerne la répartition aléatoire, elle restera
inchangée par rapport à la première modélisation

Modélisation des conducteurs

Dans le cas des conducteurs, nous avons priorisé la recherche et le développement de modèles de
consommation et de production. La modélisation des conducteurs n’est donc plus variable et reste
fixée aux valeurs fournies par la base de données. On notera que les températures nominales utilisées
dans les simulations ne sont pas des températures dites « pire cas ».

III.3 Conclusion
Le chapitre III présente un résumé de l’état de l’art sur l’analyse de sensibilité, pour ensuite présenter
les méthodes utilisées dans les travaux. L’objectif était d’estimer les besoins en recherche sur la
modélisation des variables en mesurant leurs impacts sur les indicateurs de performance du
planificateur de réseau.

73
L’orientation de la recherche sur des modèles de consommation et production plus précis permettent
des modélisations plus cohérentes pour réaliser une étude de planification BT et appréhender la
proposition de la méthodologie de planification, avec l’intégration des nouveaux usages.

Ces travaux ont permis de définir quels sont les hypothèses et modèles qui seront utilisés par la suite
pour toute la durée des travaux. Historiquement, cette étape n’était pas cruciale mais les évolutions
des usages présentées en II.2 remettent en cause la modélisation des futurs réseaux, et l’utilisation
d’une telle méthodologie devient plus pertinente et a notamment permis :

• D’évaluer l’impact des hypothèses d’entrées sur les indicateurs de performance du


planificateur réseau ;
• De démontrer l’importance de la modélisation de la consommation et de la production ;
• De justifier la simplification de la modélisation des conducteurs voire celle de la tan 𝜑𝜑 dans
le cas où les consommations active et réactive seraient décorrélées.

Ces recherches, qui ont fait l’objet d’un article de conférence présenté au CIRED 2020 [16], apportent
comme contribution principale une méthodologie d’analyse des indices de Sobol permettant
l’identification des variables incertaines qui influencent principalement la chute de tension.

74
75
IV. Méthodologie de planification des
investissements
En conclusion du chapitre II (II.4), nous notions qu’il n’y avait pas encore de proposition complète de
méthodologie de planification long terme pour la basse tension intégrant des solutions de flexibilité
de régulation des puissances consommées. Dans le chapitre III, nous avons sélectionné les modèles
des variables qui vont nous servir à simuler le comportement des réseaux. Dans ce chapitre, l’objectif
est de mettre au point une méthode de planification novatrice qui permette de s’appuyer
statistiquement sur des flexibilités locales. Cette méthode doit permettre de quantifier les risques
associés (e.g. non-activation de la flexibilité à certains moments). Une méthodologie en 6 étapes
illustrée dans la Figure IV-1 a été établie à partir de cet objectif et est présentée dans ce chapitre. La
partie 1 présente les hypothèses et la méthode retenues pour faire des simulations de
dimensionnement afin d’identifier les contraintes sur le réseau pour le redimensionner. Ensuite la
partie 2 présente la méthode mise en place pour déterminer plusieurs solutions d’investissement afin
d’augmenter la capacité d’accueil des réseaux. La partie 3 propose une méthode pour estimer l’énergie
annuelle qui serait à effacer pour éviter d’avoir une contrainte en fonction des différents
renforcements réalisés par les solutions. Dans la partie 4, nous proposons une nouvelle manière de
calculer le coût d’une solution Smart Grid, intégrant la flexibilité et la probabilité que celle-ci ne puisse
s’activer au moment nécessaire. La partie 5 est dédiée à sélectionner les solutions qui seront utiles
pour résoudre les contraintes sur les années intermédiaires afin d’avoir plusieurs cibles
d’investissement sur toute la durée de l’étude. Pour calculer la solution qui a le TOTEX (CAPEX + OPEX)
le plus bas, la partie 6 présente la méthode utilisée afin de finaliser la méthodologie par la proposition
de solutions avec leurs coûts associés.

76
Figure IV-1: Méthodologie de planification des investissements

Avec :

Solutions AF : Solution pour limiter les contraintes sur la dernière année cible.

Solutions AI : Solution pour limiter les contraintes sur les années cibles intermédiaires.

Solutions AC : Solution pour limiter les contraintes sur toutes les années cibles.

Taux de contraintes : Nombre de simulations avec au moins une contrainte divisé par le nombre de simulation réalisé.

Taux d’acceptabilité : Taux de contraintes que le planificateur est prêt à accepter avant de réaliser un investissement.

Probabilité d’activation : Probabilité qu’une flexibilité puisse s’activer au moment où la contrainte apparait.

77
IV.1 Hypothèses et simulations pour la planification long
terme
Dans nos études de planification, la définition du long terme pour la maille basse tension est de 10
années. Ce paramètre est réglable par le planificateur et s’explique par la difficulté d’avoir une vision
réaliste au-delà. Malgré le fait qu’un équipement (ligne, câble ou transformateur) puisse être
dimensionné pour une durée de vie de 40 ans, prévoir des scénarios aussi lointains n’est pas d’usage
sur les réseaux électriques basse tension en France. En effet, la durée d’une étude BT n’est pas statuée
dans la documentation technique de référence d’Enedis, elle « correspond ici à la durée séparant
l’année de réalisation de l’investissement de celle d’apparition d’une nouvelle contrainte »[4].

Pour que la méthodologie puisse s’appliquer, les données d’entrées nécessaires sont :

- Des scénarios d’évolution de la charge et de la production ;


- Des modèles de flexibilité ;
- Le taux d’acceptabilité des contraintes ;
- Des modèles pour chaque variable du réseau.

Concernant les scénarios d’évolution des charges et des productions, beaucoup de travaux existent sur
le sujet, notamment les rapports RTE, le rapport de l’Agence Internationale de l’Energie ou le ministère
de la transition énergétique, qui se projettent sur l’accroissement des ressources locales jusqu’en 2050
[17], [18], [34], [95]. Afin de proposer une méthodologie d’échelonnement des investissements sur
toute la période d’étude, le planificateur peut définir un scénario découpé en plusieurs périodes cibles.
Concernant le taux d’acceptabilité de la contrainte, il correspond à la proportion de contraintes
acceptables par le GRD sur une durée de temps donnée.

Chaque scénario et période d’étude est défini par:

- Le réseau d’étude ;
- Le taux de croissance de la charge (modification de l’utilisation des équipements électriques,
intégration de véhicules électriques, de la pompe à chaleur, isolation thermique des
bâtiments, entre autres) ;
- La proportion de panneaux solaires sur le réseau (en fonction du nombre de clients) ;
- La proportion de véhicules électriques sur le réseau (en fonction du nombre de clients).

A partir de ces hypothèses, le planificateur est capable de réaliser des calculs de répartition des charges
et de déceler la présence d’une contrainte. Dans les cas où il y a une contrainte, les solutions pour
augmenter la capacité d’accueil retenues pour les travaux sont présentées dans la partie suivante.

IV.2 Augmentation de la capacité d’accueil


Présentées dans le chapitre 1, de nombreuses solutions existent aujourd’hui qui permettent
d’augmenter la capacité d’accueil d’un réseau. La solution historique, le renforcement, sera utilisée
comme solution de référence tout au long de la méthodologie. Le dédoublement fait aussi partie des
solutions historiques (chapitre II) mais il ne sera pas considéré en raison de la même contrainte
logicielle que la limitation de la puissance de production à 6 kVA c’est-à-dire que la structure du réseau
ne peut pas être modifiée pendant une simulation. Pour les solutions de flexibilité, nous avons

78
principalement travaillé sur l’effacement de la consommation et de la production. L’utilisation d’un
système de stockage comme source de flexibilité aura des effets similaires à l’effacement avec
néanmoins des contraintes sur les états de charge. Ces choix sont issus du chapitre III, où la charge et
la production ont un rôle prédominant sur le plan de tension. Il s’agit aussi de solutions où il existe
encore un manque dans la littérature comme il a été observé dans le chapitre II.

IV.2.a Choix du segment à renforcer


Pour intégrer le renforcement comme solution afin d’augmenter la capacité d’accueil, la principale
simplification réalisée est le renforcement en 240mm² pour les trois phases et du 95mm² pour le
conducteur de neutre, ainsi que le passage d’un segment aérien en souterrain. Ce choix s’explique par :

- Des OPEX plus faibles. En effet, plus la section est importante, plus les pertes Joule sont faibles.
- Une harmonisation des achats pour réduire les coûts.
- Une tendance à l’enfouissement des réseaux notamment suite à la tempête de 1999.

Ensuite, le choix de la localisation du ou des renforcements se fait grâce à un algorithme exhaustif qui
calcule le gain en tension sur les contraintes avec le renforcement d’un segment, c’est-à-dire qu’il
calcule la différence de tension due au changement de la section d’un segment.
𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁 𝑑𝑑𝑑𝑑 𝑐𝑐𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜
𝐺𝐺𝐺𝐺𝐺𝐺𝐺𝐺𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 = � � 𝑉𝑉𝑖𝑖𝑐𝑐 − � 𝑉𝑉𝑖𝑖0
𝑖𝑖=1 IV-1
𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆 𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟é = max (|𝐺𝐺𝐺𝐺𝐺𝐺𝐺𝐺𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 |)

Avec

𝑉𝑉𝑖𝑖0 : Tensions aux bornes des nœuds et phases contraints pour la simulation i sans
renforcement (0)

𝑉𝑉𝑖𝑖𝑐𝑐 : Tensions aux bornes des nœuds et phases contraints pour la simulation i avec le
conducteur c renforcé.

Ensuite, les segments sont classés dans l’ordre de leur impact sur la chute de tension. Le segment qui
sera renforcé sera celui qui rapprochera le plus la tension de la tension nominale. Ce calcul de gain est
réalisé après chaque renforcement et les simulations des contraintes sont mises à jour.

La Figure IV-2 présente le logigramme implémenté dans Matlab pour rendre automatique le choix du
segment à renforcer.

79
Figure IV-2: Logigramme de choix du conducteur à renforcer

Avec « Nb segment » correspondant au nombre de segments sur le réseau.

IV.2.b Choix des flexibilités à activer


Comme défini dans la section IV.2 Augmentation de la capacité d’accueil, seul l’effacement de
consommation et de production ont été choisis comme solutions de flexibilité pour augmenter la
capacité d’accueil. Le choix de l’activation de la flexibilité passe ainsi par deux variables à déterminer :

1. La localisation de la flexibilité : quels sont les clients qui devront effacer leurs consommations
ou productions ?
2. L’amplitude de la flexibilité : quelle part de la consommation ou de la production doit être
effacée localement ?

Pour répondre à la question 1, nous nous sommes directement inspirés des travaux de [7], [96] à savoir
sur la matrice de sensibilité, ou matrice jacobienne. Elle correspond à la matrice des dérivées partielles
du premier ordre d’une fonction multi-paramètres en un point donné. Elle est utilisée dans la
littérature pour calculer la matrice de sensibilité de la tension à partir de l’équation théorique suivante
permettant de réaliser une partie du calcul de répartition des charges :

80
𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕 −1
∆𝜃𝜃 ∆𝑃𝑃
� � = � 𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕 � . � � IV-2
∆𝑉𝑉 𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕 ∆𝑄𝑄
𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕
L’objectif est de calculer ∆𝑉𝑉�∆𝑃𝑃 𝑒𝑒𝑒𝑒 ∆𝑉𝑉�∆𝑄𝑄, pour calculer la sensibilité de la tension à une variation de
puissance active ou réactive. Pour calculer ces matrices de sensibilité, deux solutions existent :

- Le calcul analytique, utilisé par [7], [96], qui permet d’avoir rapidement ces matrices à partir
des équations de calcul de répartition des charges (définition nodale des puissances en
fonction des tensions et des angles des nœuds du réseau.
- Le calcul par simulation (développement de Taylor à l’ordre 1) en utilisant l’équation IV-3 :

𝑉𝑉(𝑃𝑃 + 𝛥𝛥𝑃𝑃) − 𝑉𝑉(𝑃𝑃)


𝐽𝐽𝑃𝑃 = ∆𝑉𝑉�∆𝑃𝑃 =
𝛥𝛥𝑃𝑃 IV-3
𝑉𝑉(𝑄𝑄 + 𝛥𝛥𝛥𝛥) − 𝑉𝑉(𝑄𝑄)
𝐽𝐽𝑄𝑄 = ∆𝑉𝑉�∆𝑄𝑄 =
𝛥𝛥𝛥𝛥
Nous avons décidé de travailler avec la seconde solution car malgré un temps de calcul plus long, un
calcul numérique s’intègre plus naturellement dans l’écosystème de simulation (OpenDSS et
DisnetSimPl).

La matrice Jacobienne (𝐽𝐽𝑃𝑃 𝑒𝑒𝑒𝑒 𝐽𝐽𝑄𝑄 ) est calculée pour chaque simulation contrainte. Après plusieurs essais,
la valeur optimale compte tenu des réglages d’OpenDSS nous a amenés à un choix de variation tel que
𝛥𝛥𝑃𝑃 = 0.2kW ou 𝛥𝛥𝑄𝑄 = 0.1kVar. Ces variations sont ajoutées sur chaque nœud et chaque phase qui
comporte au moins un client. La matrice J se décline en deux matrices, JP pour la sensibilité à une
variation de puissance active et JQ pour la sensibilité à une variation de puissance réactive et a pour
taille : (nombre de nœuds × 3 ; nombre de couples (nœud, phase) pour lesquels au moins un client est
raccordé). Cette opération réduit le nombre de simulations à réaliser pour obtenir la matrice. Une fois
calculée, la taille de la matrice est réduite par deux étapes successives :

- Récupération uniquement des couples nœuds et phases où une contrainte de tension


apparait. On néglige la possibilité marginale que l’effacement d’un consommateur ou d’un
producteur puisse créer un déséquilibre générant une contrainte qui n’existait pas avant. La
taille de chaque matrice J devient donc :
(𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑𝑑𝑑 couples (noeud, phase) 𝑒𝑒𝑒𝑒 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐 ;
nombre de couples (noeud, phase) pour lesquels au moins un client est raccordé)
− Calcul de la sensibilité moyenne d’une variation de puissance sur les nœuds et phases en
contrainte. La matrice devient un vecteur de
taille :
(1 ; nombre de couples (noeud, phase) pour lesquels au moins un client est raccordé)

Pour finir, le vecteur des sensibilités moyennes est multiplié sur les nœuds contraints par la capacité
d’effacement du client. Cette capacité est déterminée à partir du pas de temps de chaque simulation
contrainte et de la courbe de charge du client simulé. La capacité d’effacement s’obtient par la somme
des consommations ECS, chauffage et VE (uniquement l’actif, présenté dans la Tableau III-5) à chaque
pas de temps contraint. Grace à ces différents calculs, les clients à effacer en priorité pour résoudre
les contraintes de la simulation sont connus. Ce résultat partiel sera appelé « vecteur des clients à
effacer ». Ce vecteur est recalculé pour chaque simulation contrainte. A partir de ces différents
vecteurs, les clients les plus intéressants à effacer sur l’ensemble des simulations sont classés par leur
impact moyen sur la tension sur les couples (nœuds, phases) en contrainte.

81
IV.2.c La flexibilité pour la planification long terme
Une fois que les clients les plus intéressants à effacer sont connus, il suffit de déterminer quels sont
les clients qui doivent être effacés pour résoudre des contraintes et atteindre le taux d’acceptabilité
de la contrainte défini en partie IV.1. Plusieurs solutions sont alors envisageables, comme par exemple
les travaux [66] sur l’optimisation de l’emplacement des flexibilités à activer. Cependant, comme
discuté dans le chapitre II, cette optimisation ne peut fonctionner que lorsqu’on est sûr de pouvoir
activer la flexibilité / l’effacement. La littérature [66], [97] a montré que l’effacement était une solution
capable de résoudre des contraintes, et elle est d’ailleurs utilisée aujourd’hui en HTA et HTB. Pour
développer une méthodologie de planification long terme, l’incertitude sur la capacité d’un client à
être effacé est importante et doit être considérée dans le processus de planification. Nos recherches
nous ont orientés vers des méthodes (partiellement) exhaustives afin de trouver des combinaisons
d’effacement de clients qui permettent de résoudre des contraintes. Une méthode purement
exhaustive nous demanderait beaucoup de ressources pour tester toutes les combinaisons possibles :
𝑛𝑛 𝑛𝑛
𝑝𝑝 𝑛𝑛!
𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑𝑑𝑑 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐 = � 𝐶𝐶𝑛𝑛 =� = 2𝑛𝑛 − 1 IV-4
𝑝𝑝! (𝑛𝑛 − 𝑝𝑝)!
𝑝𝑝=1 𝑝𝑝=1
Avec n, le nombre de clients potentiellement effaçables.

Ainsi, le nombre de combinaisons d’effacement d’un réseau BT à 50 clients est de 1,12. 1015. Il est donc
nécessaire de trouver une solution pour limiter le temps de calcul. Nous avons opté pour limiter n à
10, en considérant qu’en pratique l’utilisateur de la méthode ne s’appuiera que sur un nombre
restreint de contrats d’effacement. Le nombre de combinaisons possibles est alors de 1023 mais ce
choix est paramétrable par l’utilisateur.

Si 10 clients sont intéressants à effacer sur un réseau, la prise en compte d’une probabilité individuelle
de « non-réponse » à une sollicitation d’effacement (usage électro intensif non présent, défaillance de
la chaine de communication, refus, entre autres) rend rapidement très improbable le fait d’obtenir un
effacement simultané de tous. La Figure IV-3 montre la probabilité d’effacement des 10 clients
simultanément en fonction de la probabilité d’activation individuelle, en supposant l’indépendance
des non-activations. On peut voir que cette probabilité à une évolution en x10 avec x la probabilité
d’activation d’effacement d’un client. Dès que cette probabilité x passe sous le seuil de 95%, la
probabilité que les 10 clients s’effacent simultanément diminue fortement.

1 0
10

0.9

0.8
-1
10
0.7

0.6
probabilité d'activation d'effacement de 10 clients

probabilité d'activation d'effacement de 10 clients

-2
0.5 10

0.4

0.3
-3
10
0.2

0.1

-4
0 10
0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 0.95 1 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 0.95 1

probabilité d'activation d'effacement d'un client probabilité d'activation d'effacement d'un client

Figure IV-3: Evolution du taux de probabilité d'activation de l'effacement pour 10 clients en fonction de la probabilité
d’effacement individuelle d'un client

82
Ensuite, pour trouver toutes les combinaisons d’effacement de clients qui permettent d’atteindre le
niveau de contrainte requis, deux algorithmes ont été développés :

- Le premier parcourt l’arbre des possibles qui part de la racine où tous les clients sont effacés,
et à chaque branche retire un des clients effacés, puis réalise un calcul de répartition des
charges. Lorsqu’une combinaison ne permet pas de résoudre suffisamment de contraintes,
l’algorithme ne parcourt pas l’arbre plus en aval.
- L’autre est le calcul analytique :

𝑉𝑉𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒é𝑒𝑒 = 𝑉𝑉 + 𝐽𝐽𝑃𝑃 × 𝑃𝑃𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒é𝑒𝑒 IV-5


Avec :
𝑉𝑉 : Résultats en tensions pour une simulation initialement contrainte ;
𝑉𝑉𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒é𝑒𝑒 : Nouvelle valeur de tension pour la simulation avec l’effacement activé ;
𝑃𝑃𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒é𝑒𝑒 ∶ Puissance effacée des clients.

Une fois que toutes les combinaisons qui permettent d’atteindre les objectifs de contrainte sont
connues, nous souhaitons déterminer quelles sont les coupes minimales des combinaisons, c’est-à-
dire trouver les combinaisons avec le moins de clients possible à effacer contenues dans l’ensemble
des combinaisons trouvées à l’aide de l’équation IV-4. Soit un exemple avec 3 clients : a, b et c.

Figure IV-4: Réseau simplifié avec 3 clients

Les combinaisons possibles sont :

𝑎𝑎. 𝑏𝑏. 𝑐𝑐 + 𝑎𝑎. 𝑏𝑏 + 𝑎𝑎. 𝑐𝑐 + 𝑏𝑏. 𝑐𝑐 + 𝑎𝑎 + 𝑏𝑏 + 𝑐𝑐 IV-6

Avec :

" + " = 𝑜𝑜𝑜𝑜 ; " . " = 𝑒𝑒𝑒𝑒


Supposons l’existence de contraintes sur le réseau de la Figure IV-4. La matrice jacobienne est alors
calculée puis l’équation IV-5 est appliquée. Supposons que l’ensemble des combinaisons qui résolvent
les contraintes sont 𝑎𝑎. 𝑏𝑏. 𝑐𝑐 + 𝑎𝑎. 𝑏𝑏 + 𝑎𝑎. 𝑐𝑐 + 𝑎𝑎. Dans cet exemple, la coupe minimale est 𝑎𝑎, car si 𝑎𝑎
s’active, alors toutes les combinaisons qui comprennent le client a permettent d’atteindre l’objectif de
contrainte.

IV.2.d Flexibilités pour la production


Les options à notre disposition pour réduire les contraintes sont l’effacement de la production ou
l’activation d’usages de clients pour augmenter la consommation. Cette dernière n’a pas été retenue
car elle comporte plusieurs problèmes : dans un contexte de sobriété énergétique, il pourrait être mal

83
venu d’allumer certains usages comme le chauffage. Ensuite, la disponibilité est un second problème
à probabiliser. Par exemple, pour considérer la disponibilité du véhicule électrique comme solution
d'activation d'usage, il est nécessaire de définir une variable de disponibilité sur le branchement de ce
véhicule. L’eau chaude sanitaire reste une possibilité qui fonctionnerait mais reste trop limitée. Nous
avons choisi de nous concentrer sur le développement de l’effacement de la production.

Dernièrement, l’arrêté concernant les obligations des producteurs raccordés au réseau a été mis à jour
[98] (article 54) et demande la possibilité pour un producteur raccordé en basse tension d’être en
mesure de fournir ou consommer de la puissance réactive. Cela signifie que contrairement à
l’effacement de consommation, il est envisageable de faire l’hypothèse qu’un producteur devra
souscrire à un contrat qui inclus de l’effacement ou du contrôle en puissance réactive. On notera que
la méthode d’effacement présentée pour la consommation est applicable en dual pour la production.

Compte tenu des non-linéarités du calcul de répartition des charges qui impactent à la fois la fonction
objectif et les contraintes, nous nous sommes orientés vers une méthode d’optimisation avec
contraintes non linéaires. C’est ainsi que la méthode retenue est une optimisation quadratique réalisée
à partir de la fonction « fmincon 22» disponible sur Matlab®. Deux solutions ont été explorées :

- Optimisation de la puissance totale effacée : la fonction minimise les puissances effacées de


chaque producteur à chaque pas de temps où une contrainte a été relevée.

𝑂𝑂𝑂𝑂𝑂𝑂 = 𝑀𝑀𝑀𝑀𝑀𝑀(𝐸𝐸𝑒𝑒𝑒𝑒𝑒𝑒 )
𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑𝑑𝑑 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐
IV-7
= 𝑀𝑀𝑀𝑀𝑀𝑀(� 𝑃𝑃𝑃𝑃𝑃𝑃 ℎ𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 × � 𝑃𝑃𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 (𝑡𝑡) × 𝑃𝑃𝑒𝑒𝑒𝑒𝑒𝑒 (𝑡𝑡))
𝑖𝑖
𝑖𝑖=1

- Optimisation du coût d’exploitation : la fonction minimise une fonction coût comprenant


l’effacement de production et le contrôle de réactif sur le réseau. Pour l’absorption de
puissance réactive, nous avons limité la plage de variations de la tangente phi entre [-0.4 ;0]
[98] (article 43) sur la capacité totale du panneau solaire :

𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑𝑑𝑑 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐

𝐸𝐸𝐸𝐸𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑖𝑖𝑖𝑖𝑖𝑖 = � 𝑃𝑃𝑃𝑃𝑃𝑃 ℎ𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 × � 𝑃𝑃𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐é × 𝑇𝑇𝑇𝑇𝑇𝑇𝑝𝑝ℎ𝑖𝑖


𝑖𝑖 𝑖𝑖𝑖𝑖𝑖𝑖
𝑖𝑖=1 IV-8
𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑𝑑𝑑 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐

𝐸𝐸𝑒𝑒𝑒𝑒𝑒𝑒 = � 𝑃𝑃𝑃𝑃𝑃𝑃 ℎ𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 × � 𝑃𝑃𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 (𝑡𝑡) × 𝑃𝑃𝑒𝑒𝑒𝑒𝑒𝑒 (𝑡𝑡)


𝑖𝑖
𝑖𝑖=1
𝑂𝑂𝑂𝑂𝑂𝑂 = 𝑀𝑀𝑀𝑀𝑀𝑀(𝐶𝐶𝐶𝐶û𝑡𝑡𝑒𝑒𝑒𝑒𝑒𝑒 × 𝐸𝐸𝑒𝑒𝑒𝑒𝑒𝑒 + 𝐶𝐶𝐶𝐶û𝑡𝑡𝑄𝑄𝑄𝑄𝑄𝑄𝑄𝑄 × 𝑄𝑄𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑖𝑖𝑖𝑖𝑖𝑖 ) IV-9
Avec :

𝑃𝑃𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 : Vecteur des puissances de production pour les pas de temps i contraints.
𝑖𝑖

𝑃𝑃𝑒𝑒𝑒𝑒𝑒𝑒 : Vecteur de sortie de l’algorithme fmincon qui optimise une fraction de la puissance
totale produite par pas de temps contraint (W).

𝐸𝐸𝑒𝑒𝑒𝑒𝑒𝑒 : Energie totale effacée sur les moyens de production sur les pas de temps contraints
(Wh)

https://www.math works.com/help/optim/ug/fmincon.html
22

84
𝑃𝑃𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐é : Vecteur des capacités de production des panneaux solaires (W) ;

𝑇𝑇𝑇𝑇𝑇𝑇𝑝𝑝ℎ𝑖𝑖 𝑖𝑖𝑖𝑖𝑖𝑖 : Vecteur de l’injection ou l’absorption de puissance réactive via la tangente phi.

𝐸𝐸𝐸𝐸𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑖𝑖𝑖𝑖𝑖𝑖 : Energie réactive totale injectée ou absorbée sur le réseau (Varh)

Pour valoriser l’effacement de production et le contrôle de réactif, le coût de l’effacement doit


être fixé avec 𝐶𝐶𝐶𝐶û𝑡𝑡𝑒𝑒𝑒𝑒𝑒𝑒 (€/kWh effacé) et 𝐶𝐶𝐶𝐶û𝑡𝑡𝑄𝑄𝑄𝑄𝑄𝑄𝑄𝑄 (€/kVarh absorbé).

Comme pour l’effacement de consommation, l’optimisation est uniquement réalisée sur les
simulations avec contraintes afin de limiter le temps de calcul. Le solveur utilisé est la méthode de
points intérieurs. Il est appliqué sur chaque contrainte, une par une. Dans l’algorithme, le taux
d’acceptabilité de la contrainte n’est pas retenu.

Pour utiliser fmincon, la fonction objectif à minimiser est celle présentée ci-dessus avec les équations
IV-7ou IV-9. La fonction contrainte sert à obliger l’algorithme à respecter des règles en tension du
réseau BT. Les valeurs du vecteur de sortie de l’algorithme d’optimisation (appelé C dans l’équation
IV-10) de cette fonction contrainte doivent être toutes inférieures à 0 pour respecter ces règles. Dans
notre étude, ce vecteur est issu d’une normalisation des résultats du calcul de répartition des charges :

𝐿𝐿𝐿𝐿𝐿𝐿𝑖𝑖𝑖𝑖𝑖𝑖 − 𝑉𝑉(1)

⎪𝑉𝑉(1) − 𝐿𝐿𝐿𝐿𝐿𝐿𝑠𝑠𝑠𝑠𝑠𝑠

𝐿𝐿𝐿𝐿𝐿𝐿𝑖𝑖𝑖𝑖𝑖𝑖 − 𝑉𝑉(2) IV-10
𝐶𝐶 =
⎨𝑉𝑉(2) − 𝐿𝐿𝐿𝐿𝐿𝐿𝑠𝑠𝑠𝑠𝑠𝑠

⎪ 𝐿𝐿𝐿𝐿𝐿𝐿𝑖𝑖𝑖𝑖𝑖𝑖 − 𝑉𝑉3
⎩ 𝑉𝑉3 − 𝐿𝐿𝐿𝐿𝐿𝐿𝑠𝑠𝑠𝑠𝑠𝑠
Avec :

V(ph) : Vecteur des résultats du calcul de répartition de charges exprimé en per-unit (pu) pour
la phase ph.

C : vecteur de sortie de la fonction contrainte de fmincon

[𝐿𝐿𝐿𝐿𝐿𝐿𝑖𝑖𝑖𝑖𝑖𝑖 ; 𝐿𝐿𝐿𝐿𝐿𝐿𝑠𝑠𝑠𝑠𝑠𝑠 ] : Limite de tension inférieure et supérieure.

Une optimisation contrainte par contrainte permet de converger plus rapidement vers une solution,
notamment en faisant une optimisation uniquement sur les producteurs installés, mais il s’agit d’une
solution plus difficile à mettre en œuvre car il faut pouvoir envoyer des ordres de réglages précis aux
producteurs. Cela permet aussi de se projeter dans une optimisation temps réel de l’effacement et du
réglage en réactif plutôt que de consigne fixe.

Cependant, une optimisation sur toutes les contraintes permettrait de proposer un réglage fixe à
appliquer lorsqu’il y a une suspicion de contrainte de tension haute en conduite de réseau avec
certaines limites comme le manque d’information sur les futurs raccordements de PV prévus par les
scénarios qui seront simulés.

IV.2.e Mixte renforcement et flexibilité.


Les travaux présentés jusqu’à maintenant permettent de quantifier des besoins d’effacement ou de
renforcement dissociés. L’un des objectifs de la thèse est de proposer un processus de planification
pouvant conjointement s’appuyer sur les deux options. Notre choix s’est porté sur un

85
dimensionnement en plusieurs étapes et, comme discuté en IV.2.a, avoir une solution de référence
avec uniquement du renforcement.

Le processus mis en place dans la Figure IV-5 commence par rechercher une solution avec 100% de
levier de flexibilité puis renforce segment par segment dans l’ordre de leur impact sur les contraintes
en diminuant la part de flexibilité superflue dans la solution jusqu’à trouver une solution avec 100% de
renforcement et 0% de flexibilité qui atteignent le taux de contrainte défini dans les hypothèses.

Figure IV-5 - Processus mis en place pour éliminer les contraintes

Afin d’illustrer le processus, un exemple simplifié est proposé ci-dessous dans le Tableau IV-1 où une
contrainte sur les nœuds 1 et 2 est relevée sur plusieurs simulations.

Segment(s) Flexibilité(s)
Numéro solution
renforcé(s) activée(s)
1 / 1 et 2
2 2 1 ou 2
3 1 et 2 /
Tableau IV-1 - Exemple de solutions proposées par le processus

On notera que les travaux de thèse se focalisent sur la proposition d’une maquette logicielle de
planification, par conséquent, chaque bloc de la méthodologie (déjà présenté ou les suivants) se veut
interchangeable par des fonctions qui permettent une meilleure précision ou une réduction du temps
de calcul en fonction des besoins et des contraintes du planificateur au moment de l’étude. De même,
les paramètres de réglage peuvent être ajustés par l’utilisateur.

IV.3 Estimation de l’énergie annuelle à effacer


Dans le but de valoriser financièrement l’effacement de consommation et de production et de le
comparer au coût d’un renouvellement de conducteur sur la période d’étude, une méthodologie
d’estimation de l’énergie annuelle est proposée. Le principe est de simuler une année de
consommation pour un réseau avec des courbes de consommation et de production aléatoires et de
calculer l’énergie à effacer sur cette année pour résoudre les contraintes. Cette année simulée fait
partie d’un échantillon de 200 tirages aléatoires où les consommations et productions sont
redistribuées à chaque tirage (avec remise en jeu des courbes déjà sélectionnées).

Méthode de calcul

Le calcul de l’énergie annuelle effacée est réalisé pour chaque tirage. Le principe du calcul est de
simuler une année complète pour repérer tous les pas de temps créant une excursion de tension qui
pourrait arriver avec la courbe de puissance du client sélectionnée. Ensuite, la puissance effaçable de
tous les clients sélectionnés est sommée dans l’étape présentée en IV.2.e pour tous ces pas de temps.

Pour les charges

86
𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢 à 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒
𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎
𝐸𝐸𝑒𝑒𝑒𝑒𝑒𝑒 =� � � � 𝑃𝑃𝑖𝑖 � × 𝑃𝑃𝑃𝑃𝑃𝑃 ℎ𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 IV-11
𝑃𝑃𝑃𝑃𝑃𝑃 𝑑𝑑𝑑𝑑 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐 𝐶𝐶𝑙𝑙𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖 à 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒 𝑖𝑖
Pour les productions

𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎
𝐸𝐸𝑒𝑒𝑒𝑒𝑒𝑒 =� � � 𝑃𝑃𝑃𝑃𝑃𝑃 × 𝑃𝑃𝑒𝑒𝑒𝑒𝑒𝑒 � × 𝑃𝑃𝑃𝑃𝑃𝑃 ℎ𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 IV-12
𝑃𝑃𝑃𝑃𝑃𝑃 𝑑𝑑𝑑𝑑 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐 𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 à 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒
Avec :

𝑃𝑃𝑖𝑖 : Consommation en kW à un pas de temps contraint pour l’usage i

𝑃𝑃𝑃𝑃𝑃𝑃 : Capacité installée du panneau solaire

𝑃𝑃𝑒𝑒𝑒𝑒𝑒𝑒 : Moyenne des vecteurs de sortie de l’algorithme d’optimisation (équation IV-9)


𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎
𝐸𝐸𝑒𝑒𝑒𝑒𝑒𝑒 : Energie annuelle effacée en kWh

Ces calculs sont réalisés pour les 200 tirages aléatoires et permettent d’obtenir des graphiques
comme celui exposé ci-dessous (Figure IV-6) :

Figure IV-6: Exemple de résultats obtenus sur le calcul de l'énergie annuelle à effacer

La Figure IV-6 a été construite en rangeant dans l’ordre croissant les énergies annuelles effacées sur
une année par simulation. On remarque l’importante dispersion qui s’explique par le
dimensionnement des réseaux. Ceux-ci sont dimensionnés pour ne pas être en contrainte la grande
majorité du temps et donc le besoin d’effacement sera a priori lié aux météos extrêmes ou des
modifications conséquentes de comportement des foyers pouvant présenter une grande variabilité
d‘une année à l’autre.

Pour définir l’énergie annuelle à effacer, nous proposons d’utiliser l’énergie moyenne annuelle effacée
par simulation (ligne horizontale en orange de la Figure IV-6), qui est de 359 kWh dans l’exemple. On
notera que les résultats montrent que l’appel à la flexibilité sera moindre et que dans environ 10% des

87
cas, l’énergie estimée sera en dessous de la « réalité simulée ». Nous reviendrons sur ce type de
résultat dans le chapitre V.

Augmentation des performances de calcul

Le nombre d’appels à la fonction LF est considérable (200 × 17520 = 3,5𝑀𝑀). Les performances de
calculs étant un enjeu pour la planification, il n’est pas envisageable de réaliser autant d’appels à la
fonction LF. Afin de réduire le nombre d’appels, les simulations seront réalisées sur la monotone de
consommation ou de production (de nouveau utilisée) découpée en 10 zones fractionnées par le
pourcentage de la consommation (Figure IV-7 et Tableau IV-2).

Figure IV-7:Choix de découpage de la monotone pour la consommation

Niveau 90->100% 80->90% 70->80% 60->70% 50->60% 40->50% 30->40% 20->30% 10->20% 0->10%
Début
zone 1 43 235 991 2365 4304 6560 8705 11197 14172
conso
Fin
zone 42 234 990 2364 4303 6559 8704 11196 14171 17520
conso
Début
zone 1 3 61 382 884 1456 2170 2978 4145 5833
prod
Fin
zone 2 60 381 883 1455 2169 2977 4144 5832 17520
prod
Tableau IV-2: Tableau de découpage des monotones par zone

A partir de ces zones, chacun des 200 tirages de clients sera simulé sur la première zone (sur la Figure
IV-7, la première zone est à droite). S’il y a une contrainte sur la zone simulée, alors le tirage de client
sera simulé sur la/les zones suivantes, c’est-à-dire avec moins de consommation et/ou plus de
production, jusqu’à ce qu’il n’y ait plus de contrainte sur la zone simulée. Cela permet de réduire
fortement le nombre de simulations, notamment lorsqu’un tirage de clients ne provoque pas de
contrainte dès la/les première(s) zone(s). Cela signifie que l’on suppose que s’il n’y a pas de contrainte
dans une zone, alors a fortiori il n’y en a pas dans les zones d’après, moins chargées.

88
Nous n’avons pas étudié de scénario avec une forte production et une forte consommation
simultanément en raison de la faible probabilité d’occurrence de cet évènement comme le montre
l’Annexe G : Corrélation entre consommation et production réalisé avec nos courbes de charge et
production.

IV.4 Calcul du coût d’une solution Smart Grid


Afin de comparer financièrement une solution 100% flexibilité à un mixte flexibilité et renforcement
ou une solution avec uniquement du renforcement, il faut être en mesure de valoriser la flexibilité.
Pour la valoriser, plusieurs paramètres sont à considérer, notamment le coût de la flexibilité l’échelle
de temps étudiée. De plus, l’activation d’une solution de flexibilité sur le temps d’étude est soumise à
une forte incertitude qu’il faut quantifier et probabiliser. Ensuite, nous souhaitons pénaliser la
flexibilité lorsqu’elle ne s’active pas car elle est utilisée comme substitut à un investissement, mais son
utilisation peut avoir des effets néfastes, telle que la dégradation des ouvrages et des équipements
d’un foyer si elle n’est pas disponible.

Dans cette partie, nous souhaitons construire une équation qui va permette de comparer des solutions
Smart Grid en considérant chacune des contraintes induites par les flexibilités.

IV.4.a Intégration de la notion de non-activation de la


flexibilité
Comme discuté dans la section IV.2.c, il n’y a aucune certitude que le client le plus intéressant à effacer
puisse l’être. C’est pour cette raison que nous proposons que les résultats des flexibilités à activer
soient sous forme de combinaisons de solutions. Cela signifie que l’algorithme que nous avons
développé cherche plusieurs solutions (combinaisons de clients à effacer) différentes pour résoudre
une contrainte. Ce choix méthodologique permet d’augmenter la probabilité de la disponibilité de la
flexibilité.

Pour ce faire, nous proposons d’attribuer une probabilité à un client i correspondant à la probabilité
que le client pourra être effacé à l’année simulée. Nous introduisons cette probabilité, notée 𝜶𝜶𝒊𝒊 , qui
englobe la souscription du client i à une offre d’effacement et la probabilité d’activation de
l’effacement de ou des usage(s) lorsque celui-ci est demandé par un centre de conduite ou un
agrégateur. Elle ne considère pas le fonctionnement ou non de l’usage à effacer.

Une fois chaque probabilité 𝛼𝛼𝑖𝑖 fixée, il est possible de déterminer la probabilité 𝛼𝛼, probabilité de succès
de l’activation de la flexibilité, c’est-à-dire la probabilité que la combinaison de client à effacer réussisse
à empêcher l’apparition de la contrainte attendue. Nous supposons que lorsqu’une combinaison de
flexibilités résout une contrainte avec certains segments renforcés, alors la combinaison de flexibilités
fonctionne aussi si des renforcements supplémentaires sont réalisés.

Le calcul de la probabilité est réalisé en 5 étapes :

1. Récupération du tableau de combinaisons ;


2. Regroupement des combinaisons de flexibilités conditionnées à un nombre de
renforcements ;
3. Suppression des combinaisons avec des appels superflus (voir Tableau IV-3), c’est-à-
dire les combinaisons qui n’ont pas besoin de l’activation de tous les clients de la
combinaison pour empêcher l’apparition de la contrainte.

89
4. Récupération dans les renforcements précédents des combinaisons de flexibilité et
établissement de l’arbre des possibilités d’activation de la flexibilité pour chaque
solution de développement ;
5. Calcul de la probabilité de succès de l’activation de la flexibilité pour chaque solution
de développement, notée 𝛼𝛼.

Le Tableau IV-3 présente un exemple d’application pour les étapes 1 à 4. Pour l’étape 5, afin de calculer
la valeur de 𝛼𝛼, le choix proposé est un calcul analytique en évitant les conflits de dépendances.

Exemple d’application avec des dépendances : ajoutons deux clients (d et e) sur le réseau de la Figure
IV-4. Supposons que l’étude des combinaisons donne pour résultats : a.b + c.d + a.c.e. Dans cet
exemple, le calcul analytique est difficile car aucune factorisation n’est possible et des dépendances
sont présentes.

Analytiquement, la probabilité d’activation de la flexibilité se calcule à partir de l’arbre des


combinaisons (Figure IV-8 : application de l’arbre des combinaisons sur l’exemple). Les probabilités de
chacune des branches sont calculées via un algorithme récursif et la probabilité d’activation « globale »
est déterminée à partir de la somme des branches qui permettent l’activation de la flexibilité. Les
résultats de l’exemple sont présentés à partir de l’équation IV-13.

Etape 1 Etape 2 Etape 3 Etape 4

Numéro Numéro Numéro Numéro Numéro Numéro Numéro


Numéro flexibilité
conducteur conducteur flexibilité à conducteur flexibilité à conducteur flexibilité
à activer
à renforcer à renforcer activer à renforcer activer à renforcer à activer

[1,2,4] 1 1 1 1

[1,2,4] [1,3,5] [1,3,5] [1,3,14] [3,5]

[1,2,4] [3,5] [3,5] [3,5] [1,2,4] [6,8]

[1,2,4] [6,8] [6,8] [6,8] 9

[1,2,4] 9 9 9 [3,8,15]
[1,2,4] [1,2,4]
[1,2,4] [3,8,15] [3,8,15] [3,8,15] 1

[1,2,4] [6,8,14] [6,8,14] [6,8,14] [3,5]

[1,2,4] [1,8,14] [1,8,14] [1,8,14] [6,8]


[1,2,4,20]
[1,2,4] [9,8,14] [9,8,14] [9,8,14] 9

[1,2,4] [3,5,14] [3,5,14] [3,5,14] [3,8,15]

[1,2,4,8] 14 [1,2,4,8] 14 [1,2,4,8] 14 14

[1,2,4,8,9] [] [1,2,4,20,9] [] [1,2,4,20,9] [] [1,2,4,20,9] []

Tableau IV-3: Exemple d'application des étapes 1 à 4 de l'algorithme de calculs de probabilité d'activation de la flexibilité

90
1 1
𝑃𝑃({𝑏𝑏 ; 𝑐𝑐𝑐𝑐 ; 𝑐𝑐𝑐𝑐}) 𝑃𝑃({𝑑𝑑 ; 𝑒𝑒}) 1
𝑃𝑃({𝑐𝑐𝑐𝑐 ; 𝑐𝑐𝑐𝑐}) 𝑃𝑃( 𝑒𝑒 )
0 0

1
𝑃𝑃( 𝑑𝑑 )
𝑃𝑃( 𝑐𝑐𝑐𝑐 ) 0
0

Figure IV-8: Méthode de calcul analytique pour la probabilité d'activation de la flexibilité

𝑃𝑃(𝐸𝐸) = 𝑎𝑎𝑎𝑎 + 𝑎𝑎𝑏𝑏�𝑐𝑐𝑐𝑐 + 𝑎𝑎𝑏𝑏�𝑐𝑐𝑑𝑑̅𝑒𝑒 + 𝑎𝑎�𝑐𝑐𝑐𝑐 IV-13

IV.4.b Intégration de la notion de pénalité


Maintenant que la probabilité d’activation de la flexibilité est calculée, il est rigoureux de pénaliser la
solution dans le cas où la flexibilité ne serait pas en mesure de s’activer. La notion de pénalité est déjà
présente dans la littérature ([99]), mais les coûts associés à cette pénalité sont rarement définis. Dans
la section IV.2.e, nous avons présenté le processus pour proposer des solutions Smart Grid, avec une
solution comprenant uniquement du renforcement comme dernière solution proposée. Cette solution
𝑟𝑟𝑟𝑟𝑟𝑟
est appelée solution de référence. Le coût de cette solution s’appellera 𝐶𝐶𝑟𝑟 pour coût de référence
pour la solution de renforcement. Notre proposition est de fonder le coût de la pénalité, 𝐶𝐶𝑝𝑝 , en
𝑟𝑟𝑟𝑟𝑟𝑟
fonction du coût 𝐶𝐶𝑟𝑟 et du coût de la solution n°i, 𝐶𝐶𝑟𝑟𝑖𝑖 :

𝐶𝐶𝑝𝑝𝑖𝑖 = 𝐶𝐶𝑟𝑟
𝑟𝑟𝑟𝑟𝑟𝑟
− 𝐶𝐶𝑟𝑟𝑖𝑖 IV-14
Avec i le numéro de la solution étudiée.

En résumé, nous traduisons le coût de la pénalité par l’investissement nécessaire pour attendre le seuil
de contrainte sans l’utilisation de solution de flexibilité.

IV.4.c Intégration de la notion de sévérité de la


contrainte
La pénalité telle que présentée ne considère pas la sévérité des contraintes qui apparaissent si
l’effacement ne s’active pas. Cela signifie que si une contrainte crée une excursion de tension de 20%
ou 11%, la pénalité sera la même alors que les conséquences sur les équipements du client peuvent
être complètement différentes. Le même raisonnement s’applique sur le nombre de contraintes qui
apparaissent si l’effacement n’a pas lieu.

Nous proposons d’intégrer la notion de sévérité pour mesurer l’impact d’une excursion sur des
équipements. Certains appareils équipés de convertisseurs ont une plage de fonctionnement très large
(100V  250V) et semblent donc peu impactés par une excursion de tension. Cependant, les
équipements utilisant un moteur (pompe à chaleur, réfrigérateur, etc.) sont dimensionnés pour

91
fonctionner aux plages de tension de la norme NF15100 et une excursion de tension, qu’elle soit faible
ou non, pourrait endommager les isolants.

Inspiré de [100], nous avons introduit un nouvel indicateur, nommé 𝛽𝛽, afin d’ajouter un coefficient
pour représenter cette sévérité et pénaliser davantage les fortes excursions de tension. Cet indicateur
est calculé de la manière suivante :

Nous proposons de définir 𝛽𝛽 par l’équation IV-14 et de le calculer en fonction des simulations
contraintes i :
𝑁𝑁𝑐𝑐
1
𝛽𝛽 = 𝐶𝐶 × × � � 𝑓𝑓𝑖𝑖 (𝑣𝑣). 𝑆𝑆(𝑣𝑣). 𝑑𝑑𝑑𝑑 IV-15
𝑁𝑁𝑐𝑐
𝑖𝑖

Avec :

𝑣𝑣 : tension.

𝑆𝑆(𝑣𝑣) : fonction de sévérité (Figure IV-8)

𝑓𝑓𝑖𝑖 (𝑣𝑣) : fonction de densité des tensions pour la simulation i (illustré en Figure IV-9)

𝑁𝑁𝑐𝑐 : nombre de simulations contraintes

𝐶𝐶 : Probabilité de contrainte (%)


5

3
Sévérité

0
0.7 0.8 0.9 1 1.1 1.2 1.3 1.4

Tension (pu)

Figure IV-9: Proposition d'une courbe de sévérité


5
10
4

2
Frequence

0
0.85 0.9 0.95 1 1.05

Tension (pu)

Figure IV-10: exemple de fonction de densité de type normal

L’idée d’une courbe de sévérité comme celle proposée en Figure IV-8 provient de [100], quelque peu
modifiée, notamment un ajustement sur le coefficient directeur de la partie droite de la courbe
(multiplié par deux) par rapport à celui de gauche, pour pénaliser plus fortement une excursion de
tension haute. Ensuite, chaque paramètre peut être modifié en fonction du niveau d’acceptabilité
d’une contrainte définie par le planificateur. La principale difficulté à l’application de ce critère 𝛽𝛽 est

92
de définir les paramètres des deux lois conjointement pour être ni trop conservatif, ni accepter
commodément des nouvelles contraintes. Annexe F : Sensibilité de la fonction de sévérité modifie les
paramètres de la fonction de sévérité en utilisant les résultats du cas d’étude n°1 du chapitre V pour
étudier l’impact du choix des paramètres sur la sévérité. A la suite de cette analyse, les paramètres
retenus pour la fonction de sévérité sont :

𝑣𝑣 < 0.9 ∶ 𝑆𝑆(𝑣𝑣) = −10𝑣𝑣 + 10


0.9 ≤ 𝑣𝑣 ≤ 1.1 ∶ 𝑆𝑆(𝑣𝑣) = 0 IV-16
𝑣𝑣 > 1.1 ∶ 𝑆𝑆(𝑣𝑣) = 20𝑣𝑣 − 21

IV.4.d Coût d’une solution Smart Grid : conclusion et


perspectives
Pour articuler les différentes notions abordées tout au long de cette partie, nous proposons l’équation
IV-16, qui permet de considérer le renforcement, la flexibilité, tout en la pénalisant dans les cas où elle
ne pourrait s’activer :

𝐶𝐶𝑠𝑠 = 𝐶𝐶𝑟𝑟 + 𝛼𝛼 × 𝐶𝐶𝑓𝑓 + (1 − 𝛼𝛼) × 𝛽𝛽 × 𝐶𝐶𝑝𝑝 IV-17

Avec :

𝐶𝐶𝑠𝑠 : Coût de la solution (SG)

𝐶𝐶𝑟𝑟 : Coût du renforcement

𝐶𝐶𝑓𝑓 : Coût de la flexibilité

𝐶𝐶𝑝𝑝 : Coût de la pénalité

𝛼𝛼 : Probabilité de succès de l’activation de la flexibilité.

𝛽𝛽 : Sévérité de la contrainte.

Cette équation se construit à partir du coût de renforcement et du coût de flexibilité. Et pour


considérer la probabilité que la flexibilité ne puisse pas s’activer aux moments souhaités, nous
introduisons plusieurs paramètres comme la sévérité de la contrainte (𝛽𝛽), intégrée pour différencier
deux chutes de tensions différentes, le cout de la pénalité (𝐶𝐶𝑝𝑝 ), pour pénaliser financièrement la non-
activation et la probabilité de succès de l’activation de la flexibilité (𝛼𝛼) pour pénaliser statistiquement
la non-activation de la flexibilité.

Avec l’équation IV-16, nous souhaitions proposer une formule qui permette de comparer différents
types d’investissements. Ces travaux s’inspirent de la littérature, notamment les lectures présentées
telles que [5], [100], [101], à la différence que nous proposons une approche probabiliste de la
flexibilité pour la planification long terme.

L’équation IV-16 se veut paramétrable par quiconque souhaite reprendre les travaux et adapter un
paramètre ne correspondant pas à ses besoins. Chaque notion présentée peut donc être challengée
et modifiée pour être soit plus précise, plus conservatrice, soit réduire le nombre d’itérations afin
d’augmenter les performances de calcul.

93
IV.5 Projection pluriannuelle des solutions obtenues
Une fois que les solutions pour la dernière année cible ont été définies, l’objectif est de les décliner sur
les autres années cibles pour planifier les investissements sur l’ensemble de l’échelle de temps étudiée.
Le principe est de parcourir les années de façon décroissante, en cherchant le sous-ensemble des
solutions de l’année 10 permettant de résoudre les contraintes à l’année regardée. La méthodologie
reprend les codes présentés en IV.1 pour réaliser les simulations de dimensionnement sur les autres
années cibles. Le processus est le suivant :

94
Figure IV-11 : Processus de recherche de solutions d’investissements pour les années cibles

95
Les objectifs de ce processus sont :

- De réutiliser les solutions trouvées sur la dernière année pour minimiser le coût d’une solution
sur toute la durée étudiée.
- De réduire le temps de calcul dû à la recherche de solutions d’investissements (IV.2.a et IV.2.b)

Dans la Figure IV-10, nous n’avons pas présenté le cas d’un taux de croissance de charge négatif avec
un besoin de redimensionnement sur les années précédant la dernière année cible. Dans ce cas,
l’algorithme va alors relancer complètement le processus de renforcement (IV.2.a) et de flexibilité
(IV.2.b).

Pour chaque année, le processus applique plusieurs étapes :

1) L’identification des contraintes est refaite, avec les scénarios de charge et production de
l’année regardée (VE et PV ici). Sans contrainte, le processus s’arrête.
2) Si le taux d’acceptabilité de contrainte est dépassé, chaque pas de temps avec contrainte est
simulé de nouveau en renforçant le réseau à partir de la liste des conducteurs, un par un
jusqu’à descendre sous le seuil de contrainte dans le même ordre que pour le
dimensionnement de la dernière année cible.
3) Pour chaque situation au-delà du seuil de contrainte de l’étape 2 (pas de renforcement ou
renforcement partiel), on vérifie si l’appel aux clients flexibles de l’année suivante permet de
lever suffisamment les contraintes. Si oui, la solution (renforcement partiel + clients effacés)
est enregistrée. Il est aussi possible de calculer la matrice de sensibilité et d’appliquer les
processus utilisés pour le dimensionnement de la dernière année cible présentés en IV.2.b et
IV.2.c, mais cette solution augmente le temps de calcul. Cette solution s’envisage lorsque les
flexibilités de la dernière année cible ne sont pas efficaces à résoudre les contraintes.

Pour estimer l’énergie annuelle à effacer, nous proposons deux options :

• Réutiliser celle présentée en IV.3, mais elle est coûteuse en temps de calcul (environ 60h par
année cible sur la machine virtuelle utilisée 23).
• Utiliser l’équation IV-17, créée sur l’hypothèse qu’il y a une corrélation entre les monotones
de charges et l’énergie annuelle à effacer des différentes années cibles simulées. Le rapport
entre les deux monotones est calculé et est ensuite multiplié par l’énergie annuelle effacée de
la dernière année cible pour obtenir l’énergie annuelle effacée des années cibles
intermédiaires.

1 𝑇𝑇 𝑃𝑃𝑡𝑡
𝐴𝐴𝐴𝐴𝑖𝑖
𝐸𝐸𝐴𝐴𝐴𝐴𝑖𝑖 = 𝐸𝐸𝐴𝐴𝐴𝐴 × ×� 𝑡𝑡 IV-18
𝑇𝑇 𝑃𝑃
𝑡𝑡=1 𝐴𝐴𝐴𝐴

Avec :

𝐸𝐸𝐴𝐴𝐴𝐴𝑖𝑖 : Energie annuelle à effacer pour l’année cible intermédiaire i

𝐸𝐸𝐴𝐴𝐴𝐴 : Energie annuelle à effacer pour l’année cible finale

Processeur : Intel® Xeon® Gold 6136 CPU @ 3.00GHz 2.99GHz (2 processeurs)


23

Mémoire intallée (RAM : 32,0 Go

96
T : Nombre de pas de temps pour l’estimation de 𝐸𝐸𝐴𝐴𝐴𝐴𝑖𝑖 . Cela correspond à une valeur de fin de
zone issue du Tableau IV-2 en fonction de la dernière contrainte repérée dans le calcul d’𝐸𝐸𝐴𝐴𝐴𝐴 .
𝑡𝑡
𝑃𝑃𝐴𝐴𝐴𝐴𝑖𝑖
: Consommation sur la monotone de charge au pas de temps t et pour l’année
intermédiaire i.

Cette hypothèse de linéarité entre consommation et l’effacement est contestable. Cependant, le


bénéfice en performance de calcul compense l’approximation, notamment parce que sur les 4 essais
complets réalisés, le coût de l’effacement est une fraction marginale du coût de renforcement ou celui
de la pénalité. Dans un cas où le coût de l’effacement serait important, notre hypothèse est alors
pénalisante pour l’effacement. En effet, la méthodologie estime l’énergie effacée sur la dernière année
cible, et donc le coût de l’effacement sera alors surévalué pour les années intermédiaires

Maintenant que toutes les informations sont connues, le coût de chaque solution peut être calculé à
l’aide de l’équation IV-16 déjà utilisée dans la partie IV.4

IV.6 Choix de la solution optimale d’investissement


A partir des parties 1 à 5, des axes de développement d’un réseau sont obtenus avec le coût associé à
chaque solution. Il reste donc à définir les investissements à réaliser dans le temps pour proposer un
schéma de planification complet. Pour déterminer le schéma optimum à partir de toutes les solutions
trouvées, on utilisera le Coût Net Actualisé (CNA), établi par le gestionnaire de réseau de distribution
dans sa version 2020 [5], [102] et retranscrite par l’équation IV-18. Le schéma annualisé
d’investissement optimum sera celui qui obtient le CNA minimal.
𝑇𝑇
𝐼𝐼𝑡𝑡 𝐶𝐶𝑡𝑡 𝑉𝑉𝑡𝑡
𝐶𝐶𝐶𝐶𝐶𝐶 = 𝐼𝐼𝑎𝑎𝑎𝑎𝑎𝑎 + 𝐶𝐶𝑎𝑎𝑎𝑎𝑎𝑎 − 𝑉𝑉𝑎𝑎𝑎𝑎𝑎𝑎 = � � 𝑡𝑡
+ 𝑡𝑡
− �
(1 + 𝑎𝑎) (1 + 𝑎𝑎) (1 + 𝑎𝑎)𝑇𝑇 IV-19
𝑡𝑡=1
𝐴𝐴𝑡𝑡
(1 + 𝑎𝑎) − (1 + 𝑎𝑎) 𝑇𝑇−𝑡𝑡
𝑉𝑉𝑡𝑡 = × 𝐼𝐼𝑡𝑡
(1 + 𝑎𝑎) 𝐴𝐴𝑡𝑡 − 1
Avec :

𝐼𝐼𝑎𝑎𝑎𝑎𝑎𝑎 , 𝐶𝐶𝑎𝑎𝑎𝑎𝑎𝑎 𝑒𝑒𝑒𝑒 𝑉𝑉𝑎𝑎𝑎𝑎𝑎𝑎 : les montants respectifs d’investissement, de coûts opérationnels et de
valeurs d’usage actualisés à l’année 1 ;

T : le nombre d’années de l’étude technico-économique ;

a : le taux d’actualisation des coûts réels ;

𝐴𝐴𝑡𝑡 : durée de vie de l’investissement à 𝐼𝐼𝑡𝑡 (montant d’investissement à l’année t).

Cette équation est utilisée par les planificateurs pour trouver le programme d’investissement le plus
économique sur une plage de temps considérée.

Le principe de la méthodologie est le suivant :

- Construire un arbre des possibilités afin de tracer tous les programmes d’investissements
techniquement possibles (supprimer les programmes qui demandent un renforcement à une
année puis de supprimer ce renforcement les années suivantes, etc.) ;
- Calculer le coût actualisé de chaque solution de l’arbre ;
- Sommer les coûts actualisés pour calculer le coût total des programmes d’investissements ;
- Classer chaque programme en fonction de son coût total

97
Le déroulement de cette étape est identique à ce qui existe dans la littérature [5], [21] :

Figure IV-12: Construction de l'arbre des possibilités jusqu'au choix final

Pour intégrer la notion de pénalité introduite en IV.4, nous proposons de répartir les pénalités sur la
durée de l’étude en considérant la probabilité d’activation de la flexibilité. Cela signifie que si une
pénalité est payée à une année simulée (parce que la flexibilité n’est pas disponible), elle n’a pas à être
payée par la suite. En effet, cette pénalité représente un renforcement nécessaire pour compenser le
fait que la flexibilité n'est pas disponible et cet investissement est irréversible (IV.4.b). La Figure IV-12
présente un arbre des coûts de pénalités sur 4 échelles de temps n : n=0, correspondant à l’instant de
réalisation de l’étude (maintenant), puis n allant de 1 à 3 correspondant à 3 années intermédiaires du
réseau définies par le planificateur (par exemple 5, 10 et 15 ans). Le coût de la pénalité à l’année n
correspond à la moyenne des dépenses du GRD s’il devait renforcer le réseau, c’est-à-dire la probabilité
d’une pénalité (probabilité de non-activation de la flexibilité) multipliée par son coût associé (qui est
le coût de renforcement additionnel permettant de résoudre la contrainte). Pour compléter ces
explications, le Tableau IV-4 présente le calcul de la moyenne des coûts de la pénalité sur les 3 échelles
de temps.

98
0
0
𝐶𝐶𝐶𝐶3,𝑠𝑠
0
0
𝐶𝐶𝐶𝐶2,𝑠𝑠
𝐶𝐶𝐶𝐶3,𝑠𝑠 − 𝐶𝐶𝐶𝐶2,𝑠𝑠

0
0
𝐶𝐶𝐶𝐶3,𝑠𝑠 − 𝐶𝐶𝐶𝐶1,𝑠𝑠
𝐶𝐶𝐶𝐶1,𝑠𝑠
0
𝐶𝐶𝐶𝐶2,𝑠𝑠 − 𝐶𝐶𝐶𝐶1,𝑠𝑠
𝐶𝐶𝐶𝐶3,𝑠𝑠 − 𝐶𝐶𝐶𝐶2,𝑠𝑠

Figure IV-13 : Répartition des coûts de la pénalité (€) en fonction des années

Avec :

𝐶𝐶𝐶𝐶𝑛𝑛,𝑠𝑠 : Cout de la pénalité pour l’année simulée n et pour le scénario s.

α : probabilité d’activation de la flexibilité.

n=1 n=2 n=3


𝛼𝛼 2 (1 − 𝛼𝛼) × 𝐶𝐶𝐶𝐶3,𝑠𝑠
𝛼𝛼(1 − 𝛼𝛼) × 𝐶𝐶𝐶𝐶2,𝑠𝑠
(𝟏𝟏 − 𝜶𝜶) × 𝑪𝑪𝑪𝑪𝟏𝟏,𝒔𝒔 + 𝛼𝛼(1 − 𝛼𝛼)2 × �2𝐶𝐶𝐶𝐶3,𝑠𝑠 − 𝐶𝐶𝐶𝐶2,𝑠𝑠 − 𝐶𝐶𝐶𝐶1,𝑠𝑠 �
+(1 − 𝛼𝛼)² × (𝐶𝐶𝐶𝐶2,𝑠𝑠 − 𝐶𝐶𝐶𝐶1,𝑠𝑠 )
+(1 − 𝛼𝛼)3 × �𝐶𝐶𝐶𝐶3,𝑠𝑠 − 𝐶𝐶𝐶𝐶2,𝑠𝑠 �
Tableau IV-4 : Evolution du coût de la pénalité en fonction des années simulées (ici 3)

Le choix d’un programme d’investissement vient clôturer le processus de planification proposé dans le
cadre de ces travaux de thèse.

IV.7 Conclusion
Dans ce chapitre, nous avons proposé un processus de planification pour les réseaux basse tension, en
utilisant des principes déjà validés et utilisés dans la littérature tout en proposant plusieurs
contributions pour challenger certains manques exprimés dans le chapitre II.

Les contributions scientifiques sont donc :

- Proposition d’une méthode d’intégration de la flexibilité considérant la probabilité de non-


activation de celle-ci ;
- Proposition d’une méthode d’estimation de l’énergie théorique effacée ;

99
- Proposition de deux nouveaux indicateurs pour compléter la probabilité de non-activation de
la flexibilité : la pénalité en cas de non-activation et la criticité de la contrainte due à la non-
activation.

Ces contributions ont été pensées dans le but d’intégrer des solutions de flexibilité dans les processus
de planification basse tension et d’en évaluer leur risque. Déjà discutée en IV.2.e, la maquette
développée se veut paramétrable. Chaque partie de la Figure IV-1 peut être changée par d’autres
méthodologies développées par la littérature.

100
101
V. Application sur des cas d’études réalistes
Dans ce chapitre, la méthodologie développée dans le chapitre IV est appliquée sur deux réseaux et
deux scénarios afin de mettre en avant les travaux réalisés dans un contexte de forte pénétration de
productions décentralisées ou un accroissement significatif de l’utilisation d’usages électriques tels
que les véhicules électriques. En première partie, nous proposerons une valeur pour chacun des
paramètres introduits dans le chapitre IV (les réseaux d’études, les scénarios d’évolutions et les
hypothèses de modélisation définies au cours de la thèse grâce notamment à l’étude d’impact des
variables réalisée dans le chapitre III). Ensuite, le processus de planification présenté dans la Figure
IV-1 sera présenté en 6 parties suivant la méthodologie du chapitre IV : présentation des hypothèses
et des scénarios, pour ensuite identifier les contraintes probables sur la dernière année cible puis sur
les années intermédiaires. Ces simulations permettront de calculer le coût de l’énergie effacée afin
d’estimer le coût de chaque solution par année puis actualisé sur les années étudiées.

V.1 Données d’entrée du modèle et hypothèses de calcul


Dans cette partie, chacune des hypothèses nécessaires au fonctionnement de la méthodologie
présentée dans le chapitre IV est décrite. Les réseaux utilisés sont des réseaux fictifs mais inspirés de
réseaux réels disponibles avec l’outil de simulation DisNetSimPl. Ces réseaux possèdent des
caractéristiques (topologies, paramètres électrotechniques, répartitions des consommations) proches
de celles de vrais réseaux BT français.

Les réseaux d’étude et scénarios :

Figure V-1 : Réseau d'étude 1

102
Figure V-2 : Réseau d'étude 2

Numéro réseau 1 2
Nombre de charges 51 57
Nombre de nœuds contenant des charges 41 31
Longueur max départ (m) 990 437
Longueur totale de segment (m) 2 683 820
Pourcentage segment souterrain (%) 65 71
Puissance transformateur (kVA) 100 160
Σ Puissance souscrite (kVA) 384 380
Tableau V-1 : Principales informations relatives aux réseaux simulés

Pour tester les performances de la méthodologie, nous avons volontairement choisi des réseaux
susceptibles de voir apparaître des contraintes dans le futur en cas de forte consommation et/ou
production des clients. Le réseau d’étude n°1 est très long (la longueur classique des départs BT ne
dépassant pas en général 500 m). Le réseau d’étude n°2 présenté dans la Figure V-2 quant à lui est plus
court, que ce soit en longueur totale cumulée de réseau qu’en longueur maximale d’un départ. Les
caractéristiques complètes de ces deux réseaux avec les numéros des segments, charges et nœuds
sont présentées dans l’Annexe D : Caractéristique des réseaux simulés.

La méthodologie présentée dans le chapitre IV est appliquée à travers deux scénarios d’évolutions des
usages. Un scénario se définit par la proportion de foyers ayant 1 panneau solaire ou 1 véhicule
électrique connecté sur les périodes simulées.

Dans le premier scénario, la proportion de véhicules électriques augmente sur 3 échelles de temps
pour atteindre les prévisions RTE en 2035 [18]. Comme décrit ci-dessus, nos données de
consommation proviennent des usages définis par le logiciel SMACH, notamment celui du VE.
L’échelonnement de son accroissement se fonde sur les projections présentées par RTE [95] et Enedis
[14] et sur les objectifs affichés par le gouvernement dans leur programmation pluriannuelle de
l’énergie (PPE [19]).

Dans le second scénario, c’est la proportion de production décentralisée qui augmente sur 3 échelles
de temps. Cette production se compose uniquement de panneaux solaires, et comme pour le premier
scénario, l’échelonnement se repose sur les mêmes projections (RTE [95], Enedis [14], PPE [19]). Le

103
taux de pénétration de PV estimé à l’échelle nationale étant faible (environ 15% 24), nous supposons
que celui-ci est hétérogène à l’échelle locale et peut aller jusqu’à 30%. Ce fort taux permettra
d’atteindre un niveau de contraintes qui active les besoins d’investissement ou l’utilisation de la
flexibilité.

Il a été décidé de ne présenter les résultats sur des scénarios que sur un seul réseau afin de préserver
une qualité des résultats présentés. En effet, le réseau n°2 est très sensible à la simulation du premier
scénario. Le nombre de contraintes et de renforcements sont trop importants. Sur le réseau n°1, la
simulation du second scénario ne génère pas suffisamment de contraintes, et donc ne permet pas de
présenter de résultats.

Scénario 1 : Forte consommation sur le réseau 1

Simulation sur les 10 pas de temps annuel où la consommation est la plus forte

2025 2030 2035


Projection de VE 5% 30% 50%
Projection de PV 0% 0% 0%

Scénario 2 : Forte production sans VE sur le réseau 2

Simulation sur les 10 pas de temps annuel où la production est la plus forte

2025 2030 2035


Projection de VE 0% 0% 0%
Projection de PV 10% 20% 30%

Simuler les 10 pas de temps les plus consommateurs ou producteurs de l’année, avec un taux
d’acceptabilité de la contrainte à 10% revient à accepter en moyenne 1 pas de temps contraint sur les
10 simulés.

Hypothèses :

Pour la modélisation des réseaux et des différentes variables associées, le Tableau V-2 présente les
hypothèses retenues sur les différents paramètres d’entrée.

Nous utilisons les modèles présentés à la fin du chapitre III (III.2.e) pour la modélisation de la
consommation et de la production, c’est-à-dire respectivement l’utilisation de courbes SMACH [92] de
BuildSysPro [94] et les valeurs nominales. Le fichier météo utilisé pour générer ces courbes est celui
de 2015 pour la région grand-est. Concernant la puissance de recharge du véhicule électrique, nous
avons utilisé les résultats d’une étude sociologique 2019 "Baromètre des acquéreurs de VE" (réalisée
par EDF). Le taux de croissance de la consommation est toujours fixé à 0 dans nos scénarios. Ceci est
en adéquation avec les projections du GRD qui ne considère pas d’accroissement de la consommation
en dehors des usages à fort potentiel électrique (tel que le véhicule électrique) [14].
Avec ces courbes de consommation et de production, nous avons fixé le taux d’acceptabilité de la
contrainte à 10%. La probabilité d’activation de la flexibilité est fixée à 0,7 et ce taux varie en partie
V.5 afin de présenter l’impact de ce taux dans le choix d’une solution Smart Grid.
Les solutions de flexibilité utilisées pour résoudre les contraintes sont l’effacement de la
consommation, de la production, et le contrôle de la puissance réactive. Pour le calcul des coûts des

24
Estimé à partir du scénario M1 de RTE [95], et du scénario TRANSITION d’Enedis [14] (scénarios équivalents)

104
différentes solutions envisageables, le coût du kilowattheure effacé pour un consommateur retenu est
fondé sur les tarifs EDF 2020, soit environ 15 centimes d’€/KWh. Les coûts retenus pour les
kilowattheures effacés et la puissance réactive absorbée pour un producteur sont respectivement de
30 c€/kWh et 3 c€/kVArh. L’absorption de puissance réactive est réalisée par une variation de la
tangente phi, entre -0,4 et 0 [98] (article 43). Pour les coûts de renforcement, nous avons utilisé la
référence d’Enedis [26]. Chaque segment remplacé le sera par trois câbles de 240 mm² pour les phases
et 90mm² pour le neutre. La tension en amont du poste de distribution est fixée à 0,99 pu dans le cas
d’une étude avec forte consommation et 1,04 pu pour une étude avec un fort niveau de production.
L’énergie annuelle effacée (IV.3) est calculée par la moyenne des résultats des simulations, comme
introduit dans la méthodologie. Nous faisons varier cette valeur dans l’Annexe E pour étudier son
impact sur les coûts finaux.
Fixer une probabilité d’activation de la flexibilité à 0,7 suppose que le client ait souscrit à une offre
d’effacement auprès de son fournisseur d’électricité. Il aura aussi décrit les usages qui pourront être
effacés pour qu’ils soient directement raccordés aux contacts virtuels du compteur communicant. Avec
cette hypothèse, on dissipe une partie des problématiques exposées par le projet expérimental CLNR
(Customer-Led Network Revolution) [60], principalement la difficulté (ou le manque de fiabilité) à
activer l’effacement d’un usage.

Dans le calcul du cout actualisé, nous fixons le taux d’actualisation à 4,5% et la durée de vie des
conducteurs à 40 ans [102].

Pour présenter la méthodologie, nous avons besoin de données de simulations avec notamment des
simulations contraintes. Ces simulations sont obtenues à partir d’un tirage Monte Carlo de 200 tirages
sur les pas de temps définis en fonction des scénarios, compromis trouvé entre précision et
performance de calcul. A partir du théorème centrale limite, la marge d’erreur d’un modèle Monte
Carlo peut être estimée par l’équation ci-dessous [9], [103], [104] :
𝑧𝑧
𝑒𝑒 = V-1
2 × �𝑁𝑁𝐸𝐸

Avec :

e : marge d’erreur

z : variable fonction de l’intervalle de confiance (1.96 pour 95% de confiance)

𝑁𝑁𝐸𝐸 : nombre d’essais de la simulation Monte Carlo

Pour 200 tirages, la marge d’erreur est d’environ 7%. Cependant, plus le taux de simulations
contraintes est élevé, plus les temps de calculs sont allongés car les gains par segment renforcés et les
matrices de sensibilité sont calculés sur chaque simulation contrainte (IV.2).

Pour diminuer virtuellement cette marge d’erreur, nous réalisons une pré-simulation Monte Carlo de
1000 tirages (sans lancer les algorithmes de renforcement). Cela nous permet de calculer un taux de
contrainte (marge d’erreur d’environ 3%) plus précis. Ensuite, lorsque nous lançons les simulations
Monte Carlo pour le dimensionnement, le taux de contraintes obtenu par les 200 tirages doit être
compris dans un intervalle de ± 3% par rapport au taux calculé sur les 1000 tirages.

Variables Hypothèses choisies


Utilisation des courbes de charges SMACH au
Modélisation de la consommation (puissance pas de temps 30 minutes.
active et réactive) 50% des clients des réseaux ont un contrat
d’électricité de type heures pleines / heures

105
creuses. Les plages de tarification sont définies
dans la Figure V-3.
Utilisation d’une courbe de production
normalisée et générée par BuildSysPro avec le
Modélisation de la production
même fichier météo que celui utilisé pour
générer les courbes de charges SMACH.
Taux de croissance de la consommation 0%
Valeur nominale des conducteurs supposée
Modélisation des conducteurs
connue et invariante sur la période d’étude.
Taux d’acceptabilité de la contrainte 10%
Probabilité d’activation de la flexibilité Fixée à 0.7
Coût d’un kilowattheure effacé par un client 15 c€ / kWh
- 30 c€ / kWh
Coût de l’effacement d’un producteur
- 3 c€ / kVARh (-0,4 < tan ϕ < 0 )
Coût d’une augmentation de la puissance du
2926 € [26]25
transformateur
- 53€/m pour l’achat câble [26],
Cout du renforcement d’un conducteur - Intervention de 96€/m [26],
[3x240+90] mm² et durée de vie - Coût fixe de l’intervention à 2331 € [26].
- 40 ans
- 0,99 pu pour les simulations avec forte
consommation
Tension au primaire du transformateur HTA/BT
- 1.04 pu lors des simulations de forte
production décentralisée
Moyenne de l’énergie effacée entre les
Energie annuelle à effacer
simulations
Effacement de consommation en actif et
Flexibilité disponible
production en actif et réactif
- 15% de prises standard (2,3kW) : Prises
10A ;
- 56% de prises renforcées (3.2kW) : Prises
13A ;
Puissances de recharge à domicile des VE
- 9% de coffrets recharges (3.7kW) : Prises
16A ;
- 20% de coffrets recharges (7.4kW) : Prises
32A ;
𝑣𝑣 < 0.9 ∶ 𝑆𝑆(𝑣𝑣) = −10𝑣𝑣 + 10
Fonction sévérité S(v) 0.9 ≤ 𝑣𝑣 ≤ 1.1 ∶ 𝑆𝑆(𝑣𝑣) = 0
𝑣𝑣 > 1.1 ∶ 𝑆𝑆(𝑣𝑣) = 20𝑣𝑣 − 21
Taux d’actualisation 4,5%
Nombre d’itérations Monte Carlo 200
Tableau V-2 : Hypothèses choisies pour la modélisation des réseaux

Caractéristiques des courbes de charges SMACH :

Pour simuler la consommation des foyers, nous avons généré 1000 courbes de charges SMACH (logiciel
de simulation présenté en III.2.e). Grâce aux informations sur les foyers simulés, nous faisons coïncider
la puissance souscrite des courbes de charges avec la puissance souscrite des foyers des réseaux

25
Le barème de facturation a été mis à jour en 2020. Prix d’une augmentation de puissance diminue à 2814 €
TTC.

106
électriques. Les courbes de charges sont triées par leur puissance souscrite puis réparties
aléatoirement sur le réseau en fonction de la puissance souscrite

De plus, nous avons constitué le panel de consommateurs tel que 50% des foyers soient inscrits à une
offre tarifaire de type heure pleine / heure creuse. Les heures creuses ont été définies selon le
calendrier journalier de la Figure V-3.
De novembre à avril
Plage 1
Plage 2
Plage 3
Plage 4
Heure 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
De mai à octobre
Plage 1
Plage 2
Plage 3
Plage 4
Heure 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

Figure V-3: Plage de consommation pour les heures creuses (en couleur) des courbes de charges SMACH

Parmi la fraction des courbes de charges inscrites à un type de tarification HP/HC, une attribution
homogène des différentes plages a été réalisée. Les plages de novembre à avril ont été construites à
partir des plages définies par Enedis pour la ville de Mulhouse 26 et celles de mai à octobre s’en inspirent
mais nous avons modifié chacune des plages afin d’inciter les foyers à consommer pendant les
périodes de production PV.

Calcul de la sévérité β

Pour rappel, la sévérité va servir à pénaliser un investissement dans une solution de flexibilité plutôt
que dans une infrastructure. Pour le calcul de 𝛽𝛽, les équations linéaires qui régissent la fonction 𝑆𝑆(𝑣𝑣)
sont présentées dans l’équation V-2 suite à l’Annexe F : Sensibilité de la fonction de sévérité

𝑣𝑣 < 0.9 ∶ 𝑆𝑆(𝑣𝑣) = −10𝑣𝑣 + 10


0.9 ≤ 𝑣𝑣 ≤ 1.1 ∶ 𝑆𝑆(𝑣𝑣) = 0 V-2
𝑣𝑣 > 1.1 ∶ 𝑆𝑆(𝑣𝑣) = 20𝑣𝑣 − 21
L’équation V-2 est représentée par la Figure IV-8 dans le chapitre IV. Une forme approchée est
proposée dans la littérature [100]. Cette référence a été adaptée pour avoir une sévérité plus
importante sur les contraintes de tension haute. En effet, leurs apparitions ont souvent des
répercussions plus importantes (endommagement matériel par exemple) sur le réseau qu’une tension
basse.

Ensuite, 𝑓𝑓(𝑣𝑣) se définira comme la distribution des tensions en p.u. des couples (nœud, phase) pour
les simulations en contrainte. Cependant, pour construire une fonction de sévérité ainsi qu’une
fonction de densité plus en corrélation avec la réalité, il est nécessaire d’obtenir plus de données sur
l’impact des excursions de tensions sur les équipements des réseaux et les équipements des foyers.

Le calcul de 𝛽𝛽 devient :

26
https://www.enedis.fr/heures-creuses/standard

107
𝑁𝑁𝑐𝑐 𝑁𝑁𝑐𝑐 𝑁𝑁𝑛𝑛𝑛𝑛
1 𝐶𝐶 𝑖𝑖
𝛽𝛽 = 𝐶𝐶 × × � � 𝑓𝑓𝑖𝑖 (𝑣𝑣). 𝑆𝑆(𝑣𝑣). 𝑑𝑑𝑑𝑑 = � � 𝑆𝑆(𝑣𝑣𝑛𝑛𝑛𝑛 ) V-3
𝑁𝑁𝑐𝑐 𝑁𝑁𝑐𝑐 × 𝑁𝑁𝑛𝑛𝑛𝑛
𝑖𝑖 𝑖𝑖=1 𝑛𝑛𝑛𝑛=1

Avec :

𝑛𝑛𝑛𝑛 : couple (nœud, phase)


𝑁𝑁𝑛𝑛𝑛𝑛 : nombre de couples (nœud, phase) du réseau étudié.
𝑣𝑣𝑛𝑛𝑛𝑛 : Tension en pu pour le couple 𝑛𝑛𝑛𝑛.
𝑁𝑁𝑐𝑐 : nombre de simulation contrainte
𝑖𝑖 : Numéro de la simulation contrainte
𝑓𝑓𝑖𝑖 (𝑣𝑣) : Probabilité d’apparition de la tension 𝑣𝑣 pour la simulation 𝑖𝑖
𝑆𝑆(𝑣𝑣) : Sévérité pour la valeur de tension 𝑣𝑣

𝐶𝐶 : Probabilité de contrainte

Autres informations :

Pour rappel, il ne sera pas possible de raccorder un PV avec une puissance supérieure à 6kVA du fait
de contraintes d’implémentation de l’outil de simulation utilisé, la répartition des capacités de
production suivra celle présentée dans le Tableau III-2 du chapitre III.

Etape préliminaire :

Dans un premier temps, nous vérifions si la capacité du transformateur est adaptée à la demande des
clients. Dans le cas d’un taux de contraintes trop important sur la puissance du transformateur, la
capacité du transformateur est augmentée. D’après la documentation Enedis [4], un transformateur
en surcharge (fonctionnement limité à 3 heures) peut débiter jusqu’à 120% de sa puissance sans risque
de détérioration. Notre méthode de simulation n’étudiant pas les séries temporelles, elle ne permet
pas d’estimer ce niveau de surcharge. L’option choisie est de calculer la probabilité de surcharge du
transformateur sur les pas de temps simulé et de le comparer au taux d’acceptabilité de la contrainte.
Tant que le transformateur a besoin d’être renforcé, alors la capacité du transformateur est
augmentée en fonction des puissances disponibles dans la gamme standardisée suivante : 50 ; 100 ;
160 ; 250 ; 315 ; 400 ; 630 ; 800 ; 1000 kVA.

Dans un second temps et de la même manière, le taux de simulation contrainte est récupéré à la suite
des simulations. Si ce taux de simulations contraintes est supérieur au taux d’acceptabilité de la
contrainte, alors l’algorithme d’augmentation de la capacité d’accueil est lancé.

V.2 Identification des contraintes sur la dernière année


cible
Une fois les hypothèses fixées, les simulations de dimensionnement sont réalisées conformément à la
méthodologie proposée dans le chapitre IV pour identifier les contraintes réseau. Cette étape de
préambule permettra de trouver plusieurs solutions Smart Grid dans le but d’augmenter la capacité
d’accueil des réseaux pour les deux scénarios sur la dernière année cible :

Cas 1 : Forte consommation sur le réseau 1

108
Lors des simulations sur le réseau, un pourcentage de 56% de contrainte en tension est mesuré. La
probabilité que le transformateur soit en surcharge par simulation est de 79%. Cela s’explique par la
demande importante en puissance des clients due aux véhicules électriques comme le montre la Figure
V-4 :

Figure V-4 : Histogramme de la puissance totale appelée par les clients pour la dernière année cible

La mutation du transformateur à une puissance nominale de 160kVA permet d’éliminer les contraintes
de surcharge du transformateur et de réduire les contraintes de tension à 29%. Le renforcement à 160
kVA est dû aux choix discrets des puissances disponibles et permet de descendre le taux de contrainte
sous la limite acceptable de 10% fixé dans les hypothèses.

La répartition des contraintes de tension entre les départs est de 91% pour le départ 1 (celui en haut
sur la Figure V-1) et 9% sur le départ 2 (celui au milieu). Aucune contrainte n’est détectée sur le départ
3.

L’utilisation de l’algorithme d’augmentation de la capacité d’accueil que nous avons développé permet
de trouver les clients les plus intéressants à effacer et les segments à renforcer pour éviter des
excursions de tensions :

La matrice de sensibilité donne la modification de la tension vis-à-vis d’une augmentation de la


puissance à un nœud (voir Figure V-5). En abscisse, l’axe « couple (nœud, phase) avec au moins un
client » représente le nombre de client du réseau. Cependant, pour améliorer les performances de
calcul, la sensibilité des clients qui sont sur le même nœud et la même phase n’est calculée qu’une
seule fois et elle n’est pas calculée sur les nœuds et phases où il n’y a pas de client. En ordonnée, l’axe
« couple (nœud, phase) du réseau » représente quant à lui tous les nœuds et les phases du réseau, y
compris le neutre. Le point 1 par exemple représente le nœud 1 et la phase A. En cote, l’axe « Impact
(V/P) » représente l’impact d’une modification de la puissance consommée sur la tension. Pour lire la
Figure V-5, il faut commencer par l’abscisse pour choisir un client, puis repérer le ou les nœud(s) et
phase(s) à étudier pour lire l’impact d’une modification de la consommation aux différentes positions
repérer.

109
La matrice de sensibilité est un sous résultat de l’algorithme d’augmentation de la capacité d’accueil.
Elle est ensuite mise en forme pour obtenir un classement des clients en fonction de leur capacité
d’effacement (processus IV.2.b).

0.5

0
Impact (V/P)

-0.5

-1

-1.5
250

200
45
40
150 35
30
100 25
20
50 15
10
5
0 0
Couple (noeud, phase) avec au moins un client
Couple (noeud, phase) du réseau

Figure V-5 : Matrice de sensibilité d'une simulation contrainte

Le Tableau V-3 résume le traitement réalisé sur la matrice de sensibilité et présente les clients choisis
pour rechercher les combinaisons d’effacements afin de lever les excursions de contraintes. Le terme
Probatop10 correspond à la probabilité que le client soit dans les 10 clients les plus intéressants à effacer
en cas de détection de contrainte. L’impact moyen est déterminé à partir de la matrice de sensibilité :
il correspond à la moyenne, entre les simulations, de la sensibilité calculée des nœuds en contrainte
multipliée par la capacité d’effacement du client. Cet impact représente donc le gain analytique moyen
de tension sur les nœuds en contrainte lorsqu’un client efface ces usages effaçable (ECS, chauffage et
VE).

Numéro client Probatop10 Impact moyen sur la tension (V)


45 0,97 6,84
13 0,06 5,05
14 0,06 4,23
35 1,00 1,78
19 0,81 1,44
37 0,03 1,16
17 0,35 1,15
16 0,55 1,01
30 0,94 0,98
18 0,52 0,85
Tableau V-3 : Données de sortie de l'algorithme de choix des flexibilités

Ces résultats montrent que le client n°45 peut être effacé dans 97% de cas de simulation contrainte et
que sa capacité d’effacement permettrait de remonter significativement la tension. Les clients 13 et

110
14 ont une probabilité faible de faire partie des simulations contraintes mais eux aussi permettraient
de remonter la tension lorsqu’ils peuvent être effacés.

L’algorithme d’augmentation de la capacité d’accueil (présenté dans la partie III.2) étudie comment
résoudre les contraintes par la flexibilité et le renforcement. Les solutions obtenues sont présentées
dans le Tableau V-4 ci-dessous :

Taux de Taux de
Conducteur(s)
Numéro solution Flexibilité(s) activée(s) contrainte sans contrainte avec
renforcé(s)
flexibilité flexibilité
S1 - flexibilité / 45 29% 6%
S2 44 45 26% 1%
45 ; 0%
S3 5 ;44 Ou 16 ; 17 ; 19 ; 30 ; 35 ; 12% 10%
Ou 16 ; 18 ; 19 ; 30 ; 35 ; 10%
S4 - renforcement 5 ; 21 ; 44 / 8% /
Tableau V-4 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la dernière année cible

Notre algorithme trouve 4 solutions possibles pour éviter des simulations contraintes, passant d’une
solution 100% flexibilité à 100% renforcement, comme initialement souhaité. Sur ce cas d’étude, plus
des segments sont renforcés, plus le taux de simulations contraintes diminue et la flexibilité devient
plus efficace.

On remarque que la colonne « Flexibilité(s) activée(s) » du Tableau V-4 donne un client comme unique
source de flexibilité (pour les solutions 1 et 2, mais elle reste essentielle pour la solution n°3). Ce cas
particulier est dû à la puissance souscrite importante du client 45 (12kVA) raccordé en monophasé à
une distance d’environ 600 mètres du transformateur. Modifier le raccordement du client en
équilibrant sa puissance soutirée sur les 3 phases permettrait d’éviter un changement de conducteur
ou l’appel à des flexibilités. Le taux de contrainte descend à 6%, le même taux que lorsque l’on efface
ce même client n°45. Cette modification permet de descendre le taux de contrainte sous le taux
d’acceptabilité et évite donc tout renforcement ou appel à la flexibilité. Cependant, rééquilibrer un
client (solution n°7 : rééquilibrage du tableau des flexibilités : Tableau II-2) en ajustant les phases de
raccordement peut être très couteux. Ce passage demande de remettre aux normes les
infrastructures, de repartir les usages du foyer sur les nouvelles phases et rien ne garantit un
équilibrage parfait (4kVA par phase maximum). Une autre solution pourrait être envisagée en installant
un ré-équilibreur de phases [105] entre le foyer et le réseau (solution n°6 : contrôle flux du tableau des
flexibilités : Tableau II-2).

111
Figure V-6 : Réseau d'étude avec localisation des segments à renforcer (c) et flexibilité (f) à activer

Les 3 segments à renforcer (c5, c21 et c44) et les flexibilités (f16, f17, f18, f19, f30, f35 et f45) sont
présentés dans la Figure V-6. Les segments c5, c21 et c44 font respectivement 106, 110 et 144 mètres,
soit 361m de renforcement au total pour la solution S4.

Cas 2 : Forte production sans VE sur le réseau 2

Lors des simulations de forte production, 30% des foyers se voient raccorder un panneau solaire à
chaque tirage conformément aux règles décrites en III.2.e. Le réseau 2 raccorde 57 clients au réseau
de distribution, on a donc 17 panneaux solaires qui sont raccordés aléatoirement sur le réseau pour le
scénario à 2035. La Figure V-7 présente la distribution des puissances produites par la production
décentralisée.

112
0.18

0.16

0.14

0.12

0.1
Frequence

0.08

0.06

0.04

0.02

0
45 50 55 60 65 70 75

Somme de la production par simulation (kW)

Figure V-7 : Résultats des simulations pour le cas 2 sur la dernière année cible

Le taux de contrainte en tension est de 41%. Aucune contrainte de transit au niveau du transformateur
n’a été identifiée. Pour résoudre les contraintes, on utilise l’algorithme présenté en IV.2.c exploitant
la fonction fmincon de matlab. On suppose que tous les producteurs ayant souscrit à une offre de
raccordement peuvent faire varier leur injection de puissance active et réguler leur puissance réactive.

La Figure V-8 indique la présence d’un panneau solaire sur le client lorsqu’il y a une simulation
contrainte. On remarque que plusieurs producteurs apparaissent dans plus de 75% des simulations
contraintes, notamment les clients n°6, 19 et, n°22.

Figure V-8 : Présence des clients producteurs dans les simulations contraintes

113
En revanche, d’autres clients comme les n°27 et 28 ont une moyenne d’environ 40% d’effacement sur
les simulations contraintes présentées sur la Figure V-9.

0.9

0.8

0.7
Niveau d'éffacement (%)

0.6

0.5

0.4

0.3

0.2

0.1

0
1 2 3 5 6 7 8 9 10 11 12 14 15 16 17 18 19 20 21 22 24 26 27 28 29 30 31 32 33 34 35 36 38 40 41 42 43 44 45 46 47 48 49 50 51 53 54 55 57
Numéro de client

Figure V-9 : Boite à moustache de l’effacement optimal demandé aux producteurs en fonction des simulations contraintes.

Sur chaque boîte, la marque centrale indique la médiane, les bords inférieur et supérieur de la boîte
indiquent respectivement les 25e et 75e percentiles. Les boites à moustaches s'étendent jusqu'aux
points de données les plus extrêmes qui ne sont pas considérés comme des valeurs aberrantes, et les
valeurs aberrantes sont représentées individuellement à l'aide du symbole '+' 27.

Ces résultats du premier algorithme sont une minimisation de l’effacement actif total (sans absorption
de réactif). L’effacement moyen par client est de 3,7%. Cependant, la moyenne n’est pas
représentative des résultats ; qui montre notamment des besoins d’effacement par groupe de clients
. Ils montrent notamment que plusieurs foyers devront souscrire à une offre avec un « fort » taux
d’effacement s’ils souhaitent raccorder un PV dans un scénario avec un taux de 30% de production
décentralisée. D’autres clients devront effacer une petite partie de leur production pour protéger le
réseau de l’apparition de contraintes.

A travers cette Figure V-9, on remarque une importante dispersion des résultats entre les producteurs.
Lorsque certains clients feront une demande de raccordement, et si le GRD choisit une solution 100%
flexibilité, un verrou social pourrait apparaitre mettant en difficulté la mise en place de contrats de
flexibilité. Il y a toujours la possibilité d’effacer tous les producteurs de 30% comme proposé par
d’autres auteurs pour permettre une équité entre les producteurs (cf. II.2.c). Cependant, comparé à
nos résultats, ce bridage augmenterait l’énergie effacée d’un facteur six et demi : D’après notre
estimation de l’énergie annuelle effacée (ci-dessous : V.5) et malgré cette augmentation significative,
l’énergie annuelle effacée resterait faible, de l’ordre de 11,5 kWh effacée annuellement (soit moins
d’1% de l’énergie produite sans effacement par rapport à une production moyenne annuelle de 137
MWh) au lieu de 1,7kWh (conclusion en accord avec notre présentation dans littérature en II.2.c). Ce
calcul a été réalisé en remplaçant 𝑃𝑃𝑒𝑒𝑒𝑒𝑒𝑒 de l’équation IV-12 (calcul de l’énergie annuelle effacée) par 0,3.

La solution que nous proposons fonctionne par des contrats d’effacements personnalisés à chaque
client avec un manœuvrabilité plus ou moins importante en fonction des résultats. De plus, si cette
solution est retenue, il est nécessaire de négocier les contrats avec les clients en se projetant sur des
scénarios long terme d’insertion PV afin de ne pas trop pénaliser de futurs producteurs. Cependant, le

27
https://fr.mathworks.com/help/stats/boxplot.html

114
risque de prendre une mauvaise décision (I.2) serait alors à considérer sur la projection des scénarios
long terme. L’application de ce type d’effacement très personnalisé est un verrou réglementaire et
technique pour la gestion prévisionnelle, et aussi probablement un verrou social.

Le second algorithme qui minimise la fonction coût présenté en IV.2.d donne les résultats présentés
dans la Figure V-10. Ils se résument par l’absorption de puissance réactive en moyenne égale à
0,23kVAr par producteur et par pas de temps contraint. Cela se traduit par une absorption totale
moyenne de 4,0kVAr sur un pas de temps contraint. Ces résultats permettent de minimiser la
puissance active effacée à 0.

1 0.05

0.9 0

0.8 -0.05

0.7 -0.1
Niveau d'effacement (%)

0.6 -0.15

Tangente phi
0.5
-0.2

0.4
-0.25

0.3
-0.3

0.2
-0.35

0.1
-0.4

0
1 2 3 5 6 7 8 9 10 11 12 14 15 16 17 18 19 20 21 22 24 26 27 28 29 30 31 32 33 34 35 36 38 40 41 42 43 44 45 46 47 48 49 50 51 53 54 55 57 1 2 3 5 6 7 8 9 10 11 12 14 15 16 17 18 19 20 21 22 24 26 27 28 29 30 31 32 33 34 35 36 38 40 41 42 43 44 45 46 47 48 49 50 51 53 54 55 57

Numéro du client Numéro du client

Figure V-10: Boite à moustache de l’effacement et du réglage en réactif optimal demandé aux producteurs en fonction des
simulations contraintes

Entre la Figure V-9 et la Figure V-10, l’optimisation passe d’un producteur n°21 devant être effacé à
100% (dans de rares cas de contrainte) à 0% avec le contrôle en réactif grâce à la compensation.

Les résultats présentés ci-dessus n’impliquent aucun renforcement. Pour descendre le taux de
contraintes au taux d’acceptabilité de 10% avec le renforcement et sans flexibilité, l’algorithme
développé trouve 13 conducteurs à renforcer.

Les résultats sont présentés au travers des Figure V-11 et Figure V-12 sous deux formes différentes : la
longueur de segment renforcé en fonction du nombre de renforcement puis comment ce
renforcement impact le taux de contraintes.

250 0.45

0.4
200

0.35

150
Longueur à renforcer (m)

Probabilité de contrainte

0.3

0.25
100

0.2

50
0.15

0 0.1
0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14

Nombre de segments renforcés Nombre de segments renforcés

Figure V-11:Longueur nécessaire pour résoudre les Figure V-12 : Probabilité de contraintes en fonction du
contraintes en fonction du nombre de conducteurs nombre de conducteurs renforcés
renforcés

115
Les résultats de l’effacement en fonction du nombre de segments renforcés sont présentés dans la
Figure V-13. Nous avons choisi de focaliser la présentation de l’évolution de l’effacement (sans réactif)
sur certains clients en fonction du nombre de segments renforcés. Ces clients ont été sélectionnés
pour leurs moyennes sur la puissance d’effacement supérieure aux autres.

Evolution de l'effacement sur le client n°21 Evolution de l'effacement sur le client n°26
0.8 0.8

0.7

0.6 0.6

Niveau d'effacement(%)
Niveau d'effacement(%)

0.5

0.4 0.4

0.3

0.2 0.2

0.1

0
0

1 2 3 4 5 6 7 8 9 10 11 12 13
1 2 3 4 5 6 7 8 9 10 11 12 13

Nombre de segment renforcé(s) Nombre de segment renforcé(s)

Evolution de l'effacement sur le client n°27 Evolution de l'effacement sur le client n°28
0.8 0.8

0.7

0.6 0.6

Niveau d'effacement(%)
Niveau d'effacement(%)

0.5

0.4
0.4

0.3
0.2
0.2

0.1
0
0
1 2 3 4 5 6 7 8 9 10 11 12 13
1 2 3 4 5 6 7 8 9 10 11 12 13
Nombre de segment renforcé(s)
Nombre de segment renforcé(s)

Figure V-13 : Evolution de l'effacement de 4 clients producteurs en fonction du nombre de segments renforcés

Les résultats montrent que l’effacement diminue en fonction du nombre de segments renforcés. Les
renforcements vont permettre de diminuer la part de l’énergie effacée et donc de réduire les OPEX de
l’effacement.

Lorsqu’on cumule l’effacement et le réglage en réactif en fonction du nombre de renforcement, on


obtient des résultats similaire (Figure V-14) :

116
Evolution du réglage en réactif sur le client n°21 Evolution du réglage en réactif sur le client n°22
0.05 0.05

0 0

-0.05 -0.05

-0.1 -0.1

Tangente phi
Tangente phi

-0.15 -0.15

-0.2 -0.2

-0.25 -0.25

-0.3 -0.3

-0.35 -0.35

-0.4 -0.4

-0.45 -0.45
1 2 3 4 5 6 7 8 9 10 11 12 13 1 2 3 4 5 6 7 8 9 10 11 12 13

Nombre de segment renforcé(s) Nombre de segment renforcé(s)

Evolution du réglage en réactif sur le client n°27 Evolution du réglage en réactif sur le client n°28

0 0

-0.1 -0.1

Tangente phi
Tangente phi

-0.2 -0.2

-0.3 -0.3

-0.4 -0.4

1 2 3 4 5 6 7 8 9 10 11 12 13 1 2 3 4 5 6 7 8 9 10 11 12 13

Nombre de segment renforcé(s) Nombre de segment renforcé(s)

Figure V-14 : Evolution de l'effacement ou du réglage en réactif de 4 clients producteurs en fonction du nombre de segments
renforcés

Similairement à la Figure V-13, nous présentons l’évolution du réglage en réactif pour uniquement
quatre clients dans la Figure V-14. Comme attendu, les réglages optimaux de réactif tendent vers zéro.
Leurs comportements sont identiques aux résultats précédents, c’est-à-dire la réduction des OPEX par
l’investissement en CAPEX.

V.3 Identification des contraintes, test des solutions et


estimation des besoins sur les années cibles
intermédiaires
Une fois les solutions obtenues sur la dernière année cible, les simulations de dimensionnement sont
réalisées sur les années cibles intermédiaires toujours en suivant le principe de la méthodologie établie
dans le chapitre IV. Les résultats sont présentés ci-dessous pour les deux cas d’études :

Cas 1 : Forte consommation sur le réseau 1

Lors des simulations sur le réseau pour la seconde année cible, supposée 2030, le pourcentage de
contraintes de tension basse est de 54% (contre 56% en 2035) sans le renforcement du transformateur
et de 28% (contre 29% en 2035) avec le transformateur 160 kVA. Comme pour la simulation sur la
dernière année cible, le transformateur a besoin d’un renforcement en raison du taux de contrainte
en puissance de 78%.

117
0.3

Première année cible

0.25 Seconde année cible


Dernière année cible

0.2
Frequence

0.15

0.1

0.05

] 0] 0] ] ] ] ] ] ] ] ]
70 08 09 00 10 20 30 40 50 60 70
[60 ]7 ]8 01 01 01 01 01 01 01 01
]9 ]10 ]11 ]12 ]13 ]14 ]15 ]16

Somme des puissances appelées par l'ensemble des foyers

Figure V-15 : Histogramme de la puissance totale appelée par les clients pour les différentes années cibles

On remarque donc que la réduction de proportion de VE diminue faiblement le taux de contraintes


entre les années cibles. Cela se confirme au regard de la puissance totale consommée présentée dans
la Figure V-15. La réduction de 50% à 30% des foyers équipés d’un VE réduit légèrement la
consommation sur les pics de consommation simulés induisant une faible diminution de la probabilité
de contraintes. La réduction à 5% de VE installés ne décale pas significativement la distribution et ne
participe pas non plus à descendre le taux de contraintes (voir Tableau V-6)

Dans le cas des années cibles intermédiaires, on applique l’algorithme présenté en IV.5 : les solutions
trouvées pour la dernière année cible sont testées sur les contraintes de l’année cible précédente.
Nous obtenons le Tableau V-5 pour la seconde année cible et le Tableau V-6 pour la première année
cible.

Taux de Taux de
Conducteur(s)
Numéro solution Flexibilité(s) activée(s) contrainte sans contrainte avec
renforcé(s)
flexibilité flexibilité
S1 - flexibilité / 45 28% 1%
S2 44 45 20% 1%
45 ; 5%
S3 5 ;44 Ou 16 ; 17 ; 19 ; 30 ; 35 ; 15% 4%
Ou 16 ; 18 ; 19 ; 30 ; 35 ; 4%
S4 - renforcement 5 ; 21 ; 44 / 10% /
Tableau V-5 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la seconde année cible

Les taux de contraintes sont proches entre les trois années cibles et les solutions d’augmentation de
la capacité d’accueil sont identiques sur toute l’étude. Pour la première année cible, les contraintes de
tension basse sont à 53% puis 27% avec le renforcement du transformateur.

Taux de Taux de
Conducteur(s)
Numéro solution Flexibilité(s) activée(s) contrainte sans contrainte avec
renforcé(s)
flexibilité flexibilité
S1 - flexibilité / 45 27% 2%
S2 44 45 18% 2%
45 ; 6%
S3 5 ;44 Ou 16 ; 17 ; 19 ; 30 ; 35 ; 13% 6%
Ou 16 ; 18 ; 19 ; 30 ; 35 ; 6%

118
S4 - renforcement 5 ; 21 ; 44 / 8% /
Tableau V-6 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la première année cible

Entre les années cibles, la flexibilité semble légèrement moins efficace (de l’ordre de quelques
pourcents). Ces résultats s’expliquent par l’incertitude associée à une simulation de type Monte Carlo.
De plus, la répartition des usages effaçables est aléatoire, comme celle des VE. Cela signifie que, dans
notre étude, le fonctionnement de l’effacement est conditionné à l’attribution d’usages effaçables au
client 45. Donc, l’impact sur la capacité de réduction des chutes de tension peut être différent en
fonction des tirages.

Comme première conclusion sur la simulation forte consommation sur le réseau d’étude, le besoin
d’investir dans ce réseau ne dépend pas de l’insertion de VE. Ces résultats sont en accord avec les
projections d’Enedis et RTE sur l’impact du VE ([14], [95], 28) où celui-ci modifierait la demande
d’énergie annuelle entre −1% 𝑒𝑒𝑒𝑒 1,7% et augmenterait de seulement 9% (environ) les pointes de
consommation dans les simulations sans flexibilité. Cela signifie que sur le réseau étudié, si le
dimensionnement répond aux attentes en empêchant l’apparition de contraintes avec des « marges »,
alors il devrait être capable d’intégrer les besoins de puissance et d’énergie liés à la mobilité électrique
sans investissement supplémentaire dans les ouvrages du réseau. Avec une base de données de réseau
plus importante, ces résultats pourraient être challengés.

Cas 2 : Forte production sur le réseau 2

La diminution de la proportion de production décentralisée de 30% à 20% (respectivement 10%)


diminue la probabilité de contraintes de 39% à 18% (respectivement 4,1%). Cela signifie qu’il n’y a pas
besoin de renforcement pour le scénario à 2025. Pour le scénario 2030, le renforcement des deux
premiers segments de la Figure V-12 suffit à diminuer le niveau de contraintes sous le taux
d’acceptabilité. Au niveau de l’effacement sur ce scénario, les résultats sont présentés dans la Figure
V-16. On retrouve le client producteur n°27 comme principale source d’effacement.

0.5

0.4
Niveau d'effacement (%)

0.3

0.2

0.1

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57

Numéro de client

Figure V-16 : Choix optimal de l’effacement qui pourra être demander au client s’il venait à installer un PV chez lui pour la
seconde années cible intermédiaire

L’évolution de l’effacement du client n°27 est présentée dans la figure ci-dessous (Figure V-17) :

28
https://www.edf.fr/groupe-edf/espaces-dedies/l-energie-de-a-a-z/tout-sur-l-energie/l-electricite-au-
quotidien/la-consommation-d-electricite-en-chiffres

119
Evolution de l'effacement sur le client n°27
0.1

0.09

0.08

0.07
Niveau d'effacement(%)

0.06

0.05

0.04

0.03

0.02

0.01

1 2

Nombre de segment renforcé(s)

Figure V-17 : Evolution de l'effacement d’un client producteur en fonction du nombre de segments renforcés

Comme pour les résultats sur la dernière année cible, le renforcement permet de diminuer le niveau
d’effacement. Les résultats de l’algorithme d’effacement et de réglage en réactif sont présentés dans
la Figure V-18 :

1 0.05

0.9 0

0.8 -0.05

0.7 -0.1
Niveau d'effacement (%)

0.6 -0.15
Tangente phi

0.5 -0.2

0.4 -0.25

0.3 -0.3

0.2 -0.35

0.1 -0.4

0 -0.45
1 2 5 7 13 14 15 16 17 18 22 24 26 27 28 31 33 36 37 40 45 46 50 52 53 55 57 1 2 5 7 13 14 15 16 17 18 22 24 26 27 28 31 33 36 37 40 45 46 50 52 53 55 57

Numéro du client Numéro du client

Figure V-18 : Choix optimal de la répartition de l’effacement et du réglage en puissance réactive pour la seconde années
cible intermédiaire

Comme pour le scénario de la dernière année cible, le réglage en réactif permet de diminuer
l’effacement de production.

V.4 Estimation de l'énergie annuelle à effacer sur les


années cibles
Comme présenté dans la partie IV.3, l’estimation de l’énergie annuelle à effacer est réalisée sur la
dernière année cible en calculant la moyenne de l’énergie annuelle à effacer. Pour rappel, cette
moyenne est déterminée sur 200 mesures de l’énergie annuelle effacée avec une répartition aléatoire
des courbes de charge des clients sur le réseau pour chaque mesure.

120
La définition des zones utilisées est celle présentée dans le Tableau IV-2 en partie IV.3 et repose sur
les courbes de charges SMACH et les courbes de production BuildSysPro.

Cas 1 : Forte consommation sur le réseau 1

A partir des simulations réalisées, des contraintes sont relevées jusqu’à la zone 6, soit environ 37% de
l’année. Pour rappel, une zone correspond à une plage de consommation de 10% sur la monotone des
consommations. Par exemple, la zone 1 comprend tous les pas de temps d’une année ayant une
consommation entre 90% et 100% de la consommation maximum sur la monotone.

Ci-dessous, le Tableau V-7 illustre la proportion des tirages avec au moins une contrainte en fonction
des zones :

Zone 1 Zone 2 Zone 3 Zone 4 Zone 5 Zone 6


Répartitions
des clients
avec au 48% 42,5% 34,5% 22% 7% 2,5%
moins une
contrainte
Nombre de
pas de temps 41�17520 191�17520 755�17520 1373�17520 1938�17520 2255�17520
(30 minutes)
Tableau V-7 : Répartition des clients avec au moins une contrainte dans les zones simulées

A la lecture du tableau, on remarque qu’il y a une probabilité de 52% que le GRD n’ait pas besoin de
faire appel à de l’effacement. La première ligne du tableau présente la probabilité d’utiliser la flexibilité
dans la zone de consommation. On peut interpréter par exemple que dans 5,5% des cas (48% −
42,5%), l’effacement sera utile uniquement dans la zone 1, c’est-à-dire 0,2% de temps (41⁄17520), soit
20h30 dans l’année.

Cette analyse est répétable jusqu’à la zone 6 et les résultats sous forme d’énergie totale à effacer sont
présentés dans la Figure V-19 ci-dessous présentant l’énergie annuelle qui serait à effacer en fonction
des 200 tirages Monte Carlo correspondant aux répartitions aléatoires de courbes de charge des clients
du réseau :

121
Energie totale à effacer en fonction de la répartition aléatoire des clients
12000

Valeur par tirage

Valeur moyenne

10000

8000
Energie totale à effacer (kWh)

6000

4000

2000

0
0 20 40 60 80 100 120 140 160 180 200

numero répartition de client

Figure V-19 : Energie que devra effacer le client 45 en fonction des tirages pour atteindre le seuil d’acceptabilité de la
contrainte.

La valeur moyenne d’énergie effacée (en orange) sur l’ensemble des tirages (en bleu) est représentée
sur la Figure V-19. Elle est évaluée à 478 kWh annuellement effacé, soit un coût de l’effacement
d’environ 72€ (cf. Tableau V-2). Cette faible valeur s’explique par le besoin de n’effacer qu’un seul
client (le 45, cf. Tableau V-5 ) pour la solution 1 (1client flexible) et 2 (1 segment renforcé + 1 client
flexible) . La consommation annuelle du client 45 varie entre 2 et 40 MWh sur les 200 tirages Monte
Carlo. Pour le calcul de l’énergie annuelle à effacer pour la solution n°3 (2 segments renforcés + 7
clients flexibles), la valeur moyenne est estimée à 1952 kWh, soit 294€.

Dans ces deux cas, le coût de l’effacement est si faible qu’il sera considéré marginal. Nous sommes
alors en mesure de se demander si effacer plus de clients serait envisageable. Plus il y a de client
effaçable, et plus la probabilité d’activation de la flexibilité est haute. Cependant, nos essais nous ont
montré qu’en moyenne, les derniers clients sectionnés ont un impact faible sur la remontée de tension.
Ces données sont notamment confirmées par les résultats de notre cas d’étude (le Tableau V-3) ou la
combinaison des autres clients autres que le n°45 ne permettent de résoudre les contraintes. Donc
l’augmentation du nombre de clients à considérer n’aurait pas d’impact positif évident alors qu’il
diminuerait les performances de calcul, surtout si on utilise la méthode de l’arbre des possibilités au
lieu de l’équation IV-5.

Dans nos hypothèses, nous avons choisi d’utiliser la valeur moyenne d’énergie effacée comme coût
pour la flexibilité. Ce choix peut être challengé par le planificateur s’il souhaite couvrir un risque plus
important sur le niveau de consommation du réseau. En effet, pour le calcul du coût de l’énergie
annuelle effacée, nous avons utilisé l’énergie moyenne. Statistiquement, il est donc probable que ce
coût soit plus élevé dans la réalité que la valeur théorique utilisé. Si le planificateur souhaite prendre
donc plus de sécurité sur le coût de la flexibilité, il peut choisir un quantile plus grand sur les résultats
de l’énergie totale à effacer (Figure V-19) comme le présente la Figure V-20.

122
2000

1500
Cout de l'effacement (€)

1000

500

0
0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 0.95 1

Quantile

Figure V-20 : Coût de l’énergie à effacer pour le client 45 en fonction de la couverture de risque

Pour le calcul de l’énergie annuelle effacée sur les deux années cibles intermédiaires, nous utilisons
l’hypothèse de linéarité entre la monotone de la dernière année cible et les années cibles
intermédiaires à partir de l’équation IV-17 présenté dans le chapitre IV. Ces monotones sont
présentées dans la Figure V-21 et on remarque qu’elles valident nos précédentes conclusions sur
l’impact de l’augmentation du véhicule électrique sur la consommation des foyers.

0.6

Monotone scénario 2035

0.55 Monotone scénario 2030

Monotone scénario 2025

0.5

0.45
Consommation (kW)

0.4

0.35

0.3

0.25

0.2
0 1000 2000 3000 4000 5000 6000 7000

Pas de temps (0,5h)

Figure V-21 : Monotones de charge des différents scénarios

123
Les résultats montrent qu’en moyenne la consommation sur le scénario 2035 est plus élevée de 2%
sur le scénario 2030 et seulement 3% sur le scénario 2025. Cela signifie que si on utilise la valeur
moyenne de l’énergie effacée pour le scénario 2035, soit 478kWh, le coût de l’énergie effacée sera
respectivement de 72€ (478kWh × 15c€/kWh) pour le scénario 2035,de 71€ pour le scénario 2030,
soit 70€ pour le scénario 2025. Ces coûts semblent aujourd’hui négligeables pour un GRD en
comparaison du coût d’un renforcement, dans le cas où la flexibilité est disponible.

Cas 2 : Forte production sur le réseau 2 :

Le même processus de calcul de l’énergie annuelle effacée est utilisé pour déterminer l’effacement qui
serait demandé aux producteurs sur les contraintes qui apparaitraient sur les années simulées.

L’apparition de contraintes est présentée dans le Tableau V-8. On peut y lire que la probabilité de
devoir utiliser l’effacement est égale à 63% avec 30% de clients producteurs (scénario forte production,
année 2035) lorsque le taux de production est supérieur à 90% de la capacité des PV (zone 1). Cette
probabilité diminue ensuite très fortement sur les autres zones. On remarque qu’avec les données de
productions utilisées, la probabilité annuelle du panneau solaire à produire une puissance supérieure
à 90% voire même à 80% ou 70% est faible, seulement 2% sur l’année (2 + 58 + 321�17520). Cette
remarque n’est pas généralisable, notamment dans le contexte du réchauffement planétaire, mais est
en accord avec les conclusions de [8]

Zone 1 Zone 2 Zone 3 Zone 4 Zone 5 Zone 6


Répartition des
clients avec au
63% 6% 3% 1,5% 1,5% 0%
moins une
contrainte
Nombre de pas
de temps (30 2� 58� 321� 508� 572� 683�
17520 17520 17520 17520 17520 17520
minutes)
Tableau V-8 : Répartitions de producteurs avec au moins une contrainte dans les zones simulées

Les Figure V-22 et Figure V-23 confirment la remarque formulée ci-dessus : l’énergie totale à effacer
est très faible. Les résultats obtenus donnent 1,7kWh effacées annuellement en moyenne si on utilise
uniquement de l’effacement ou 0,2kWh en moyenne annuelle effacée pour 6 kVArh absorbée, ce qui
aurait comme conséquence financière les sommes négligeables de 9€/an ou 24c€/an .

124
Energie (kWh) totale à effacer en fonction des tirages Monte Carlo
50

45

40

35
Energie totale à effacer (kWh)

30

25

20

15

10

0
0 20 40 60 80 100 120 140 160 180 200

numero répartition de client

Figure V-22 : Energie à effacer par les producteurs en fonction des tirages pour atteindre le seuil d’acceptabilité de la
contrainte.

Energie (KWh) totale à effacer en fonction des tirages Monte Carlo


700

600
Energie totale à effacer (kWh)

500

400

300

200

100

0
0 20 40 60 80 100 120 140 160 180 200

numero répartition de client

Réactif (kVArh) totale à injecter en fonction des tirages Monte Carlo


140

120
Réactif totale à injecter (kVArh)

100

80

60

40

20

0
0 20 40 60 80 100 120 140 160 180 200

numero répartition de client

Figure V-23 : Energie à effacer et réactif à absorber par les producteurs en fonction des tirages pour atteindre le seuil
d’acceptabilité de la contrainte.

125
Dans le cas de l’effacement de la production, couvrir un risque plus important avec un quantile plus
élevé comme nous l’avons proposé pour l’effacement de la consommation, n’a pas d’intérêt tant les
coûts de l’effacement annuel restent marginaux.

Cependant, ces résultats semblent difficilement extrapolables pour les différentes raisons suivantes :

- Une hypothèse d’une tension de 1,04 pu au niveau de notre poste de distribution public,
identique à la sortie du poste source ;
- Une courbe de production issue d’un fichier météo qui offre peu de pas de temps avec un fort
niveau de production ;
- Un coût de l’effacement attractif ;
- Un réseau peu sensible à des contraintes de tension haute ;
- Un scénario d’évolution de la production décentralisée éloigné du scénario rupture d’Enedis
(30% contre 100%).

V.5 Estimation du coût de chaque solution


L’avant dernière étape, juste avant l’actualisation, est le calcul du coût de chaque solution. Ce calcul
utilise l’équation IV-16 introduite et présentée dans le chapitre IV en utilisant les paramètres du
Tableau V-2 pour les deux cas d’études.

Cas 1 : Forte consommation sur le réseau 1 :

Les solutions trouvées à travers les processus de dimensionnement sont résumées dans le Tableau V-9.
Les coûts associés y sont ajoutés et le calcul du coût de la pénalité et celui du coût total de la solution
est ajouté.

Numéro solution S1 S2 S3 S4
Segment(s)
/ 44 5 ; 44 5 ; 21 ; 44
renforcé(s)
Longueur à
0 144 251 361
changer
Cout du
0 23 k€ 39 k€ 56 k€
renforcement (€)
45
16 ; 17 ; 19 ; 30 ;
Flexibilité(s)
45 45 35 /
activée(s)
16 ; 18 ; 19 ; 30 ;
35
Cout annuel de
72 72 294 0
la flexibilité (€)
Probabilité
0,7 0,7 0,76 29 0
d’activation (α)
Indice de
2,16 1,60 0,74 0
sévérité (β)
Coût de la
56 k€ 32 k€ 16 k€ 0
pénalité

29
Probabilité de 0,7 par client, ce qui donne une probabilité de 0,76 pour les combinaisons possibles.

126
Coût annuel de
36 k€ 38 k€ 42 k€ 56 k€
la solution
Tableau V-9 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la dernière année cible

On remarque alors que la solution la plus intéressante serait la solution n°1. Ces résultats s’expliquent
principalement par l’indice de sévérité β calculé combiné avec la probabilité de non-activation de la
flexibilité (1 − 𝛼𝛼) faible. Le taux de contraintes des solutions 1 et 2 est respectivement 29 et 26% de
contrainte sans l’activation de la flexibilité. On remarque ici que ce renforcement ne diminue pas
beaucoup le taux de contrainte contrairement au second segment renforcé, mais permet de réduire
de 35% l’indice de sévérité, donnant un coût annuel des solutions 1 et 2 presque équivalent. Pour la
solution 3, le renforcement de deux segments permet de réduire la probabilité de contraintes à 12%
(Tableau V-4) rendant la flexibilité très intéressante mais le coût de renforcement est trop important
pour que cette solution soit privilégiée sur une année.

La probabilité d’activation et la sévérité sont paramétrables et leur utilisation est complexe.


Premièrement, il y a une incertitude sur la capacité des GRD à mettre en place et utiliser l’effacement
de la consommation à grande échelle en l’utilisant localement. Il y a aussi l’incertitude sur la capacité
des fournisseurs d’électricité à promouvoir des offres tarifaires incluant de l’effacement.
Deuxièmement, il y a un manque de connaissance sur l’impact d’une excursion de tension sur les
équipements des réseaux ou des particuliers (et en particulier l’impact des tensions hautes), signifiant
un verrou scientifique sur la quantification de la sévérité.

La Figure V-24 présente un aperçu du coût de la pénalité si la probabilité d’activation était différente
de notre hypothèse. Pour les solutions 1 et 2, les courbes sont linéaires car il n’y a qu’un seul client à
effacer. Pour la solution 3, le calcul de la probabilité de non-activation donne une courbe non linéaire
en raison des combinaisons possibles pour effacer la flexibilité.

4
10
12

Solution 1
Solution 2
10
Solution 3

8
Cout de la pénalité (€)

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
Probabilité de non activation

Figure V-24 : Coût induit par la non-activation de la flexibilité en fonction de la probabilité d'activation

La Figure V-24 présente une variation de la probabilité de non-activation entre 0 et 0,9. les résultats
présentent les surcoûts induits par la pénalité pour les solutions S1, S2, et S3. En plus de noter cette
différence de coût entre les différentes solutions, on note écart de coût entre les solutions 1 et 2,

127
presque équivalent à celui entre les solutions 2 et 3 alors que le taux de contrainte est respectivement
de 29%, 26% et 12%. Ces résultats s’expliquent par l’objectif fixé sur l’algorithme de renforcement :
Renforcer le segment qui remonte le plus la tension sur les couples (nœud, phase) en contrainte,
permettant ainsi de réduire significativement la sévérité des contraintes.

La Figure V-25 présente la fonction f(v) de l’équation IV-14. A travers ces histogrammes, la répartition
des tensions entre les 53 nœuds est représentée pour toutes les simulations contraintes (58
simulations, en effet n=200 et 29% de contrainte relevé). La plupart des tensions hors limites sont sur
la phase C. C’est pour cette raison que la proposition réalisée en V.2 de rééquilibrer ou d’effacer le
client 45, raccordé sur la phase C, permet d’abaisser la probabilité de contrainte à 6% (Tableau V-4)

Figure V-25 : Fonction de densité 𝑓𝑓(𝑣𝑣) (équation IV-14) sur chaque phase pour le calcul de sévérité

Au regard de la Figure V-25, on remarque qu’il y a une partie des résultats des simulations où la tension
des nœuds est autour de la limite de tension basse (≈207,8V). Cela suggère qu’une variation de la
tension au secondaire du transformateur aurait un impact important sur le nombre de contraintes, lui-
même déjà impacté par le modèle de charge choisi. Pour compléter les résultats exposés dans ce
chapitre, l’Annexe E : Renforcement en fonction de la tension en amont du poste de distribution public,
synthétise les résultats qu’auraient fourni l’algorithme sur la simulation de la dernière année cible avec
un poste de distribution public fournissant entre 0,97pu et 1,03pu, résumé par la Figure V-26 :

70
250

Coût max

60 Coût min

200

50

150
Probabilité de contrainte

40
Cout de la solution (k€)

30
100

20

50
10

0 0
0.97 0.98 0.99 1 1.01 1.02 1.03 1.04 0.97 0.98 0.99 1 1.01 1.02 1.03 1.04
Tension en amont du poste de distribution HTA/BT (pu) Tension en amont du poste de distribution HTA/BT (pu)

Figure V-26 : Evolution de la contrainte et des coûts pour résoudre ces contraintes en fonction de la tension au poste source

Les résultats pour les tensions 1,04 et 1,05 pu ne sont pas représentés car ils sont identiques à 1,03 :
pas de contrainte de tension. Cependant, les résultats inférieurs à 0,97 n’ont pas été affichés car trop
importants. Dans le cas du renforcement pour une tension du poste source à 0,96pu, le renforcement
du transformateur avec un 250 kVA ainsi que tous les conducteurs du réseau ne suffit logiquement pas
à atteindre le seuil de contrainte de 10%.

A travers cette Figure V-26, on perçoit l’importance du choix de la tension en amont du poste de
distribution dans les hypothèses sur les résultats. La partie droite de la figure représente le coût annuel
minimal et maximal trouvées pour les différentes solutions sur la dernière année cible.

128
Pour le cas 1, l’estimation des coûts entre la dernière année cible et les autres est suffisamment proche
pour ne pas être présentée ici. En effet, les solutions Smart Grid trouvées par les algorithmes sont
identiques et les taux de contraintes relevés sont identiques considérant l’intervalle de confiance de
7% pour un tirage de 200 échantillons avec la méthode Monte Carlo.

Cas 2 : Forte production sur le réseau 2 :

Segment(s) Longueur (m) et


Cout annuel de la Cout annuel de
Numéro solution supplémentaire cout (€) du
flexibilité (€) la solution
renforcé(s) renforcement
S1 / 0|0 1 1
S2 5 27 | 6,4k 1 6,4k
S3 8 47 | 9,4k 1 9,4k
S4 15 96 | 16,7k 1 16,7k
S5 39 113 | 19,2k 1 19,2k
S6 29 134 | 22,4k 1 22,4k
S7 11 149 | 24,6k 1 24,6k
S8 33 157 | 25,8k 1 25,8k
S9 19 176 | 28,7k 1 28,7k
S10 34 184 | 29,9k 1 29,9k
S11 18 203 | 32,7k 1 32,7k
S12 20 224 | 35,9k 1 35,9k
S13 40 233 | 37,2k 1 37,2k
S14 6 238 | 37,9 0 37,9
Tableau V-10 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil sur la dernière année cible pour
le scénario de forte production

Comme discuté en II.2.a, les normes évoluent, rendant la possibilité d’un contrôle en réactif possible.
En se plaçant du point de vue du planificateur, nous supposons que lors d’une demande de
raccordement, le distributeur donne le choix aux clients de souscrire à une offre d’effacement ou de
prendre à sa charge les frais de renforcement nécessaires au bon fonctionnement du réseau.

Avec le scénario simulé et les hypothèses de simulation formulées, le coût lié à l’effacement est
marginal et est la solution largement privilégiée.

Ce résultat s’explique par plusieurs raisons :

- Il n’y a aucune limite d’effacement. L’algorithme d’optimisation peut effacer un client à 100%
s’il le juge nécessaire. Nous n’avons pas pénalisé le niveau d’effacement, que ce soit à partir
de l’algorithme où à partir d’une pénalité annexe ;
- La probabilité d’activation de l’effacement de production est de 100% : pas de pénalité. Il
serait envisageable d’ajouter une probabilité de réponse à la demande d’effacement
correspondant à la fiabilité du système de communication à recevoir et appliquer la
demande d’effacement ;
- Le nombre de panneau solaire installé est relativement élevé mais encore loin du scénario
rupture d’Enedis où 100% des maisons sont équipées d’un panneau solaire.
- Un prix attractif de l’effacement au kWh sans contrepartie : certains auteurs, comme [8]
(annexe) considèrent le coût du surdimensionnement de l’onduleur (pour réaliser du
contrôle des flux de puissance) .

129
Ces différentes raisons peuvent expliquer certaines différences de résultats entre cette étude et la
littérature. En effet, l’auteur [8] limite l’effacement à 70% de la capacité du panneau solaire
considérant 100% des clients équipés d’un PV. Si l’effacement n’était pas suffisant, alors un
renforcement était appliqué. Dans notre cas d’étude, le renforcement serait évité grâce à
l’effacement d’une grande partie de la production aux pas de temps en contraintes.

Les solutions et leurs coûts pour l’année cible intermédiaire de 2030 sont visibles dans le Tableau
V-10. Il s’agit des 4 premières solutions. La différence de coût de la flexibilité entre la cible 2030 et
2035 est négligée.

130
V.6 Actualisation du coût et choix d’une solution
d’investissement
Dans cette partie, l’objectif est d’appliquer la méthodologie présentée dans la partie IV.6 afin de
trouver la solution la plus économiquement appropriée tout en permettant de conserver une bonne
continuité de fourniture.

Cas 1 : Forte consommation sur le réseau 1 :

Figure V-27 : Séquences d’investissement possible dans le réseau

Pour commencer, la liste des solutions possibles doit être énumérée. Elle est présentée graphiquement
ici par la Figure V-27. Logiquement, une solution incluant un nombre de segments renforcés ne peut
pas être suivie par une solution avec un nombre de renforcements inférieur. Le Tableau V-11 présente
ces solutions possibles et fournit les coûts associés aux CAPEX (It) et aux OPEX (Ct). La solution S1.S1.S1
signifie que la solution S1 du Tableau V-4 pour chacune des 3 années cibles.

131
CAPEX : It (k€) OPEX : Ct (k€) Coût actualisé
Solutions
2025 2030 2035 2025 2030 2035 (k€)
n°1 S1.S1.S1 0 0 0 36k€ 25k€ 18k€ 76,3
n°2 S1.S1.S2 0 0 23 36k€ 25k€ 8k€ 70,5
n°3 S1.S1.S3 0 0 39 36k€ 25k€ 2k€ 67,3
n°4 S1.S1.S4 0 0 56 36k€ 11k€ 8k€ 60,0
n°5 S1.S2.S2 0 23 0 36k€ 11k€ 8k€ 63,1
n°6 S1.S2.S3 0 23 18 36k€ 11k€ 2k€ 59,9
n°7 S1.S2.S4 0 23 35 36k€ 11k€ 0 59,2
n°8 S1.S3.S3 0 39 0 36k€ 2k€ 2k€ 56,8
n°9 S1.S3.S4 0 39 19 36k€ 2k€ 0 56,4
n°10 S1.S4.S4 0 56 0 36k€ 0 0 56,7
n°11 S2.S2.S2 23 0 0 15k€ 11k€ 8k€ 47,7
n°12 S2.S2.S3 23 0 18 15k€ 0k€ 2k€ 36,0
n°13 S2.S2.S4 23 0 35 15k€ 0k€ 0 35,1
n°14 S2.S3.S3 23 18 0 15k€ 2k€ 0 40,8
n°15 S2.S3.S4 23 18 19 15k€ 2k€ 0 41,4
n°16 S2.S4.S4 23 35 0 15k€ 0 0 41,8
n°17 S3.S3.S3 39 0 0 3k€ 2k€ 2k€ 33,5
n°18 S3.S3.S4 39 0 19 3k€ 2k€ 0 32,9
n°19 S3.S4.S4 39 19 0 3k€ 0 0 33,9
n°20 S4.S4.S4 56 0 0 0 0 0 33,5
Tableau V-11 : Tableau des CAPEX et OPEX

Une fois les solutions énumérées, nous appliquons l’équation d’actualisation (III-17) sur les 20
solutions possibles du Tableau V-11 afin de déterminer la solution la plus économique possible.

Pour rappel, nous avons fixé la durée de vie d’un segment (variable 𝐴𝐴𝑡𝑡 dans l’équation IV-18) à 40 ans
et le taux d’actualisation à 4,5%, hypothèses identiques à celles du GRD.

Les résultats trouvés pour l’actualisation sont présentés dans la Figure V-28. Si le GRD choisit de
prendre la solution la plus économique, il devrait retenir la solution n°18. Elle consiste à renforcer les
2 premiers segments pour diminuer fortement le niveau de contrainte (de 29 à 12%) dès 2025 tout en
utilisant la flexibilité pour descendre le taux de contrainte sous le taux d’acceptabilité. Pour finir le
développement de la solution jusqu’à la dernière année cible en 2035, la solution demande d’investir
dans le dernier segment afin de ne plus avoir à utiliser la flexibilité.

132
Figure V-28 : Résultats des coûts nets actualisés de 20 possibilités d'investissement

Cas 2 : Forte production sur le réseau 2 :

Le processus d’actualisation pour ce cas d’étude sera difficilement présentable car il y a 39 séquences
possibles. De plus, aucune solution de renforcement ne peut concurrencer une solution avec un coût
opérationnel d’un euro par an à partir de 2030 et à actualiser sur jusqu’à 2035. La solution avec le coût
minimal est sans surprise l’utilisation continue de l’effacement sur toute la durée de l’étude.

Comme discuté en fin de section V.5, ces résultats s’expliquent par des hypothèses qui favorisent la
flexibilité sans limite ni plage d’utilisation.

133
VI. Conclusion générale
VI.1 Conclusion
Les problématiques environnementales, la décarbonation et l’appauvrissement des ressources
naturelles nous encouragent à modifier l’approche de la planification pour la basse tension. Les
réseaux électriques font face à un changement de paradigme et doivent accueillir des moyens de
productions décentralisés, des véhicules électriques, des pompes à chaleur, entre autres, tout en
respectant les règles qui régissent leur bon fonctionnement. En ce sens, les méthodes de planification
traditionnelles doivent être enrichies afin d’éviter des dépenses coûteuses dans le renouvellement des
infrastructures annoncées jusqu’à 8 milliards d’€/an d’ici 2035 dans le scénario de rupture d’Enedis
[14] (contre 4 milliards d’€/an aujourd’hui).

Aujourd’hui, en basse tension, la planification se résume à optimiser le renouvellement des


infrastructures. Dans le chapitre I, nous avons expliqué que cette optimisation était difficilement
compatible avec le changement de paradigme qui a lieu sur les réseaux. Les problématiques et les
verrous associés ont été présentés pour ensuite introduire notre démarche.

Nos travaux de thèse s’inscrivent dans une continuité de publications, de thèses, entreprises depuis
plus de dix ans et présentées dans le chapitre II. Dans ce chapitre, l’état de l’art a montré l’avancement
de la communauté scientifique sur ces problématiques et verrous. La méthode de planification
traditionnelle a été présentée pour ensuite introduire les réseaux de demain : les réseaux « Smart
Grid », avec l’intégration de ressources locales mais aussi des solutions de flexibilité qui ont pour but
de participer à cette intégration en minimisant les coûts d’investissement du planificateur. Pour
compléter cette présentation, les différentes méthodes de modélisation pour construire les
problématiques de planification ont été présentées.

Le chapitre III a utilisé une méthode d’analyse de sensibilité (la méthode des indices de Sobol) pour
étudier l’impact de la modélisation de certaines variables sur la distribution de la chute de tension.
Nous avons ainsi proposé une méthodologie d’identification des variables incertaines qui influencent
principalement la chute de tension. La méthodologie a été testée sur dix réseaux dans deux
configurations : une forte consommation et forte production. Les résultats ont confirmé nos attentes :
l’incertitude de la chute de tension est principalement influencée par le modèle de charge et de
production. En conséquence, nous nous sommes orientés vers des modèles de charge plus complexes
et plus précis grâce à SMACH et BuildSysPro. Ces résultats ont été valorisés par une présentation orale
dans la conférence internationale CIRED en 2019 [16].

Le chapitre IV a introduit une évolution de la méthode de planification traditionnelle axée sur


l’intégration des risques liés au fonctionnement des solutions de flexibilité. Par l’ajout de nouvelles
variables telles que la probabilité d’activation de la flexibilité, le coût de pénalité et la sévérité de la
contrainte, nous avons proposé une méthode de calcul pour comparer différentes solutions « Smart
Grid » afin de mettre sur une même échelle le coût du renforcement et celui de la flexibilité.

Dans nos travaux, nous avons uniquement traité l’effacement de consommation et de production
comme solution de flexibilité. Ces choix nous ont poussés à développer une méthode pour approximer
les coûts annuels de fonctionnement de l’effacement pour fournir une méthodologie de calcul aboutie.

A travers deux cas d’études, le chapitre V a appliqué la méthodologie présentée dans le chapitre IV.
Bien que le nombre de réseaux étudiés soit faible, ces études ont mis en avant les capacités de la

134
méthode de planification à proposer un panel de solutions « Smart Grid » pour un réseau allant de
solutions 100 % flexibilité à 100 % renforcement.

Cette thèse aborde les processus de planification sous risques et propose l’intégration de l’effacement
comme principal moyen pour réduire les coûts de fonctionnement du réseau. Une de nos principales
hypothèses est de probabiliser l’activation de l’effacement de la consommation. Ce choix a été réalisé
en supposant que de nouvelles offres tarifaires (ou équivalentes) allaient apparaitre afin, par exemple,
de proposer au client de raccorder certains de leurs usages sur les contacts virtuels des compteurs
communicants. Ainsi, ces offres doivent proposer un prix de l’abonnement préférentiel pour que les
clients y souscrivent. Plus l’offre sera intéressante et plus la probabilité d’activation de la flexibilité, α,
sera élevée, et donc intéressante pour le GRD, mais aussi pour le GRT qui pourrait ainsi optimiser la
balance consommation / production dans un contexte de variabilité des productions décentralisées.

VI.2 Perspectives
Pour enrichir la méthodologie, il est possible de compléter ou modifier chaque partie. Ci-dessous sont
présentées plusieurs perspectives qu’il serait intéressant de mettre en place :

VI.2.a Analyse de sensibilité


- Utiliser les nouvelles méthodes d’analyse de sensibilité qui émergent. Notamment, des
méthodes sur l’analyse de sensibilité autour d’un quantile [106] sont à l’étude. Au lieu de
travailler sur toute la distribution de la chute de tension, ce type de méthode permettrait
d’étudier la distribution autour des tensions limites.
- Réaliser une analyse de sensibilité sur la formule du coût de la solution développée dans le
chapitre IV pour analyser l’impact des nouvelles variables introduites dans ces travaux.

VI.2.b Evolution de la consommation


- Intégrer plusieurs projections d’évolution des usages et pondérer chacun d’entre eux en
fonction de leur probabilité de réalisation. Ensuite, le choix de la solution « Smart Grid » se fait
par une combinaison des solutions trouvées pour chaque projection, en fonction de leurs coûts
et de la valeur de la pondération des projections. Plusieurs articles ont abordé le sujet, comme
[5], [107], mais sans considérer l’incertitudes de la flexibilité.
- Simuler d’autres pas de temps que les 10 pas de temps les plus consommateurs (ou
producteurs) de l’année. D’autres auteurs simulent des pas de temps comme ceux contenant
la puissance maximale annuelle de chaque consommateur ou encore tous les pas de temps de
la journée la plus froide.
- Utiliser le même tirage de clients entre la simulation des différentes années cibles au lieu de
refaire un tirage Monte Carlo. Le tirage Monte Carlo réalise des distributions sur les pointes de
consommation dans les années observées. Le tirage des mêmes clients permet d’étudier en
plus l’impact de l’évolution de la consommation sur la distribution de la tension.

135
VI.2.c Performance de calcul
- Optimiser l’estimation de l’énergie annuelle à effacer en utilisant les statistiques plutôt que
simuler un grand nombre de calculs de répartition des charges. Le principe serait de simuler
aléatoirement des pas de temps dans chaque zone de consommation et estimer l’énergie
effacée nécessaire dans chaque zone pour résoudre les contraintes.
- Faire évoluer l’environnement DISNET pour permettre d‘utiliser le calcul analytique de la
Jacobienne d’open DSS.
- Tester les solutions « Smart Grid » trouvées sur un plus grand échantillon de simulations. Les
solutions sont obtenues sur un échantillon de 200 tirages dans nos algorithmes. Dans le cas où
les solutions ne se valident pas, alors l’algorithme devra reboucler le processus de
renforcement pour mettre à jour les solutions « Smart Grid ».

VI.2.d Augmentation de la capacité d’accueil


- Intégrer d’autres solutions de flexibilité (Tableau II-2), comme le stockage, ou considérer
d’autres types de conducteurs que le câble en 240 mm². Ces deux perspectives sont placées
ensembles car elles demandent de revoir la méthodologie de la même manière : soit créer plus
de solutions pour ensuite les comparer, soit intégrer la possibilité de comparer les prix des
solutions dès le processus d’augmentation de la capacité d’accueil. Ces modifications
demandent une révision profonde de la méthodologie ou une augmentation importante du
temps de calcul pour avoir des solutions d’investissements comportant deux ou plusieurs
solutions de flexibilité en plus du renforcement.
- Normaliser le gain sur la tension par la longueur du conducteur (voir équation IV-1) dans
l’algorithme du choix des conducteurs présentés en IV.2.a. Cela privilégiera des renforcements
moins coûteux au détriment du temps de calcul. Aujourd’hui, l’algorithme sélectionne le
segment qui rapproche le plus la tension de la tension nominale sans considérer sa longueur.
- Laisser le contrôle en temps réel de l’effacement des usages aux particuliers n’est pas une
solution pertinente. L’envoi de messages par exemple aux clients demande un engagement
important. Après un certain temps, le client pourrait être potentiellement moins enclin à
décaler l’utilisation de ses usages. L’utilisation des contacts virtuels permet l’automatisation
de l’effacement et éviter le désagrément lié aux signaux tarifaires. Cependant, cette
automatisation demandera une coordination entre les besoins du GRD, les intérêts du
fournisseur d’électricité et les impératifs des clients, comme avoir sa voiture rechargée avant
de partir travailler ou avoir une température acceptable dans le foyer. Des problématiques de
cybersécurité pourraient apparaitre dans le même temps si des personnes mal intentionnées
prenaient le contrôle des usages pour saturer le réseau, ou empêcher certains usagers
d’utiliser leurs appareils.

VI.2.e Gestion du risque


- Ajouter la probabilité d’activation de la flexibilité dans le calcul de l’énergie annuelle à effacer
et dans le calcul du coût de la pénalité 𝐶𝐶𝑝𝑝 . Notre méthode d’évaluation des coûts considère
que toutes les flexibilités s’activeront en cas de contraintes. Cela ne pourrait pas être

136
systématiquement le cas à chaque contrainte, ce qui permettrait de valoriser davantage
l’effacement de consommation. De plus, l’activation partielle de la flexibilité ne permet pas
d’éviter la contrainte, mais elle permettra de réduire la sévérité de celle-ci.
- Définir la fonction de sévérité avec des campagnes de mesures. La fonction de sévérité a été
construite avec une quantité d’informations limitée. L’impact de la tension sur les
équipements du réseau et des foyers est méconnu. La contrainte de tension peut gêner les
particuliers en cas de coupure ou dégradation. Une étude sociologique dédiée pourrait être
nécessaire. Avec plus de données et d’études, il serait possible de quantifier l’impact financier
d’une contrainte pour ajuster la fonction de sévérité. L’utilisation des séries temporelles pour
déterminer le nombre d’appels annuels à l’effacement pourrait aussi être une variable à
considérer dans la fonction de sévérité.
- Supprimer le taux de contraintes acceptable et utiliser la fonction de sévérité sur l’ensemble
des contraintes. Cela demanderait d’intégrer le calcul du coût de la solution plus tôt dans
l’algorithme et de revoir la définition du coût de pénalité. Le principe est de supposer que la
probabilité d’avoir une contrainte sur le réseau ne sera jamais nulle, mais de l’accepter si le
compromis entre bénéfice d’un renforcement et le coût de celui-ci est justifié. La probabilité
et la sévérité des contraintes devront permettre de justifier de choisir la solution technico-
économique la plus pertinente.

137
VII. Bibliographie :
[1] « NF 50160 - Caractéristiques de la tension fournie par les réseaux de distribution - 2011 ».
[2] EDF, « Plan Stratégique d’Entrepise EDF ».
[3] A. Garry, « Intégration des incertitudes liées à la production et à son effacement sur les méthodes
de planification des réseaux ».
[4] ENEDIS, « Enedis-NOI-RES_07E : Description physique du Réseau Public de Distribution ». ENEDIS,
2017.
[5] H. DUTRIEUX, « Méthodes pour la planification pluriannuelle des réseaux de distribution.
Application à l’analyse technico-économique des solutions d’intégration des énergies
renouvelables intermittentes. », 2015.
[6] M.-C. Alvarez-Herault, « Planification des réseaux électriques de distribution flexibles sous
incertitudes ».
[7] R. Caire, « Gestion de la production décentralisée dans les réseaux de distribution », p. 213.
[8] M. Bernier, « solutions smart grid innovantes pour l’intégration massive de la production
photovoltaïque au réseau public de distribution en zone rurale », p. 210.
[9] V. Gouin, « Évaluation de l’impact du Smart Grid sur les pratiques de planification en cas
d’insertion de production décentralisée et de charges flexibles ».
[10] P. Carrive, « Réseaux de distribution - Structure et planification », p. 35, 1991.
[11] H. Persoz, J.-C. Lemoine, P. Sapet, G. Santucci, et C. Bienvenu, La planification des reseaux
electriques. Eyrolles - Paris - France, 1984.
[12] B. Stott, « Review of load-flow calculation methods », Proc. IEEE, vol. 62, no 7, p. 916‑929, 1974,
doi: 10.1109/PROC.1974.9544.
[13] D. E. Nordgård, « Risk Analysis for Decision Support in Electricity Distribution System Asset
Management », p. 166.
[14] ENEDIS, « Eléments de prospective du réseau public de distribution d’électricité à l’horizon 2050 ».
[15] M. Sobol’, « Sensitivity Estimates for Nonlinear Mathematical Models », p. 8.
[16] P. Laize, R. Caire, M.-C. Alvarez-Herault, A. Garry, L. Glorieux, et M. Caujolle, « Sensitivity of lv grid
planning to load modelling », p. 5, 2021.
[17] International Energy Agency, France 2021 Energy Policy Review. OECD, 2021. doi:
10.1787/2c889667-en.
[18] RTE, « RTE - Mobilite electrique - principaux resultats ».
[19] « 20200422 Programmation pluriannuelle de l’énergie », p. 400.
[20] « IEEE Std 1159-2019, IEEE Recommended Practice for Monitoring Electric Power Quality », p. 98,
2019.
[21] A. Coiffier, « Schémas directeurs de développement des réseaux électricité de distribution MT »,
p. 32, 2013.
[22] J. Reinders, R. Bernards, D. Geldtmeijer, J. Morren, et H. Slootweg, « Utilising residential flexibility
in the planning of LV networks », CIRED - Open Access Proceedings Journal, vol. 2017, no 1, Art. no
1, oct. 2017, doi: 10.1049/oap-cired.2017.0381.
[23] ENEDIS, « Enedis-PRO-RAC_20E : Procédure de traitement des demandes de raccordement d’une
Installation individuelle de Consommation ou de Consommation et de Production simultanée en
BT de puissance inférieure ou égale à 36 kVA au Réseau Public de Distribution géré par Enedis ».
2019.
[24] ENEDIS, « Enedis-PRO-RAC_21E : Procédure de traitement des demandes de raccordement d’une
Installation individuelle de consommation ou de consommation et de production simultanée en
BT de puissance inférieure ou égale à 36 kVA au Réseau Public de Distribution concédé à Enedis ».
2021.
[25] ENEDIS, « Enedis-PRO-RES_43E : Principes d’étude et de développement du réseau pour le
raccordement des clients consommateurs et producteurs BT ». 2019.

138
[26] ENEDIS, « Enedis-PRO-RAC_03E : Barème pour la facturation des raccordements au réseau public
de distribution d’électricité concédé à Enedis ». 2016.
[27] F. Binot, « Modélisation et estimation de paramètres des réseaux de distribution basse tension »,
p. 140.
[28] W. C. B. Vicente, R. Caire, et N. Hadjsaid, « Interval arithmetic for short-circuit computation in MV
radial networks with Distributed Generation », in 2012 IEEE Power and Energy Society General
Meeting, San Diego, CA, juill. 2012, p. 1‑6. doi: 10.1109/PESGM.2012.6344605.
[29] ENEDIS, « Chiffres clés 2017 ».
[30] ENEDIS, « Chiffres clés 2020 ».
[31] ENEDIS, « Bilan Electrique Enedis 2019 ».
[32] ENEDIS, « Bilan Electrique Enedis 2018 », p. 37.
[33] Y. Besanger, « Etude des FACTS (Flexible AC Transmission System) et de leur comportement dans
les réseaux de transport et d’interconnexion ».
[34] Ministère de la transition écologique et solidaire, « Synthèse finale Projet de PPE ». République
française, 7 mars 2019. [En ligne]. Disponible sur: https://www.ecologique-
solidaire.gouv.fr/sites/default/files/Synth%C3%A8se%20finale%20Projet%20de%20PPE.pdf
[35] G. Giasemidis et S. Haben, « Modelling the demand and uncertainty of low voltage networks and
the effect of non-domestic consumers », Sustainable Energy, Grids and Networks, vol. 16, p.
341‑350, déc. 2018, doi: 10.1016/j.segan.2018.10.002.
[36] L. D. Vos, N. Leemput, et N. Refa, « Optimal integration of electric vehicles, PV, heat pumps in
existing distribution grids in the Netherlands », p. 5, 2019.
[37] E. Mulenga, M. H. J. Bollen, et N. Etherden, « Overvoltage due to single and three-phase connected
PV », p. 5, 2019.
[38] W. C. B. Vicente, « Modélisation des réseaux de distribution sous incertitudes ».
[39] A. Soroudi, M. Ehsan, R. Caire, et N. Hadjsaid, « Possibilistic Evaluation of Distributed Generations
Impacts on Distribution Networks », IEEE Trans. Power Syst., vol. 26, no 4, Art. no 4, nov. 2011, doi:
10.1109/TPWRS.2011.2116810.
[40] D. Frame et G. Ault, « A framework for low voltage network planning in the era of low carbon
technology and active consumers », in CIRED 2012 Workshop: Integration of Renewables into the
Distribution Grid, Lisbon, Portugal, 2012, p. 126‑126. doi: 10.1049/cp.2012.0761.
[41] A. Soroudi, R. Caire, N. Hadjsaid, et M. Ehsan, « Probabilistic dynamic multi-objective model for
renewable and non-renewable distributed generation planning », IET Gener. Transm. Distrib., vol.
5, no 11, Art. no 11, 2011, doi: 10.1049/iet-gtd.2011.0173.
[42] J. Buire, « Intégration des incertitudes liées aux prévisions de consommation et production à la
gestion prévisionnelle d’un réseau de distribution », p. 176.
[43] A. Bokhari et al., « Experimental Determination of the ZIP Coefficients for Modern Residential,
Commercial, and Industrial Loads », IEEE Trans. Power Delivery, vol. 29, no 3, p. 1372‑1381, juin
2014, doi: 10.1109/TPWRD.2013.2285096.
[44] F. Robin et G. Plattner, « Evaluation of the long-term impact of EV development on French
distribution networks: technical characterization and integration costs evaluation », p. 5, 2019.
[45] J. Coignard, P. MacDougall, F. Stadtmueller, et E. Vrettos, « Will Electric Vehicles Drive Distribution
Grid Upgrades?: The Case of California », IEEE Electrific. Mag., vol. 7, no 2, Art. no 2, juin 2019, doi:
10.1109/MELE.2019.2908794.
[46] A. Kharrazi, V. Sreeram, et Y. Mishra, « Assessment techniques of the impact of grid-tied rooftop
photovoltaic generation on the power quality of low voltage distribution network - A review »,
Renewable and Sustainable Energy Reviews, vol. 120, p. 109643, mars 2020, doi:
10.1016/j.rser.2019.109643.
[47] J. von Appen, M. Braun, T. Stetz, K. Diwold, et D. Geibel, « Time in the Sun: The Challenge of High
PV Penetration in the German Electric Grid », IEEE Power and Energy Magazine, vol. 11, no 2, Art.
no 2, mars 2013, doi: 10.1109/MPE.2012.2234407.

139
[48] Y. Nomaguchi et al., « Integrated planning of low-voltage power grids and subsidies toward a
distributed generation system – Case study of the diffusion of photovoltaics in a Japanese
dormitory town », Energy, vol. 140, p. 779‑793, déc. 2017, doi: 10.1016/j.energy.2017.08.114.
[49] J. Widén, E. Wäckelgård, J. Paatero, et P. Lund, « Impacts of distributed photovoltaics on network
voltages: Stochastic simulations of three Swedish low-voltage distribution grids », Electric Power
Systems Research, vol. 80, no 12, p. 1562‑1571, déc. 2010, doi: 10.1016/j.epsr.2010.07.007.
[50] S. Votruba et L. Krivanec, « Interconnected low voltage grid, grid for the future Smart Grids? », p.
4, 2015.
[51] S. Hashemi et J. Østergaard, « Methods and strategies for overvoltage prevention in low voltage
distribution systems with PV », IET Renewable Power Generation, vol. 11, no 2, Art. no 2, févr. 2017,
doi: 10.1049/iet-rpg.2016.0277.
[52] M. Bernier, N. Hadj-Said, A. Lagouardat, M.-C. Alvarez-Herault, et F. Cadoux, « Comprehensive
framework for PV integration with an OLTC in a rural distribution grid within the SMAP project »,
p. 5, 2019.
[53] M. C. Alvarez-Herault et al., « A survey based on the state of the art and perspectives in the
monitoring and the control of LV networks », in CIRED 2021 - The 26th International Conference
and Exhibition on Electricity Distribution, , Online Conference, 2021, p. 1495‑1499. doi:
10.1049/icp.2021.1629.
[54] ADEME, « Étude sur le potentiel du stockage d’énergies », p. 31, 2013.
[55] J. von Appen, T. Stetz, M. Braun, et A. Schmiegel, « Local Voltage Control Strategies for PV Storage
Systems in Distribution Grids », IEEE Trans. Smart Grid, vol. 5, no 2, p. 1002‑1009, mars 2014, doi:
10.1109/TSG.2013.2291116.
[56] T. Drizard, C. Lebosse, et B. Chazottes, « Integration of distributed PV generation : The Nice grid
project », p. 5, 2015.
[57] S. Janssen, A. Fu, M. Cvetkovic, et P. Palensky, « Relocatable Energy Storage Systems for
Congestion Management », in 2020 IEEE PES Innovative Smart Grid Technologies Europe (ISGT-
Europe), The Hague, Netherlands, oct. 2020, p. 1166‑1170. doi: 10.1109/ISGT-
Europe47291.2020.9248849.
[58] V. S. K. Murthy Balijepalli, V. Pradhan, S. A. Khaparde, et R. M. Shereef, « Review of demand
response under smart grid paradigm », in ISGT2011-India, Kollam, Kerala, India, déc. 2011, p.
236‑243. doi: 10.1109/ISET-India.2011.6145388.
[59] P. Davison, S. Blake, A. Spencer, E. Burton, et S. Lee-Favier, « Activating residential demand side
response to relieve network congestion », in CIRED Workshop 2016, Helsinki, Finland, 2016, p. 163
(4 .)-163 (4 .). doi: 10.1049/cp.2016.0763.
[60] « CLNR-L096-Insight-Rerport-Domestic-Direct-Control-Trials ».
[61] J. M. Lujano-Rojas, C. Monteiro, R. Dufo-López, et J. L. Bernal-Agustín, « Optimum residential load
management strategy for real time pricing (RTP) demand response programs », Energy Policy, vol.
45, p. 671‑679, juin 2012, doi: 10.1016/j.enpol.2012.03.019.
[62] G. Strbac, « Demand side management: Benefits and challenges », Energy Policy, vol. 36, no 12,
Art. no 12, déc. 2008, doi: 10.1016/j.enpol.2008.09.030.
[63] S. Davarzani, I. Pisica, G. A. Taylor, et K. J. Munisami, « Residential Demand Response Strategies
and Applications in Active Distribution Network Management », Renewable and Sustainable
Energy Reviews, vol. 138, p. 110567, mars 2021, doi: 10.1016/j.rser.2020.110567.
[64] W. Kempton et J. Tomić, « Vehicle-to-grid power implementation: From stabilizing the grid to
supporting large-scale renewable energy », Journal of Power Sources, vol. 144, no 1, Art. no 1, juin
2005, doi: 10.1016/j.jpowsour.2004.12.022.
[65] W. Kempton et J. Tomić, « Vehicle-to-grid power fundamentals: Calculating capacity and net
revenue », Journal of Power Sources, vol. 144, no 1, Art. no 1, juin 2005, doi:
10.1016/j.jpowsour.2004.12.025.
[66] B. Swaminathan, M. Carlier, J. Bruschi, et O. Carre, « Evaluation of flexibility volumes for constraint
resolution in LV distribution networks – the Nice smart valley case », p. 5, 2019.

140
[67] S. B. Subramanian et al., « Control of STATCOMs – A Review », in 2018 IEEE Power & Energy Society
General Meeting (PESGM), Portland, OR, août 2018, p. 1‑5. doi: 10.1109/PESGM.2018.8586479.
[68] M. Aredes, J. Hafner, et K. Heumann, « Three-phase four-wire shunt active filter control
strategies », IEEE Transactions on Power Electronics, vol. 12, no 2, Art. no 2, mars 1997, doi:
10.1109/63.558748.
[69] Y. Besanger, « Etude des FACTS (Flexible AC Transmission System) et de leur comportement dans
les réseaux de transport et d’interconnexion ».
[70] ADEME, « Systèmes Electriques Intelligents : Premiers résultats des démonstrateurs », p. 92, oct.
2016.
[71] L. A. Zadeh, « Fuzzy sets as a basis for theory of possibility », p. 26.
[72] B. Iooss, « Revue sur l’analyse de sensibilité globale de modèles numériques », vol. 152, no 1, p.
23, 2011.
[73] E. de Rocquigny, N. Devictor, et S. Tarantola, Uncertainty in Industrial Practice: A Guide to
Quantitative Uncertainty Management, Wiley–Blackwell.
[74] A. PASANISI, M. COUPLET, et A. DUTFOY LEBRUN, « Guide Méthodolologique pour le Traitement
des Incertitudes - EDF R&D ».
[75] D. Kurowicka et R. Cooke, Uncertainty Analysis with High Dimensional Dependence Modelling:
Kurowicka/Uncertainty Analysis with High Dimensional Dependence Modelling. Chichester, UK:
John Wiley & Sons, Ltd, 2006. doi: 10.1002/0470863072.
[76] A. Saltelli, Éd., Global sensitivity analysis: the primer. Chichester, England ; Hoboken, NJ: John
Wiley, 2008.
[77] R. C. Dugan, « Reference Guide: The Open Distribution System Simulator (OpenDSS) ». Electric
Power Research Institute (EPRI), 2013. [En ligne]. Disponible sur:
https://sourceforge.net/p/electricdss/code/HEAD/tree/trunk/Distrib/Doc/OpenDSSManual.pdf
[78] M. Sobol’, « Sensitivity Estimates for Nonlinear Mathematical Models », p. 8.
[79] G. E. B. Archer, A. Saltelli, et I. M. Sobol, « Sensitivity measures,anova-like Techniques and the use
of bootstrap », Journal of Statistical Computation and Simulation, vol. 58, no 2, p. 99‑120, mai
1997, doi: 10.1080/00949659708811825.
[80] J. Jacques, « Pratique de l’analyse de sensibilité : comment évaluer l’impact des entrées aléatoires
sur la sortie d’un modèle mathématique », p. 14.
[81] A. Nadal, « Influence des incertitudes sur l’optimisationtechnico-économique de systèmes
énergétiques hybrides », UNIVERSITE GRENOBLE ALPES, Grenoble, France, 2019.
[82] A. Saltelli, « Making best use of model evaluations to compute sensitivity indices », févr. 2002.
[83] J. M. Hammersley et D. C. Handscomb, Monte Carlo Methods. 1964.
[84] C. Prieur et S. Tarantola, « Variance-Based Sensitivity Analysis: Theory and Estimation
Algorithms », in Handbook of Uncertainty Quantification, R. Ghanem, D. Higdon, et H. Owhadi, Éd.
Cham: Springer International Publishing, 2015, p. 1‑23. doi: 10.1007/978-3-319-11259-6_35-1.
[85] M. Baudin, K. Boumhaout, T. Delage, B. Iooss, et J.-M. Martinez, « Numerical stability of Sobol’
indices estimation formula ».
[86] R. Caire, N. Retiere, S. Martino, C. Andrieu, et N. Hadjsaid, « Impact assessment of LV distributed
generation on MV distribution network », in IEEE Power Engineering Society Summer Meeting,
Chicago, IL, USA, 2002, p. 1423‑1428. doi: 10.1109/PESS.2002.1043620.
[87] W. C. B. Vicente, R. Caire, et N. Hadjsaid, « Interval arithmetic for short-circuit computation in MV
radial networks with Distributed Generation », in 2012 IEEE Power and Energy Society General
Meeting, San Diego, CA, juill. 2012, p. 1‑6. doi: 10.1109/PESGM.2012.6344605.
[88] F. Binot, T. D. Le, et M. Petit, « Impact of environmental conditions on the voltage profile of LV
networks », in 2019 IEEE PES Innovative Smart Grid Technologies Europe (ISGT-Europe), Bucharest,
Romania, sept. 2019, p. 1‑5. doi: 10.1109/ISGTEurope.2019.8905767.
[89] ENEDIS, « Enedis-PRO-RAC_20E.pdf ».
[90] E. Mulenga, M. H. J. Bollen, et N. Etherden, « Overvoltage due to single and three-phase connected
PV », p. 5, 2019.
[91] P. Laize, « Rapport bibliographique septembre 2019 ».

141
[92] É. Amouroux, T. Huraux, F. Sempé, N. Sabouret, et Y. Haradji, « SMACH: Simuler l’activité humaine
pour limiter les pics de consommation électrique », p. 11.
[93] Y. Haradji, G. Poizat, et F. Sempé, « L’activité humaine et la conception d’une plateforme de
simulation sociale », p. 7, 2012.
[94] G. Plessis, A. Kaemmerlen, et A. Lindsay, « BuildSysPro: a Modelica library for modelling buildings
and energy systems », Poster Session, p. 9, 2014.
[95] RTE, « Futurs énergétiques 2050 ». octobre 2021.
[96] E. Vanet, « Distributed intelligence and heterarchical approach of distributed balancing markets in
Smart Grids », p. 262, 2006.
[97] B. P. Swaminathan, « Operational Planning of Active Distribution Networks - Convex Relaxation
under Uncertainty ».
[98] « https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000042032189/ ».
[99] B. Tavares et F. J. Soares, « An innovative approach for distribution network reinforcement
planning: Using DER flexibility to minimize investment under uncertainty », Electric Power Systems
Research, vol. 183, p. 106272, juin 2020, doi: 10.1016/j.epsr.2020.106272.
[100] G. Pampin, H. G. Sarmiento, R. Castellanos, G. Villa, et M. Mirabal, « An example of risk
assessment in a large metropolitan area », in IEEE PES T&D 2010, New Orleans, LA, USA, 2010, p.
1‑6. doi: 10.1109/TDC.2010.5484640.
[101] I. I. Avramidis, F. Capitanescu, et G. Deconinck, « On the Contributions of Operational Flexibility
Offered by Smart Sustainable Residential Buildings », in 2020 IEEE PES Innovative Smart Grid
Technologies Europe (ISGT-Europe), The Hague, Netherlands, oct. 2020, p. 834‑838. doi:
10.1109/ISGT-Europe47291.2020.9248929.
[102] ENEDIS, « Enedis-PRO-RES_50E : Principes d’étude et règles techniques pour le raccordement
au Réseau Public de Distribution géré par Enedis d’une Installation de Consommation en HTA ».
2020.
[103] P. S. de Laplace et L. É. B. frères, Mémoire sur les approximations des formules qui sont
fonctions de très-grands nombres, et sur leur application aux probabilités. Baudouin, 1810. [En
ligne]. Disponible sur: https://books.google.fr/books?id=qsD1GgAACAAJ
[104] D. Ellard et P. Ellard, SQ Course Book. 2003.
[105] ADEME et ERD, « Catalogue des outils et techniques de MDE en reseaux ruraux ».
[106] S. Kucherenko, S. Song, et L. Wang, « Quantile based global sensitivity measures », Reliability
Engineering & System Safety, vol. 185, p. 35‑48, mai 2019, doi: 10.1016/j.ress.2018.12.001.
[107] V. Miranda et L. M. Proenca, « Probabilistic choice vs. risk analysis-conflicts and synthesis in
power system planning », IEEE Trans. Power Syst., vol. 13, no 3, Art. no 3, août 1998, doi:
10.1109/59.709095.

142
143
VIII. Annexes
Annexe A : Utiliser une monotone de charge
pour simuler la consommation des clients
Inspiré de [41], nous avons essayé de reconstruire un modèle de charges pour simuler la
consommation des réseaux. Pour ce faire, nous avons utilisé des courbes de charges à disposition et à
partir de celle-ci, la monotone de charge a été calculée puis découpée en trois parties pour construire
3 fonctions de probabilités comme présenté dans la Figure VIII-1.

Figure VIII-1: Découpage de la monotone en trois distributions normales

Ensuite, à partir des courbes de charges à disposition, la probabilité d’interaction entre les fonctions
de densité a été signalée, c’est-à-dire si la consommation au poste de distribution est dans l’espace 1
de la Figure VIII-1, quelle est la probabilité qu’un client soit aussi dans l’espace 1 de sa propre
monotone (Figure VIII-4). Après expérimentation, nous avons construit 4 intervalles au lieu de 3
proposés par [41], pour mieux correspondre au besoin de la BT. Les résultats de l’étude sont présentés
par les Figure VIII-2 et Figure VIII-3. La comparaison entre la distribution probabiliste obtenu à l’aide
de ces figures et une monotone agrégée de client ne fut pas suffisamment convaincante pour
continuer dans cet axe de recherche.

144
Proportion de client dans chaque intervalle en fonction du nombre de client
0.8

0.7

0.6

Intervalle 1
0.5
Intervalle 2

Intervalle 3

Intervalle 4
Proportion de client

0.4

0.3

0.2

0.1

0
0 50 100 150 200 250

Nombre de consommateurs dans lagrégation

Figure VIII-2 : Répartition des clients entre les intervalles lorsque le poste de distribution reçoit une forte demande
d’électricité.

Fonction de répartition des 4 lois demi-normales


1

0.9

Intervalle 1
0.8
Intervalle 2

Intervalle 3

Intervalle 4

0.7

0.6

0.5
Probabilité

0.4

0.3

0.2

0.1

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Puissance (pu normalisé pmax)

Figure VIII-3 : Fonction de répartition des 4 intervalles afin de probabiliser la demande d'électricité au niveau du poste de
distribution

145
Figure VIII-4: illustration du calcul de probabilité d'interaction entre les monotones

146
Annexe B : Impact du déséquilibre
B.1. Théorie
Formule du déséquilibre :
𝐶𝐶ℎ𝑢𝑢𝑢𝑢𝑢𝑢 𝑑𝑑𝑑𝑑 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐é𝑒𝑒 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑢𝑢𝑢𝑢𝑢𝑢 𝑟𝑟é𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑑𝑑é𝑠𝑠é𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞é𝑒𝑒 VIII-1
𝐶𝐶ℎ𝑢𝑢𝑢𝑢𝑢𝑢 𝑑𝑑𝑑𝑑 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐é𝑒𝑒 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑢𝑢𝑢𝑢𝑢𝑢 𝑟𝑟é𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 é𝑔𝑔𝑔𝑔𝑔𝑔𝑔𝑔 𝑠𝑠𝑠𝑠𝑠𝑠 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑙𝑙𝑙𝑙𝑙𝑙 𝑝𝑝ℎ𝑎𝑎𝑠𝑠𝑠𝑠𝑠𝑠

Formules :
𝑃𝑃1 (1 + 𝑖𝑖. 𝑡𝑡𝑡𝑡𝑡𝑡∅) ∗
⎧𝐼𝐼1 =( )
⎪ 𝑉𝑉𝐵𝐵1
⎪ 𝑃𝑃2 (1 + 𝑖𝑖. 𝑡𝑡𝑡𝑡𝑡𝑡∅) ∗
𝐼𝐼2 =( ) VIII-2
𝑉𝑉𝐵𝐵2
⎨ 𝑃𝑃3 (1 + 𝑖𝑖. 𝑡𝑡𝑡𝑡𝑡𝑡∅) ∗
⎪𝐼𝐼3 =( )
⎪ 𝑉𝑉𝐵𝐵3
⎩ 𝐼𝐼𝑁𝑁 = 𝐼𝐼1 + 𝐼𝐼2 + 𝐼𝐼3

𝑉𝑉𝐴𝐴1 − 𝑉𝑉𝐵𝐵1 = �𝑅𝑅𝑝𝑝 + 𝑖𝑖𝑋𝑋𝑝𝑝 �𝐼𝐼1 + (𝑅𝑅𝑛𝑛 + 𝑖𝑖𝑋𝑋𝑛𝑛 )𝐼𝐼𝑁𝑁


�𝑉𝑉𝐴𝐴2 − 𝑉𝑉𝐵𝐵2 = �𝑅𝑅𝑝𝑝 + 𝑖𝑖𝑋𝑋𝑝𝑝 �𝐼𝐼2 + (𝑅𝑅𝑛𝑛 + 𝑖𝑖𝑋𝑋𝑛𝑛 )𝐼𝐼𝑁𝑁 VIII-3

𝑉𝑉𝐴𝐴3 − 𝑉𝑉𝐵𝐵3 = �𝑅𝑅𝑝𝑝 + 𝑖𝑖𝑋𝑋𝑝𝑝 �𝐼𝐼3 + (𝑅𝑅𝑛𝑛 + 𝑖𝑖𝑋𝑋𝑛𝑛 )𝐼𝐼𝑁𝑁

Données d’entrées

Tensions poste source :


𝑉𝑉𝐴𝐴1 = 230
2𝜋𝜋
𝑖𝑖
�𝑉𝑉𝐴𝐴2 = 230𝑒𝑒 3
4𝜋𝜋
𝑉𝑉𝐴𝐴3 = 230𝑒𝑒 𝑖𝑖 3 VIII-4
Caractéristiques des conducteurs :
𝑅𝑅𝑝𝑝 = 0,206𝛺𝛺

𝑋𝑋𝑝𝑝 = 0,1𝛺𝛺
⎨𝑅𝑅𝑛𝑛 = 0,443𝛺𝛺
⎩ 𝑋𝑋𝑛𝑛 = 0,1𝛺𝛺
Résultats cas déséquilibré :

Consommations :
𝑃𝑃1 = 3𝑘𝑘𝑘𝑘
𝑃𝑃
� 2 = 0𝑘𝑘𝑘𝑘
𝑃𝑃3 = 0𝑘𝑘𝑘𝑘
Tensions phase neutre :
𝑉𝑉𝐵𝐵1 = 222,6𝑉𝑉 VIII-5
�𝑉𝑉𝐵𝐵2 = 229,4𝑉𝑉
𝑉𝑉𝐵𝐵3 = 236,0𝑉𝑉
Courants :
𝐼𝐼1 = 𝐼𝐼𝑛𝑛 = 14,5𝐴𝐴
� 𝐼𝐼2 = 0𝐴𝐴
𝐼𝐼3 = 0𝐴𝐴

147
Résultats cas équilibré :

Consommations :
𝑃𝑃1 = 1𝑘𝑘𝑘𝑘
�𝑃𝑃2 = 1𝑘𝑘𝑘𝑘
𝑃𝑃3 = 1𝑘𝑘𝑘𝑘
Tensions phase neutre : VIII-6
{𝑉𝑉𝐵𝐵1 = 𝑉𝑉𝐵𝐵2 = 𝑉𝑉𝐵𝐵3 = 229,3𝑉𝑉
Courants :
𝐼𝐼 = 𝐼𝐼2 = 𝐼𝐼3 = 4,7𝐴𝐴
�1
𝐼𝐼𝑛𝑛 = 0𝐴𝐴

Déséquilibre :
𝑑𝑑é𝑠𝑠é𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞é
𝑉𝑉𝐴𝐴1 − 𝑉𝑉𝐵𝐵1 VIII-7
é𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞é
= 9,16
𝑉𝑉𝐴𝐴1 − 𝑉𝑉𝐵𝐵1

B.2. Simulation :

Figure VIII-5 : réseau du cas d'étude

Hypothèses :

- Tous les clients (entre 1 et 15) sont à la même distance du transformateur


- Tan phi = 0.4
- Consommation aléatoire obtenue par loi uniforme entre 1500 et 4500W.
- Branchement d’une charge sur trois sur la même phase (Figure VIII-6)
- Branchement des charges aléatoirement (Figure VIII-7)
- Transformateur dimensionné à 100kVA et ligne de 1000m

148
Chute de tension déséquilibrée / chute de tension équilibrée
9

5
Déséquilibre

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Nombre de client(s)

Figure VIII-6 : Distribution des simulations avec un branchement uniforme

La Figure VIII-6 montre que le déséquilibre défini par l’équation VIII-1 s’atténue en fonction du nombre
de client sur un réseau lorsque les clients sont parfaitement raccordés.
Chute de tension déséquilibrée / chute de tension équilibrée

14

12

10

8
Déséquilibre

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Nombre de client(s)

Figure VIII-7 : Distribution des simulations avec un branchement aléatoire

Le déséquilibre des simulations de la Figure VIII-7 dépasse les valeurs théoriques, ce qui s’explique par
un déséquilibre trop important que le solveur ne fonctionne pas correctement.

Ces deux figures montrent l’impact du déséquilibre et notamment l’importance d’avoir un


raccordement homogène pour éviter des disparités trop importantes.

149
Annexe C : Calcul du coefficient de
foisonnement à partir de courbes de charges
réelles
A partir des courbes de charges du régulateur Irlandais, nous souhaitions calculer l’évolution de
coefficient de foisonnement en fonction du nombre de charges. Le coefficient de foisonnement que
nous avons obtenu est calculé à partir de la division entre :

Numérateur : Somme des courbes de charges annuelles.


Dénominateur : Somme des maximums des mêmes courbes de charges (tri dans l’ordre
décroissant).

Pour le numérateur, comme pour le dénominateur, la valeur utilisée est la moyenne sur les 10
premières valeurs des sommes, soit les 10 points de consommation maximale sur l’année.

Nous avions 1008 courbes de charges à disposition. Pour avoir une valeur du foisonnement la plus
représentative de notre échantillon, nous avons utilisé la méthode Monte Carlo pour calculer plusieurs
coefficients de foisonnement et calculer ensuite la moyenne. Le nombre de tirages Monte Carlo est
défini par l’équation ci-dessous :

𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁 𝑑𝑑𝑑𝑑 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀 𝐶𝐶𝐶𝐶𝐶𝐶𝐶𝐶𝐶𝐶 = 1000�


�𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑𝑑𝑑 𝑐𝑐ℎ𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎

Les résultats sont présentés dans la Figure VIII-8 montrant une évolution rapide du foisonnement à
tendre vers l’asymptote.

0.8

Foisonnement moyen

Quantile 0,9 du foisonnement

0.7

0.6
Coefficient de foisonnement

0.5

0.4

0.3

0.2
0 20 40 60 80 100 120 140 160 180 200

Nombre de courbes de charges foisonnées

Figure VIII-8 : Evolution du coefficient de foisonnement en fonction du nombre de courbes de charge

150
Annexe D : Caractéristique des réseaux
simulés

Numéro réseaux 1 2
Nb de charges 51 57
Nb de Nœuds contenant des charges 41 31
Distance max entre une charge et le transformateur 990 437
Longueur totale du réseau (m) 2 683 820
% ligne aérienne 34,59 29,15
% câble souterrain 65,41 70,85
Puissance transformateur (kVA) 100 160
Σ Puissance souscrite (kVA) 384 380
Prise du transformateur +2,5% +2,5%
Tableau VIII-1 : Résumé des principales informations des deux réseaux d'études.

Réseau d’étude n°1 :

151
152
Affichage du numéro des charges et 34 29
19 45 20 21 18
17
conducteurs 47 33 28 16
13 12 15 16 17 18 27
23 91
51 20
37 38 7 4 3 32
22
35
32 33 31
30
10
34
11
35
25
24 43
26
54
23 48
56 82
88 89
1
80 37
90 43 36
49
1
50
44 45
46
81 47
42
48
14
13
77
12
15
78
6
7
1 44 39 46 38 2 4 3
9
75 24
25
26
58 59 60 62 66 68 70 71 72 73
5 8
41
40
28 85
153
Affichage du numéro des nœuds 12 4 13 14 15 16
18 52
26 27 11 17
10 3
23 9

Figure VIII-9 : Représentation avec DisNetSimPl du réseau d'étude n°1


24
25
34
6 48
50 51
2
22
28 5
29 30
31
45 32
33
46
47
44 19
20
21
35 36 37 38 39 7 40 41 42 43
8 49
Puissance
Nœud de départ Nœud d’arrivée Longueur (m) Conducteur
souscrite
T 1 1 T 50 AL [0 0 0]
1 2 104 3x150AL + 70AL [0 0 6]
2 3 1 3x150AL + 70AL [0 0 0]
3 4 7 3x95AL + 50AL [0 0 6]
4 5 32 3x95AL + 50AL [0 9 0]
3 6 29 3x150AL + 70AL [6 0 0]
6 7 110 3x150AL + 70AL [3 3 9]
7 8 73 3x150AL + 70AL [6 6 6]
8 9 7 3x150AL + 70AL [0 12 0]
9 10 99 3x150AL + 70AL [10 10 10]
10 11 107 3x95AL + 50AL [4 4 4]
11 12 48 3x95AL + 50AL [0 0 12]
12 13 75 3x95AL + 50AL [0 6 0]
13 14 5 3x95AL + 50AL [6 0 0]
14 15 4 3x95AL + 50AL [3 3 3]
15 16 31 3x95AL + 50AL [6 6 6]
17 18 4 3x95AL + 50AL [6 0 0]
112 3x95AL + 50AL
18 19 [2 2 2]
180 T 70 AL
1 20 144 T 50 AL [0 0 0]
20 21 1 T 35 AL [30 0 0]
21 22 40 T 35 AL [0 0 3]
20 23 34 T 50 AL [4 4 4]
23 24 15 T 50 AL [7 7 10]
1 T 50 AL
24 25 [0 0 0]
20 3x95AL + 50AL
25 26 65 3x95AL + 50AL [0 6 0]
53 3x95AL + 70AL
26 27 [0 0 3]
8 T 70 AL
25 28 1 3x95AL + 50AL [6 0 0]
28 29 2 3x95AL + 50AL [4 4 4]
29 30 2 3x95AL + 50AL [0 0 3]
30 31 5 3x95AL + 50AL [0 0 6]
31 32 2 3x95AL + 50AL [0 0 6]
1 33 1 3x150AL + 70AL [3 0 0]
33 34 1 3x150AL + 70AL [3 3 3]
34 35 8 3x150AL + 70AL [0 6 0]
35 36 6 3x150AL + 70AL [0 3 0]
36 37 88 3x150AL + 70AL [0 6 0]
37 38 13 3x150AL + 70AL [0 6 0]
38 39 14 3x150AL + 70AL [0 0 0]
39 40 7 3x150AL + 70AL [0 6 0]
40 41 1 3x150AL + 70AL [4 4 4]
41 42 25 3x150AL + 70AL [0 0 0]
150 3x95AL + 50AL
42 43 [2 2 2]
68 T 70 AL
42 44 1 3x95AL + 50AL [0 3 0]
44 45 41 3x95AL + 50AL [6 0 0]

154
45 46 10 3x95AL + 50AL [0 0 9]
46 47 48 3x95AL + 50AL [7 7 7]
Tableau VIII-2 : Caractéristiques du réseau d'étude n°1

Réseau d’étude n°2 :

155
156
Affichage du numéro des charges et
conducteurs
15
36
14 44
35
13
44
12
43 48 47
11 56
46
57 61
10
45
9
51 28
19 21 18 20 24 22
8
50 53 27
34
7 30 31 32 33 34 35 36 1
49 16 52 17 26
38 39 37 54
17 40 41 23
6
5 25
24 25 26 27 28 29
19 46 47 48 49
14 15
56 4 30
55
1 29
10 12 13 3
1 57
4
55
21
54
41
40
20 50
51
42
52
33
32
16 38
31
3
2
8
1
157
Affichage du numéro des nœuds

Figure VIII-10 : Représentation avec DisNetSimPl du réseau d'étude n°2


35
43
44 45
26 27 28 29 30 31 32 8
42
15 34 16
6 22 23 24 25 7
17 36 37 38 18
13 5
20
2 9
4 12 3
10
21
19 39
40
41
14 33
11
Puissance
Nœud de départ Nœud d’arrivé Longueur (m) Conducteur
souscrite
T 1 27 3x95AL + 50AL [0 9 0]
1 2 5 3x95AL + 50AL [9 0 0]
2 3 1 3x95AL + 50AL [0 0 0]
3 4 22 3x95AL + 50AL [3 3 15]
3 5 20 3x95AL + 50AL [50 0 6]
5 6 4 3x95AL + 50AL [0 0 0]
14 3x95AL + 50AL
6 7 [0 15 0]
26 T 70 AL
15 3x150AL + 70AL
6 8 [0 0 6]
21 T 150 AL
8 9 9 T 150 AL [0 0 0]
9 10 6 T 70 AL [0 18 0]
5 3x150AL + 70AL
9 11 [6 0 0]
5 T 70 AL
11 12 8 T 70 AL [0 0 6]
12 13 8 T 70 AL [0 6 0]
13 14 1 T 70 AL [0 0 0]
9 3x95AL + 50AL
14 15 [3 0 0]
2 T 70 AL
15 16 1 T 70 AL [3 3 3]
16 17 5 T 70 AL [3 3 3]
14 18 17 T 70 AL [0 0 0]
18 19 12 T 70 AL [0 21 0]
19 20 14 T 70 AL [0 3 0]
20 21 13 T 70 AL [9 3 0]
18 22 9 T 70 AL [0 0 0]
22 23 12 3x95AL + 50AL [0 3 6]
49 3x150AL + 70AL
23 24 [24 0 0]
1 3x95AL + 50AL
24 25 3 3x95AL + 50AL [0 0 6]
25 26 19 3x95AL + 50AL [0 12 0]
26 27 19 3x95AL + 50AL [0 12 0]
27 28 21 3x95AL + 50AL [0 0 0]
28 29 16 3x95AL + 50AL [4 10 4]
29 30 76 3x95AL + 50AL [4 4 4]
28 31 8 3x95AL + 50AL [0 0 6]
31 32 7 3x95AL + 50AL [6 0 0]
32 33 1 3x95AL + 50AL [6 0 0]
33 34 2 3x95AL + 50AL [0 6 0]
34 35 49 3x95AL + 50AL [4 4 4]
35 36 2 3x95AL + 50AL [0 0 3]
36 37 3 3x95AL + 50AL [4 4 4]
37 38 98 3x95AL + 50AL [0 0 27]
Tableau VIII-3 : Caractéristiques du réseau d'étude n°2

158
Résistance Inductance Résistance Inductance
Conducteur Type
phase phase neutre neutre
3x240AL +
Souterrain 0,000135 0,000185 0,000341 0,000391
95AL
3x150AL +
Souterrain 0,00021579 0,00015517 0,0004624 0,00015517
70AL
T 150 AL Torsadé 0,000216 0.000266 0,000216 0,000266
3x95AL + 50AL Souterrain 0,000341 0,000391 0,000647 0,000697
T 70 AL Torsadé 0,000462 0,000512 0,000687 0,000737
T 50 AL Torsadé 0,000647 0,000697 0,000687 0,000737
T 35 AL Torsadé 0,000925 0,000975 0,000687 0,000737
Tableau VIII-4 : Caractéristiques des conducteurs utilisés dans les réseaux

159
Annexe E : Renforcement en fonction de la
tension en amont du poste de distribution
public

Numéro solution 1 2
Tension poste source 1pu
Taux de contraintes initial 17%
Conducteur(s) renforcé(s) / 5
Longueur à changer 0 107
Cout du renforcement (€) 0 18 k€
Flexibilité(s) activée(s) 45 /
Coût annuel de la flexibilité (€) 72 0
Probabilité d’activation (α) 0,7 1
Indice de sévérité (β) 0,9 0
Cout de la pénalité 18 k€ 0
Coût annuel de la solution 4,9 k€ 18 k€
Tableau VIII-5 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil avec tension du poste source à
1pu sur la dernière année cible

Numéro
1 2 3 4 5 6
solution
Tension poste
0,98pu
source
Taux de
contrainte 43%
initial
Conducteur(s)
/ 44 5 16 21 1
renforcé(s)
Longueur à
0 144 251 355 465 564
changer
Coût du
renforcement 0 24 k€ 40 k€ 55 k€ 72 k€ 87 k€
(€)
Flexibilité(s)
45 45 45 45 45 /
activée(s)
Coût annuel
de la 72 72 72 72 72 0
flexibilité (€)
Probabilité
d’activation 0,7 0,7 0,7 0,7 0,7 1
(α)
Indice de
3,6 2,6 1,8 1,3 0,7 0
sévérité (β)
Coût de la
87 k€ 63 k€ 46 k€ 31 k€ 15 k€ 0
pénalité

160
Coût annuel
93 k€ 73 k€ 64 k€ 67 k€ 75 k€ 87 k€
de la solution
Tableau VIII-6 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil avec tension du poste source à
0,98pu sur la dernière année cible

Numéro
1 2 3 4 5 6 7 8 9
solution
Tension poste
0,97pu
source
Taux de
contrainte 67%
initial
Conducteur(s)
/ 44 5 16 21 1 3 4 20
renforcé(s)
Longueur à
0 144 251 355 465 564 637 685 714
changer
Coût du
renforcement 0 24 k€ 40 k€ 55 k€ 72 k€ 87 k€ 98€ 105k€ 109k€
(€)
Flexibilité(s)
45 45 45 45 45 45 45 45 /
activée(s)
Coût annuel
de la 72 72 72 72 72 72 72 72 0
flexibilité (€)
Probabilité
d’activation 0,7 0,7 0,7 0,7 0,7 0,7 0,7 0,7 1
(α)
Indice de
7,3 4,4 3,6 2,8 2,1 1,7 1,2 0,8 0
sévérité (β)
Coût de la
109 k€ 85 k€ 69 k€ 54 k€ 37 k€ 22k€ 11k€ 4k€ 0
pénalité
Coût annuel
238 k€ 135 k€ 115 k€ 100 k€ 95 k€ 98 k€ 102€ 106€ 109k€
de la solution
Tableau VIII-7 : Tableau des résultats de l'algorithme d'augmentation de la capacité d'accueil avec tension du poste source à
0,97pu sur la dernière année cible

161
Annexe F : Sensibilité de la fonction de
sévérité
La fonction de sévérité (Figure VIII-11) permet de pénaliser de violentes contraintes pouvant
apparaitre sur le réseau. Cependant, cette fonction a besoin d’être calibrée. C’est un enjeu majeur si
cette fonction à vocation à être diffusée.

3
Sévérité

0
0.7 0.8 0.9 1 1.1 1.2 1.3 1.4

Tension (pu)

Figure VIII-11 : Fonction de sévérité s(v)

Avec S(v) = −ax + b pour v < 0,9

Pour comparer la sévérité, les résultats du cas d’étude n°1 réalisé dans le chapitre V servira de
démonstration. Ci-dessous, les 4 distributions de la tension des simulations contraintes pour les
différents niveaux de renforcement sans activation de la flexibilité :

0.18

0.16

0.14

0.12

0.1
Frequence

0.08

0.06

0.04

0.02

0
190 195 200 205 210 215 220 225 230 235
Tension (V)

Figure VIII-12 : Distribution des tensions sans renforcement pour le cas d’étude 1 à l’année 2035 (S1)

162
La Figure VIII-12 présente la distribution des tensions des 29% de simulations contraintes pour la
solution S1.

0.2

0.18

0.16

0.14

0.12
Frequence

0.1

0.08

0.06

0.04

0.02

0
190 195 200 205 210 215 220 225 230 235
Tension (V)

Figure VIII-13 : Distribution des tensions avec 1 renforcement pour le cas d’étude 1 à l’année 2035 (S2)

La Figure VIII-13 présente la distribution des tensions des 26% de simulations contraintes pour la
solution S2.

0.4

0.35

0.3

0.25
Frequence

0.2

0.15

0.1

0.05

0
190 195 200 205 210 215 220 225 230
Tension (V)

Figure VIII-14 : Distribution des tensions avec 2 renforcements pour le cas d’étude 1 à l’année 2035 (S3)

La Figure VIII-14 présente la distribution des tensions des 12% de simulations contraintes pour la
solution S3.

163
18

16
S1
S2

14 S3

12
Beta x Probabilité de contrainte

10

0
1 2 3 4 5 6 7 8 9 10
a

Figure VIII-15 : Variation du coefficient directeur avec b=10

La modification du coefficient directeur de la sévérité (a), comme proposé avec la Figure VIII-15,
permet de contraindre les chutes de tension importantes en augmentant la valeur. Cependant, sans
un changement de norme, le coefficient directeur doit toujours être inférieur ou égal à l’ordonnée à
l’origine moins un. Ensuite, plus on diminue le coefficient directeur, plus la valeur de sévérité des
tensions se rapprochent.

Dans notre cas d’étude, les contraintes de tensions sont « plutôt faibles » (Figure VIII-12 à la Figure
VIII-14). C’est pour cette raison que lorsque a diminue, la valeur de sévérité des faibles contraintes (de
tension) augmente (Figure VIII-16) :

Figure VIII-16 : Evolution du coefficient directeur de la fonction de sévérité

164
35

S1
30
S2
S3

25
Beta x Probabilité de contrainte

20

15

10

0
10 15 20 25

Figure VIII-17 : Variation de l'ordonnée à l'origine avec a=10

La variation de l’ordonnée (b) fait varier la sévérité linéairement, comme pour la variation du
coefficient directeur. Contrairement à ce dernier, la variation de b permet d’augmenter la sévérité
proportionnellement sur tous les nœuds et phases en dehors des limites de tension.

Les résultats de la fonction de sévérité en fonction des valeurs a et b et des solutions Smart Grid :

Coefficient Sévérité pour S1 Sévérité pour S2 Sévérité pour S3


a =10 ; b = 10 2,16 1,60 0,74
a =10 ; b = 15 11,67 8,53 3,98
a =5 ; b =10 10,59 7,73 2.47
a =15 ; b = 15 3,24 2,40 0,75
a =11 ; b =10 0,48 0,37 0,11

Pour résumé :

- Un tirage Monte Carlo a été réalisé sur les 10 pas de temps les plus consommateurs d’une
année avec une répartition aléatoire de courbe de charges et 29% des simulations sont
contraintes, puis 26% puis 12% ;
- Dans la distribution des tensions de ces 29%, représentée par la Figure VIII-12, 6,5% des
tensions sont hors limite ;
- Pour ces 6,5% de tensions hors limite, le coût de la pénalité est multiplié par la sévérité de S1.

De mon point de vue et sans information sur l’impact d’une alimentation hors limite de tension,
multiplier le coût de pénalité par 2,16 me semble convenable.

165
Annexe G : Corrélation entre consommation et production
Prod 90  80  90 70  80 60  70 50  60 40  50 30  40 20  30 10  20 010 Somme
100
Conso
90  0 0 0 0 0 0 0 0 0 0,2% 0,25%
100
80  0 0 0 0 0 0 ≈0 ≈0 0,1% 0,9% 1,10%
90
70  0 0 0 ≈0 ≈0 ≈0 ≈0 0,1% 0,5% 3,6% 4,32%
80
60  0 0 0 ≈0 ≈0 0,1% 0,2% 0,3% 0,7% 6,5% 7,85%
70
50  0 0 ≈0 ≈0 ≈0 0,2% 0,3% 0,5% 0,8% 9,12% 11,07%
60
40  0 0 ≈0 0,2% 0,2% 0,3% 0,3% 0,6% 1,3% 9,83% 12,88%
50
30  0 0,1% 0,1% 0,3% 0,3% 0,3% 0,3% 0,7% 1,3% 8,8% 12,25%
40
20  ≈0 0,1% 0,2% 0,4% 0,4% 0,5% 0,7% 1,1% 1,4% 9,5% 14,23%
30
10  0 0,1% 0,5% 0,6% 0,7% 0,8% 0,9% 1,2% 1,5% 10,8% 16,98%
20
010 ≈0 0,1% 0,1% 1,5% 1,5% 1,8% 1,9% 2,2% 2,1% 7,4% 19,12%
Somme 0,01% 0,33% 1,83% 2,87% 3,27% 4,08% 4,6% 6,62% 9,65% 66,71% 100%

166
Résumé
Ces dernières années, les gestionnaires des réseaux électriques de distribution font face à de nouveaux
challenges : l’augmentation du nombre de véhicules électriques et des capacités de production
décentralisée, ainsi que le développement des solutions Smart Grid. Ces changements induisent des
incertitudes supplémentaires et de nouvelles contraintes à prendre en compte dans les processus de
planification des réseaux. Cependant, les méthodes actuelles sont limitées pour traiter efficacement
ces différents challenges.

Dans ce contexte, l’utilisation de modèles statistiques a été la solution retenue afin de proposer une
méthode de planification pour les réseaux basse tension. Nous avons développé des algorithmes pour
considérer plusieurs sources d’incertitudes. A travers plusieurs scénarios de croissance, notre
méthodologie d’intégration de l’effacement de la consommation et de la production est exposée.
Plusieurs variables sont introduites pour calculer la probabilité de contraintes sur le réseau et estimer
leurs impacts financiers sur le réseau et les clients. La principale contribution de la thèse est la
possibilité de comparer des investissements comprenant uniquement du renforcement avec des
investissements incluant de la flexibilité. Les algorithmes ont été développés sous DisNetSimPl et sont
réutilisables et adaptables par EDF R&D.

Abstract
Recently, DSOs have been facing new challenges, induced by the high level of uncertainties brought by
the development of distributed energy resources (DERs), smart grid solutions (i.e., flexibility solutions)
and smart devices. These changes need to be considered in the network planning processes. However,
current methods have shown limitation in effectively dealing with these different challenges.

In this context, the use of statistical models has been the chosen solution to propose a planning
method for low voltage networks. We have developed algorithms to consider several sources of
uncertainty. Through several growth scenarios, our methodology for integrating consumption and
generation shedding is presented. Several variables are introduced to calculate the probability of
constraints on the network and to estimate their financial impacts on the network and the customers.
The main contribution of the thesis is the possibility to compare reinforcement-based investments
with flexibility-based investments. The algorithms have been developed in DisNetSimPl for been used
and adapted by EDF R&D.

167

You might also like