Gestion du niveau de service dans les environnements émergents 9781789480023, 9781789490022, 1789480027

Le réseau devient embarqué dans notre vie quotidienne grâce à des composants de plus en plus petits, peu coûteux, puissa

126 88 20MB

French Pages [280] Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Gestion du niveau de service dans les environnements émergents
 9781789480023, 9781789490022, 1789480027

Table of contents :
Cover
Table des matières
Avant-propos
Chapitre 1 Gestion du niveau de servicedans l’Internet des objets (IdO)
Chapitre 2 Gestion du niveau de service dans le Cloud
Chapitre 3 Gestion de la demande d’énergie en tant que service dans un environnement de type smart grid
Chapitre 4 Gestion de la qualité de service et de la sécurité dans un environnement e-santé
Chapitre 5 Gestion de la qualité de service dans les réseaux maillés sans fil
Chapitre 6 Gestion de l’authentification et de la confiance par blockchain dans les réseaux décentralisés
Chapitre 7 L’apport de l’apprentissage automatique pour résoudre les contraintes liées à la mobilité dans le cadre des communications D2D
Chapitre 8 Impact de la radio cognitive sur le green networking : approche par apprentissage par renforcement
Liste des auteurs
Index

Citation preview

Mbarek.qxp_Mise en page 1 25/02/2020 13:59 Page 1

Cet ouvrage présente différentes approches pour permettre la gestion d’un ou plusieurs composants du niveau de service dans différents environnements émergents tels que l’Internet des objets, le Cloud, les smart grids, la e-santé, les réseaux radio maillés, le D2D, les villes intelligentes ou encore le green networking. Il permet ainsi une meilleure compréhension des défis et enjeux importants relatifs à la gestion de la qualité de service, la sécurité et la mobilité dans ce type d’environnements.

Le coordonnateur Maître de conférences à l’école d’ingénieurs ESIREM de l’Université de Bourgogne, Nader Mbarek est responsable du thème Réseaux de l’équipe CombNet au sein du Laboratoire d’informatique de Bourgogne (LIB). Il est titulaire d’une thèse en informatique de l’Université de Bordeaux.

editions

Z(7ib7iJ-EIAACD(

sous la direction de Nader Mbarek

Le réseau devient embarqué dans notre vie quotidienne grâce à des composants de plus en plus petits, peu coûteux, puissants, rapides et de plus en plus connectés entre eux. Parallèlement à cette explosion quantitative des réseaux de communication, les technologies se complexifient. Cette évolution s’accompagne de challenges en termes de gestion et de contrôle, et il devient nécessaire de gérer le niveau de service demandé par le client et sur lequel s’engage le fournisseur de services.

RÉSEAUX ET COMMUNICATIONS

Gestion du niveau de service dans les environnements émergents

SCIENCES

Gestion du niveau de service dans les environnements émergents

editions

Gestion et contrôle des réseaux

sous la direction de Nader Mbarek

Gestion du niveau de service dans les environnements émergents

First published 2020 in Great Britain by ISTE Editions Ltd.

Apart from any fair dealing for the purposes of research or private study, or criticism or review, as permitted under the Copyright, Designs and Patents Act 1988, this publication may only be reproduced, stored or transmitted, in any form or by any means, with the prior permission in writing of the publishers, or in the case of reprographic reproduction in accordance with the terms and licenses issued by the CLA. Enquiries concerning reproduction outside these terms should be sent to the publishers at the undermentioned address: ISTE Editions Ltd 27-37 St George’s Road London SW19 4EU UK

© ISTE Editions Ltd 2020 The rights of the authors of this work have been asserted by them in accordance with the Copyright, Designs and Patents Act 1988.

British Library Cataloguing-in-Publication Data A CIP record for this book is available from the British Library ISBN: 978-1-78948-002-3 (print) ISBN: 978-1-78949-002-2 (e-book) ERC code: PE7 Systems and Communication Engineering PE7_1 Control engineering PE7_8 Networks (communication networks, sensor networks, networks of robots, etc.)

Printed and bound in Great Britain by CPI Group (UK) Ltd., Croydon, Surrey CR0 4YY, March 2020

Encyclopédie SCIENCES Réseaux et communications, domaine dirigé par Guy Pujolle Gestion et contrôle des réseaux, thème dirigé par Francine Krief

Gestion du niveau de service dans les environnements émergents

sous la direction de

Nader Mbarek

editions

Table des matières Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nader MBAREK

1

Chapitre 1. Gestion du niveau de service dans l’Internet des objets (IdO). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ahmad KHALIL, Nader MBAREK et Olivier TOGNI 1.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Définitions de l’IdO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Généralités sur l’IdO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1. Architectures de l’IdO . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2. Domaines d’application de l’Internet des objets . . . . . . . . . . 1.4. Gestion de la sécurité et de la protection de la vie privée dans l’IdO . 1.4.1. Motivations et challenges . . . . . . . . . . . . . . . . . . . . . . . 1.4.2. Services de sécurité dans un environnement IdO . . . . . . . . . 1.4.3. Protection de la vie privée et confiance dans l’IdO . . . . . . . . 1.5. Gestion de la qualité de service dans l’IdO . . . . . . . . . . . . . . . . 1.5.1. Motivations et challenges . . . . . . . . . . . . . . . . . . . . . . . 1.5.2. Garantie de la QoS dans l’IdO . . . . . . . . . . . . . . . . . . . . 1.6. QBAIoT : méthode d’accès sans fil basée sur la QoS pour l’IdO . . . 1.6.1. Garantie du niveau de service dans l’IdO . . . . . . . . . . . . . . 1.6.2. Principe de fonctionnement de QBAIoT dans l’IdO . . . . . . . 1.6.3. Évaluation des performances de QBAIoT . . . . . . . . . . . . . 1.7. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 . . . . . . . . . . . . . . . . . .

5 6 7 7 10 12 12 14 22 26 26 27 33 33 36 41 43 44

vi

Gestion du niveau de service

Chapitre 2. Gestion du niveau de service dans le Cloud . . . . . . . Nader MBAREK 2.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Environnement de Cloud . . . . . . . . . . . . . . . . . . . . . 2.2.1. Cloud Computing . . . . . . . . . . . . . . . . . . . . . . 2.2.2. Cloud Networking . . . . . . . . . . . . . . . . . . . . . . 2.2.3. Inter-Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Niveau de service et gestion autonome dans le Cloud . . . . 2.3.1. Qualité de service dans un environnement de Cloud . 2.3.2. Sécurité dans un environnement Cloud . . . . . . . . . 2.3.3. Gestion autonome des environnements de type Cloud 2.4. Garantie de QoS dans le Cloud Networking . . . . . . . . . . 2.4.1. Architectures de Cloud Networking . . . . . . . . . . . 2.4.2. Évaluation des performances . . . . . . . . . . . . . . . 2.5. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

49 . . . . . . . . . . . . . .

Chapitre 3. Gestion de la demande d’énergie en tant que service dans un environnement de type smart grid . . . . . . . . . . . . . . . . Samira CHOUIKHI, Leila MERGHEM-BOULAHIA et Moez ESSEGHIR 3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Environnement des smart grids . . . . . . . . . . . . . . . . . 3.2.1. Microgrids intelligents . . . . . . . . . . . . . . . . . . . 3.2.2. Infrastructure d’information et de communication . . 3.3. Gestion de la demande : concepts fondamentaux. . . . . . . 3.3.1. Prévision de la charge . . . . . . . . . . . . . . . . . . . 3.3.2. Réponse à la demande DR . . . . . . . . . . . . . . . . . 3.4. Gestion côté demande DSM . . . . . . . . . . . . . . . . . . . 3.4.1. Architectures et composants des plateformes DSM . . 3.4.2. Classification des approches de DSM . . . . . . . . . . 3.4.3. Approches déterministes pour les usagers individuels 3.4.4. Approches stochastiques pour les usagers individuels 3.4.5. Approches déterministes pour les communautés de consommateurs . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.6. Approches stochastiques pour les communautés de consommateurs . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Techniques et méthodes de planification de la demande . . 3.5.1. Théorie des jeux . . . . . . . . . . . . . . . . . . . . . . . 3.5.2. Systèmes multi-agents . . . . . . . . . . . . . . . . . . . 3.5.3. Apprentissage automatique . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

87 88 89 90 91 92 92 94 94 96 97 97

. . . . . . .

99

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

87 . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . .

49 50 50 54 57 58 59 61 64 67 67 73 80 80

. . . . .

. . . . .

99 101 102 103 105

Table des matières

3.6. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Chapitre 4. Gestion de la qualité de service et de la sécurité dans un environnement e-santé . . . . . . . . . . . . . . . . . . . . . . . Mohamed-Aymen CHALOUF 4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Les systèmes e-santé . . . . . . . . . . . . . . . . . . . . . 4.2.1. Architecture . . . . . . . . . . . . . . . . . . . . . . . 4.2.2. Caractéristiques . . . . . . . . . . . . . . . . . . . . . 4.3. La qualité de service des systèmes e-santé . . . . . . . . 4.3.1. Les services e-santé et la qualité de service. . . . . 4.3.2. Gestion de la QoS dans les systèmes e-santé . . . . 4.4. La sécurité des systèmes e-santé . . . . . . . . . . . . . . 4.4.1. Les systèmes e-santé et la sécurité . . . . . . . . . . 4.4.2. La gestion de la sécurité dans les systèmes e-santé 4.5. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

vii

106 106

111 . . . . . . . . . . . .

Chapitre 5. Gestion de la qualité de service dans les réseaux maillés sans fil . . . . . . . . . . . . . . . . . . . . . . . Hajer BARGAOUI, Nader MBAREK et Olivier TOGNI 5.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Les réseaux maillés sans fil : généralités. . . . . . . . . . . . . . . . . . . 5.2.1. Définition d’un réseau maillé sans fil . . . . . . . . . . . . . . . . . 5.2.2. Architecture d’un réseau radio maillé sans fil . . . . . . . . . . . . 5.2.3. Caractéristiques d’un environnement maillé sans fil . . . . . . . . 5.2.4. Standards des réseaux maillés sans fil . . . . . . . . . . . . . . . . . 5.2.5. Domaines d’application . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Qualité de service dans les réseaux maillés sans fil . . . . . . . . . . . . 5.3.1. La qualité de service dans les réseaux . . . . . . . . . . . . . . . . . 5.3.2. Contraintes de QoS dans les réseaux maillés sans fil . . . . . . . . 5.3.3. Mécanismes de QoS dans les réseaux maillés sans fil . . . . . . . 5.3.4. Projets de recherche sur la QoS dans les réseaux maillés sans fil . 5.4. Routage basé sur la QoS pour les réseaux maillés sans fil . . . . . . . . 5.4.1. Exigences de routage dans les réseaux maillés sans fil . . . . . . . 5.4.2. Métriques de routage dans les réseaux maillés sans fil . . . . . . . 5.4.3. Protocoles de routage basés sur la QoS dans les réseaux maillés sans fil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

111 113 114 115 118 118 122 129 129 133 136 136

143 143 144 144 145 146 147 148 150 150 151 151 154 156 157 157 159

viii

Gestion du niveau de service

5.5. HQMR : protocole de routage hybride basé sur la QoS pour les réseaux radio maillés . . . . . . . . . . . . . . . . . . . 5.5.1. Description du protocole HQMR . . . . . . . . . . . 5.5.2. Fonctionnement du protocole HQMR . . . . . . . . 5.5.3. Validation du protocole HQMR . . . . . . . . . . . 5.6. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

Chapitre 6. Gestion de l’authentification et de la confiance par blockchain dans les réseaux décentralisés . . . . . . . . . . . . . Axel MOINET et Benoît DARTIES 6.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1. Challenges et motivations, état de l’art . . . . . . . . . . . . . . . 6.1.2. La blockchain, un support pour l’authentification et la confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2. L’architecture Blockchain Authentication and Trust Module (BATM) 6.2.1. Contexte de développement . . . . . . . . . . . . . . . . . . . . . . 6.2.2. Gestion des identités et authentification . . . . . . . . . . . . . . . 6.2.3. Calcul de confiance et de réputation par l’algorithme MLTE . . 6.3. Évaluation de BATM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1. Plan de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2. Résultats et interprétation . . . . . . . . . . . . . . . . . . . . . . . 6.4. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

179 . .

179 181

. . . . . . . . . .

185 188 188 189 193 202 202 203 206 206

Chapitre 7. L’apport de l’apprentissage automatique pour résoudre les contraintes liées à la mobilité dans le cadre des communications D2D . . . . . . . . . . . . . . . . . . Chérifa BOUCETTA, Hassine MOUNGLA et Hossam AFIFI 7.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. La communication D2D et l’évolution des réseaux . . . . . . . . . . . 7.2.1. La phase de découverte dans les communications D2D . . . . . 7.2.2. La phase d’échange de données dans les communications D2D 7.2.3. Enquêtes sur les futurs réseaux mobiles . . . . . . . . . . . . . . . 7.3. Contexte de l’apprentissage automatique et profond. . . . . . . . . . . 7.3.1. Aperçus de l’apprentissage profond et de ses applications . . . . 7.3.2. Types d’apprentissage automatique . . . . . . . . . . . . . . . . . 7.3.3. La régression linéaire et la classification . . . . . . . . . . . . . . 7.4. La découverte dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.1. Prédiction temps réel de la densité des utilisateurs . . . . . . . .

162 163 165 167 171 172

211 . . . . . . . . . . .

211 213 214 215 216 217 218 219 220 222 222

Table des matières

7.4.2. La découverte dynamique : l’algorithme . . 7.5. Résultats expérimentaux . . . . . . . . . . . . . . . 7.5.1. Les hypothèses générales . . . . . . . . . . . 7.5.2. Trafic avec une faible densité d’utilisateurs 7.5.3. Trafic avec une haute densité d’utilisateurs. 7.6. Conclusion . . . . . . . . . . . . . . . . . . . . . . . 7.7. Bibliographie . . . . . . . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

Chapitre 8. Impact de la radio cognitive sur le green networking : approche par apprentissage par renforcement . . . . . . . . . . . . . Mohammed Salih BENDELLA et Badr BENMAMMAR 8.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2. Le green networking . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1. Pourquoi économiser de l’énergie ? . . . . . . . . . . . . 8.2.2. Où économiser de l’énergie ? . . . . . . . . . . . . . . . . 8.2.3. Définition et objectifs du green networking . . . . . . . 8.3. Les stratégies du green . . . . . . . . . . . . . . . . . . . . . . . 8.3.1. Consolidation des ressources . . . . . . . . . . . . . . . . 8.3.2. Connectivité sélective . . . . . . . . . . . . . . . . . . . . 8.3.3. Virtualisation . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.4. Calcul proportionnel . . . . . . . . . . . . . . . . . . . . . 8.4. Green dans les réseaux sans fil . . . . . . . . . . . . . . . . . . 8.4.1. Efficacité énergétique dans les réseaux sans fil . . . . . 8.4.2. Le contrôle de la puissance de transmission . . . . . . . 8.5. L’apport de la radio cognitive au green networking . . . . . . 8.5.1. Principe de la radio cognitive . . . . . . . . . . . . . . . . 8.5.2. Cycle de cognition . . . . . . . . . . . . . . . . . . . . . . 8.5.3. Green networking dans les réseaux radio cognitive . . . 8.6. Apprentissage par renforcement pour la prise en compte de l’efficacité énergétique lors de l’accès opportuniste au spectre 8.6.1. Formulation du problème . . . . . . . . . . . . . . . . . . 8.6.2. Comparaison entre RC et RC avec Q_learning . . . . . 8.7. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

ix

224 225 225 226 226 229 229

235

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

235 236 236 236 237 238 238 239 239 240 242 243 244 246 246 247 249

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

252 254 256 257 258

Liste des auteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

263

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

265

Avant-propos Nader MBAREK Université de Bourgogne Franche-Comté, Dijon, France

L’évolution des technologies de la communication a été telle que les réseaux sont omniprésents avec des équipements d’accès variés qui permettent d’être en communication continue avec le réseau pour produire ou profiter des services à la demande de ce dernier grâce à des applications et des environnements d’exécution de plus en plus dynamiques et nombreux. Le réseau devient embarqué dans notre vie quotidienne. Ceci est rendu possible grâce à des composants de plus en plus petits, peu coûteux, puissants, rapides mais surtout de plus en plus connectés entre eux avec des technologies différentes, formant ainsi des réseaux ambiants et à grande échelle. Parallèlement à cette explosion quantitative des réseaux de communications, il y a une complexification des technologies. Cette croissance du nombre de réseaux et de leurs complexités s’accompagne de challenges en termes de gestion et de contrôle. De plus, la concurrence accrue que se livrent les fournisseurs de services et l’évolution continue des besoins des utilisateurs, prônent une réelle « dynamicité » de l’offre de service. Celle-ci évolue vers plus de QoS (Quality of Service), de mobilité et de sécurité au fur et à mesure que les réseaux d’accès et les technologies utilisées se développent tout en essayant d’offrir différents niveaux de service, répondant ainsi aux besoins exigés par différents types d’applications. Dans ce contexte, il devient nécessaire de gérer le niveau de service demandé par le client et sur lequel s’engage le fournisseur de services. Ce niveau de service est utilisé par la suite pour paramétrer efficacement les ressources gérées par ce dernier en fonction des besoins du client. C’est dans cette optique que nous décrivons dans cet ouvrage différentes approches permettant la gestion d’un ou plusieurs composants du niveau de service (QoS, sécurité et mobilité) dans différents environnements émergents tels que l’Internet des objets, le Gestion du niveau de service dans les environnements émergents, coordonné par Nader MBAREK. © ISTE Editions 2020.

2

Gestion du niveau de service

Cloud, les smart grid, la e-santé, les réseaux radio maillés, le D2D (Device to Device), les villes intelligentes, le green networking, etc. Dans le chapitre 1, Ahmad Khalil, Nader Mbarek et Olivier Togni présentent l’environnement de type Internet des objets à travers les architectures proposées par différents organismes de standardisation et décrivent l’importance de la gestion de la sécurité et la protection de la vie privée dans ce type d’environnement. De plus, les auteurs mettent en avant les besoins et les exigences de chaque couche de l’architecture IdO en termes de qualité de service ainsi que les mécanismes de QoS proposés pour y répondre. Enfin, un framework utilisant une architecture IdO à trois couches et un mécanisme d’accès basé sur la QoS au niveau de la couche la plus basse de cette architecture sont détaillés. Dans le chapitre 2, Nader Mbarek décrit l’environnement de type Cloud en termes de Cloud Computing, Cloud Networking et inter-Cloud. L’auteur spécifie le contexte et les motivations concernant la garantie du niveau de service dans le Cloud en termes de QoS et de sécurité. Un framework pour la garantie de la qualité de service dans un environnement Cloud Networking est présenté. Dans le chapitre 3, Samira Chouikhi, Leila Merghem-Boulahia et Moez Esseghir s’intéressent à l’étude de la gestion de la demande en tant que service offert aux consommateurs dans un environnement smart grid. Ils décrivent cet environnement avec ses composants essentiels ainsi que les concepts fondamentaux de la gestion de la demande. Les auteurs se focalisent sur la gestion côté demande (Demand-Side Management) et spécifiquement sur la planification de la consommation d’énergie. Dans le chapitre 4, Mohamed-Aymen Chalouf présente les systèmes e-santé à travers une vue d’ensemble de leurs architectures et leurs caractéristiques. Ensuite, l’auteur décrit les enjeux en termes de sécurité et de qualité de service dans ce type d’environnement et présente plusieurs travaux de recherches et projets qui ont pour objectif d’apporter des solutions de gestion adaptées. Dans le chapitre 5, Hajer Bargaoui, Nader Mbarek et Olivier Togni présentent les caractéristiques des réseaux maillés sans fil en mettant l’accent sur la gestion de la qualité de service. Les auteurs définissent les concepts du routage basés sur la QoS dans les réseaux maillés sans fil et spécifient HQMR (Hybrid QoS Mesh Routing) comme exemple de protocole de routage basé sur la QoS définie pour ce type d’environnement. Dans le chapitre 6, Axel Moinet et Benoît Darties présentent le concept de blockchain à travers ses principales caractéristiques et son principe de fonctionnement. Les auteurs décrivent par la suite comment cette dernière pourrait s’inscrire dans un modèle dédié à l’Internet des objets afin de répondre aux challenges d’authentification et

Avant-propos

3

de confiance dans ce type d’environnement. L’architecture BATM (Blockchain Authentication and Trust Module) est présentée comme une solution qui permet de répondre à ces challenges. Dans le chapitre 7, Chérifa Boucetta, Hassine Moungla et Hossam Afifi décrivent l’émergence des communications D2D (Device to Device) en mettant l’accent sur la découverte des terminaux dans ce type d’environnement. Dans ce contexte, il est essentiel d’affiner la découverte de voisinage de façon optimale afin d’assurer une bonne qualité de service aux utilisateurs, tout en garantissant des économies de ressources. Les auteurs évaluent l’apport d’une stratégie d’apprentissage automatique dans un environnement D2D. Dans le chapitre 8, Mohammed Salih Bendella et Badr Benmammar présentent non seulement le green networking mais aussi la radio cognitive. Par la suite, les auteurs étudient l’impact de la radio cognitive sur le green networking en se basant sur l’apprentissage par renforcement pour augmenter la durée de vie d’un réseau et réduire son empreinte énergétique. Nous espérons que cet ouvrage aidera le lecteur à progresser dans sa compréhension des défis et enjeux importants relatifs à la gestion du niveau de service dans les environnements émergents ou encore dans ses travaux actuels portant sur la gestion de la qualité de service, de la sécurité et de la mobilité dans ce type d’environnements.

1

Gestion du niveau de service dans l’Internet des objets (IdO) Ahmad KHALIL, Nader MBAREK et Olivier TOGNI Université de Bourgogne Franche-Comté, Dijon, France

1.1. Introduction L’Internet des objets (IdO) ou encore IoT (Internet of Things) est actuellement une évidence dans notre vie quotidienne. D’ici 2020, plus de 20 milliards de périphériques numériques et électroniques seront connectés. Il s’agira alors en moyenne de 2 appareils par être humain sur terre (Nordrum 2016). Ainsi, l’impact de l’Internet des objets sur la vie humaine sera important et permettra l’amélioration de la qualité de vie. La croissance future de l’IdO conduira à un usage avancé de la technologie afin de faciliter les tâches quotidiennes des humains. Par conséquent, l’amélioration des services correspondants est un défi important permettant l’expansion de cet environnement. Dans ce contexte, une meilleure expérience utilisateur est attendue pour remédier aux limites d’utilisation des services IdO. L’expérience utilisateur peut être traduite par un niveau de service comprenant la qualité de service (QoS : Quality of Service) attendue mais aussi le niveau de sécurité et de respect de la vie privée offerts dans un environnement Internet des objets. Les objets connectés de l’IdO ont des contraintes en termes de capacité de mémoire, de capacité de calcul et de consommation énergétique. En outre, les mécanismes de QoS, de sécurité et de protection de la vie privée existants ne prennent pas en considération les limitations des objets connectés. À ce titre, il est primordial de concevoir et de développer de nouveaux mécanismes de QoS et de sécurité ou encore des adaptations et des améliorations de ces mécanismes dans le contexte de l’IdO.

Gestion du niveau de service dans les environnements émergents, coordonné par Nader MBAREK. © ISTE Editions 2020.

6

Gestion du niveau de service

À travers ce chapitre, nous présentons en premier lieu dans la section 1.2 les définitions relatives à l’environnement Internet des objets. Par la suite, nous décrivons dans la section 1.3 les architectures proposées par différents organismes de standardisation et les domaines d’applications de l’IdO. La section 1.4 présente la gestion de la sécurité et la protection de la vie privée dans l’Internet des objets à travers les motivations, les challenges et les différents services de sécurité à prendre en considération dans ce type d’environnement. Nous décrivons dans la section 1.5 la gestion de la QoS en mettant en avant les besoins et les exigences de chaque couche de l’architecture IdO en termes de qualité de service ainsi que les mécanismes de QoS proposés pour y répondre. Nous spécifions dans la section 1.6 notre framework utilisant une architecture IdO à trois couches et un mécanisme d’accès basé sur la QoS au niveau de la couche la plus basse de cette architecture. Finalement, la section 1.7 présente des conclusions et des perspectives concernant le domaine de gestion du niveau de service dans un environnement Internet des objets. 1.2. Définitions de l’IdO Différents organismes de standardisation ont traité le sujet de l’Internet des objets, afin de spécifier la définition, l’architecture, les recommandations et les domaines d’applications de ce nouveau paradigme. L’UIT-T (Union internationale des télécommunications – secteur de la normalisation des télécommunications) est un organisme de standardisation qui traite à travers le groupe de travail SG20 l’environnement Internet des objets et les différents domaines d’application. Selon le document Y.2060 de l’UIT-T, l’IdO est un réseau ubiquitaire disponible n’importe où, à n’importe quel moment et pour n’importe qui (ITU-T 2012). L’Internet des objets est une infrastructure globale de la société d’information, permettant d’offrir des services avancés en interconnectant des objets à travers des technologies de communication variées (Minerva et al. 2015). En outre, l’ISO/IEC (International Organization for Standardization/International Electrotechnical Commission) présente dans (ISO/IEC 2015a) une définition et une spécification du vocabulaire utilisé au sein de l’environnement IdO. Selon cet organisme, l’Internet des objets est un réseau d’objets physiques qui collectent et transmettent des données. C’est une infrastructure d’objets interconnectés, d’humains et de ressources d’informations qui permettent de traiter les informations remontées par les objets et de réagir en conséquence (ISO/IEC 2015a ; International Electrotechnical Commission 2017b). Selon l’IETF (Internet Engineering Task Force), l’idée générale de l’IdO est de connecter des objets pour assurer des services contextuels, et cela à travers différentes technologies pour aboutir à un service accessible depuis n’importe où et à n’importe quel moment (Minerva et al. 2015). L’IETF considère l’IdO comme étant un réseau d’objets interconnectés, adressables d’une manière unique et utilisant des protocoles standardisés pour la communication entre les objets (Lee et al. 2012). De plus, l’IETF et l’ISO/IEC proposent

Gestion du niveau de service dans l’IdO

7

différentes exigences à prendre en considération dans un environnement Internet des objets comme l’auto-configuration, l’identification unique, la standardisation des interfaces, la connectivité, la fiabilité, la mobilité, etc. En se basant sur toutes les définitions que nous venons de présenter, nous proposons une synthèse pour la définition de l’Internet des objets : c’est une infrastructure globale interconnectant des objets, identifiés d’une manière unique, et les humains pour offrir des services autonomes avancés par le biais d’interfaces intelligentes. À noter que l’identification unique permet la vérification de l’identité des objets et le traitement des données selon la source. 1.3. Généralités sur l’IdO 1.3.1. Architectures de l’IdO Différentes architectures pour l’Internet des objets ont été présentées par des organismes de normalisation et des projets de recherche. Dans ce qui suit, nous décrivons deux exemples d’architectures proposés pour l’IdO. 1.3.1.1. Modèle de référence de l’UIT-T L’UIT-T a proposé un modèle de référence pour l’Internet des objets basé sur plusieurs couches (ITU-T 2012). Ce modèle de référence (voir figure 1.1) spécifie 4 couches horizontales (application, support, réseau et dispositifs) et 2 couches verticales (gestion et sécurité). La couche application (Application Layer) comprend les applications et services IdO. Ensuite, la couche support (Service Support et Application Support Layer) définit les capacités de support génériques communes à toutes les applications, comme le traitement et le stockage des données. Elle comprend aussi les capacités de support spécifiques qui répondent aux besoins d’une application particulière. La couche réseau (Network Layer) offre deux services. D’une part, les capacités réseaux qui assurent le contrôle de la connectivité, la gestion de la mobilité, et les fonctions d’authentification, d’autorisation et de comptabilité. D’autre part, les capacités de transport qui permettent l’acheminement des données provenant des applications ou encore des informations de contrôle et de gestion de l’environnement. La couche dispositifs (Device Layer) spécifie les capacités propres aux objets et aux dispositifs connectés ainsi que les capacités des passerelles. Quant aux couches verticales, elles définissent les capacités génériques de gestion (gestion des objets, du réseau, du trafic et de la congestion) et de sécurité (autorisation, authentification, intégrité et protection de la vie privée). De plus, ces couches verticales présentent les capacités spécifiques qui dépendent du type d’application IdO considéré.

8

Gestion du niveau de service

Figure 1.1. Architecture de l’Internet des objets de l’UIT-T (ITU-T 2012)

1.3.1.2. Architecture de l’IIC L’Industrial Internet Consortium est un consortium formé de plusieurs industriels connus dans le monde des technologies de l’information comme IBM, HUAWEI, Intel, etc. Ce consortium propose à travers le rapport Industrial Internet Reference Architecture une architecture système applicable pour l’Internet des objets. Cette architecture trois tiers est basée sur 3 couches verticales ou encore trois niveaux (voir figure 1.2) (Lin et al. 2015). La couche de bord (Edge Tier) correspond à l’ensemble des nœuds qui collectent les données à travers des réseaux de proximité. Elle permet d’implémenter toutes les fonctions de contrôle. Ensuite, la couche plateforme (Platform Tier) reçoit, traite et transmet les commandes de contrôle vers la couche de bord. Elle permet aussi le traitement, l’analyse et l’exécution des opérations sur les données récoltées des objets avant de les transmettre dans l’autre sens vers la couche entreprise (Entreprise Tier). Quant à la couche entreprise, elle prend les décisions et assure le rôle d’interface pour les utilisateurs finaux. Cette dernière comprend alors les applications qui permettent de générer les commandes de contrôle à envoyer à la couche plateforme. Les différentes couches de cette architecture sont interconnectées via des réseaux d’accès et des réseaux de services.

Figure 1.2. Architecture de l’Internet des objets de l’IIC (Lin et al. 2015)

Gestion du niveau de service dans l’IdO 9

10

Gestion du niveau de service

1.3.2. Domaines d’application de l’Internet des objets L’Internet des objets permet l’amélioration de la qualité de vie des êtres humains dans différents domaines de la vie courante. Nous citons à ce titre, le domaine de la santé, de la ville intelligente, des réseaux véhiculaires, etc. L’ISO/IEC se focalise sur la standardisation des technologies sous-jacentes utiles dans différents domaines d’applications de l’IdO. Le groupe de travail 9 du comité technique 1 (JTC 1/WG9) de l’ISO/IEC s’intéresse à la normalisation des technologies Big Data dans les domaines de l’IdO (International Electrotechnical Commission 2017). En outre, divers fournisseurs proposent des solutions pour l’implémentation et l’offre de services IdO dans différents domaines d’applications. À titre d’exemple, le projet Kaa1 fournit une gamme de fonctionnalités permettant aux développeurs de créer des applications avancées pour leurs dispositifs intelligents, de gérer de manière flexible les écosystèmes de leurs périphériques, d’orchestrer le traitement de données de bout en bout, etc. 1.3.2.1. Domaine de l’e-santé Le vieillissement de la population entraîne un besoin de surveillance et de contrôle des personnes âgées. Ce suivi est basé sur un ensemble de capteurs connectés permettant de créer un système de soins décentralisé. Chaque patient possède un système de surveillance lui permettant d’être monitoré et surveillé sans besoin de se déplacer au centre médical. Les données médicales récoltées améliorent les soins de santé en personnalisant les traitements et en facilitant la vie des patients. Ainsi, une grande partie du travail des médecins (tests, diagnostic, prescriptions, modifications de comportement) peut être effectuée par des systèmes automatisés, qui collectent et analysent de manière passive et active des données concernant les patients. Par conséquent, une base de données riche en informations sera disponible et permettra d’alerter les médecins en cas de besoin tout en mettant à leur disposition une vue plus globale pour chaque patient. Ce domaine d’application de l’Internet des objets attire l’attention de plusieurs organisations internationales qui essaient de normaliser les technologies utilisées pour bien répondre à ses exigences (International Electrotechnical Commission 2017). Les organisations internationales et mondiales de la santé visent à promouvoir l’usage des technologies de l’e-santé dans le monde. L’Organisation mondiale de la santé (World Health Organisation – WHO) et le Programme des technologies appropriées en santé (Program for Appropriate Technology in Health – PATH) ont signé un partenariat visant à accélérer l’évolution de la santé numérique dans le monde (World Health Organization 2018). Ce domaine d’application a attiré l’attention d’un grand nombre d’industriels qui essaient de proposer différents produits utiles pour l’e-santé. En effet, Ericsson et ses partenaires proposent des prototypes portables pour le domaine d’e-santé avec des durées de vie de batterie importantes (Ericsson 2018). 1. Disponible à l’adresse : https://www.kaaproject.org [Consulté le 02 novembre 2018].

Gestion du niveau de service dans l’IdO

11

1.3.2.2. Domaine de la ville intelligente Dans le contexte des bâtiments intelligents, l’Internet des objets offre des systèmes de gestion qui permettent d’automatiser les fonctions de contrôle à travers des dispositifs intelligents fournissant des données et des analyses en temps réel. Grâce aux informations remontées par les objets de l’IdO, les besoins et préférences en termes d’éclairage, de chauffage ou de ventilation seront anticipés. De même, ces informations peuvent concerner les systèmes de sécurité, les compteurs d’électricité ou l’élimination des eaux et des déchets. La réactivité vis-à-vis de ces données récoltées grâce aux objets de l’IdO permet aux bâtiments de s’adapter aux changements et d’effectuer des modifications en conséquence en temps réel pour avoir une efficacité accrue et réduire les coûts d’exploitation. La mise en place des bâtiments intelligents permet la création des villes intelligentes et cela en intégrant d’autres dispositifs IdO lors de l’offre de différents services dans la ville tels que le transport, l’eau et la qualité de l’air. D’une part, différents organismes de standardisation se focalisent sur ce domaine à travers des groupes de travail qui s’intéressent à la normalisation des technologies utilisées. À titre d’exemple, l’ISO et l’IEC, à travers le sous-comité technique JTC1/SC25, normalise les systèmes de microprocesseurs et les supports d’interconnexion associés aux équipements pour les environnements commerciaux et résidentiels (International Electrotechnical Commission 2018). De plus, le papier blanc de l’IEC (2017a) décrit les bâtiments intelligents et les villes intelligentes comme étant des domaines d’application de l’IdO. Ainsi, il spécifie comment orchestrer l’infrastructure nécessaire aux villes intelligentes et durables. D’autre part, Nokia a proposé sur le marché plusieurs services et technologies pour gérer la surveillance vidéo, les réseaux de capteurs de l’Internet des objets, le stationnement et l’environnement d’une ville intelligente (Nokia 2018). Dans ce contexte, une infrastructure a été proposée avec des applications permettant de transformer la cité contemporaine en une ville intelligente. 1.3.2.3. Domaine des réseaux véhiculaires Tous les types de systèmes de transport peuvent bénéficier des avantages que présente l’Internet des objets. Les solutions IdO promettent de rendre les systèmes de transport plus intelligents et plus performants en améliorant la sécurité, l’efficacité des déplacements, la maintenance des véhicules et en proposant une gestion plus stratégique du trafic (Alcatel Lucent Enterprise 2018). Les systèmes de communication entre véhicules et infrastructures (V2I) et les systèmes de communication entre véhicules (V2V) améliorent la sécurité, l’efficacité et la performance des transports publics et privés. De même, ils contribuent à la réduction de la congestion et à l’amélioration de la gestion de l’espace. Les conducteurs des voitures connectées bénéficient d'un grand nombre de services comme la navigation, le trafic en temps réel et les informations de stationnement ainsi que l’intégration de téléphones intelligents avec des tableaux de bord et des appareils portables (International Electrotechnical Commission 2017). La révolution du monde du transport, à travers le déploiement de l’IdO dans le domaine des réseaux véhiculaires, s’effectue

12

Gestion du niveau de service

grâce à l’utilisation des réseaux de capteurs et des applications de gestion de stationnement, de trafic, etc. Par exemple, les routes intelligentes déterminent le nombre de voitures sur chaque ligne à travers des capteurs et ensuite opèrent les feux de circulation suivant cette information pour minimiser la congestion. L’efficacité de ce domaine d’application de l’IdO est montrée à travers la mise en place de cette révolution technologique dans différents projets. Ainsi, le projet ParkDC du département de transport de Washington D.C. utilise un système de surveillance basé sur l’IdO pour alerter les conducteurs des places disponibles et facturer des tarifs de stationnement appropriés en fonction de la demande en temps réel (Njit 2018). 1.4. Gestion de la sécurité et de la protection de la vie privée dans l’IdO 1.4.1. Motivations et challenges La sécurité des systèmes d’information constitue l’ensemble des moyens techniques, organisationnels, juridiques et humains nécessaires pour empêcher l’utilisation nonautorisée, le mauvais usage, la modification ou le détournement du système d’information. Actuellement, la sécurité est un enjeu majeur dans le monde de l’informatique et a comme but de maintenir la confiance des utilisateurs et la cohérence de l’ensemble du système d’information. Plusieurs normes se sont intéressées aux notions relatives à la sécurité, comme par exemple la recommandation X800 de l’UIT-T (1991) qui insiste sur le rôle des différents services de sécurité et leur applicabilité. L’Internet des objets se caractérise par un environnement comportant des contraintes à plusieurs niveaux ce qui rend difficile l’adoption des mécanismes de sécurité conçus pour les systèmes traditionnels. En effet, un environnement de type IdO comprend des objets avec peu de ressources mémoire et des capacités de calcul limitées. Or, les techniques habituellement utilisées dans les réseaux traditionnels ont été conçues pour des systèmes disposant de microprocesseurs puissants et de capacités de stockage importantes (Hanna 2015). Par conséquent, il est nécessaire d’adapter les techniques de sécurité existantes. En outre, le grand nombre d’objets dans un environnement IdO rend la tâche d’adaptation de certains algorithmes de sécurité existants difficile et lourde. À titre d’exemple, les méthodes et algorithmes d’identification et de contrôle d’accès des objets deviennent de plus en plus complexes avec un nombre d’objets de plus en plus important. Avant qu’un périphérique ou un utilisateur puisse accéder aux services de l’IdO, l’authentification mutuelle et l’autorisation entre le périphérique/utilisateur et le système IdO doivent être exécutées conformément à des politiques de sécurité prédéfinies. Les politiques de sécurité doivent être rédigées avec précision afin d’intégrer de façon exhaustive tous les cas possibles d’utilisation et doivent suivre des modèles standardisés pour répondre aux exigences de l’Internet des objets. Ainsi, il est

Gestion du niveau de service dans l’IdO

13

important de standardiser les politiques de sécurité pour l’environnement Internet des objets. De plus, l’accès aux données ou aux services doit être entièrement transparent, traçable et reproductible. Par conséquent, un énorme volume de fichiers de traces est créé dans un environnement IdO étant donné le nombre important d’objets connectés. Ainsi, des mécanismes pour l’optimisation de la traçabilité doivent être conçus dans le contexte de l’Internet des objets. Dans un tel environnement IdO, une diversité de systèmes d’exploitation avec des architectures différentes sont disponibles pour les objets de l’IdO. Nous citons à ce titre Android Things de Google (anciennement connu sous le nom de Brillo) (Google’s Internet of Things Solutions 2018), LiteOS de Huawei (2018) et Windows 10 IdO Core (2018), etc. Cette diversité peut rendre encore plus difficile la normalisation des mécanismes et des mesures de sécurité. En ce qui concerne la vie privée des utilisateurs, les données dans les systèmes IdO peuvent être collectées sans l’implication des utilisateurs. Dans ce contexte, il est nécessaire de sécuriser cette remontée d’informations et de garantir le respect de la vie privée pendant la collecte, la transmission, l’agrégation, le stockage, l’extraction et le traitement des données. Afin de répondre à ces besoins, des mécanismes adaptés pour la confidentialité, l’authentification et l’intégrité des données doivent être fournis au sein de l’Internet des objets tout en respectant les exigences de ce type d’environnement (ITU-T 2012). Différents organismes internationaux ont traité les notions relatives à la sécurité et la vie privée dans l’Internet des objets, soit en proposant des mécanismes de sécurité adaptés, soit en proposant des méthodologies à appliquer à travers les couches de leurs architectures IdO. Ainsi, la recommandation Y.2060 de l’UIT-T (ITU-T 2012) vise à sécuriser l’environnement IdO en commençant par une analyse des menaces propres à l’application IdO. Ensuite, des mécanismes et des services de sécurité spécifiques seront pris en charge au niveau de chaque couche de l’architecture IdO pour assurer une sécurité globale au sein de cet environnement. Au niveau de la couche application du modèle de référence de l’UIT-T, différents services de sécurité sont pris en compte tels que l’autorisation, l’authentification, la confidentialité et l’intégrité des données applicatives, mais aussi la protection de la vie privée. Au niveau de la couche réseau, les services de sécurité incluent l’autorisation, l’authentification, la confidentialité des données applicatives et des données de signalisation (configurations et commandes) et la protection de l'intégrité de la signalisation du réseau. Alors qu’au niveau de la couche la plus basse de l’architecture IdO de l’UIT-T, à savoir la couche dispositifs, les principaux services et mécanismes à offrir pour garantir la sécurité sont l’authentification, l’autorisation, la validation de l’intégrité de l’appareil, le contrôle d’accès, la confidentialité des données et la protection de l’intégrité. Suivant la recommandation (ITU-T 2014), plusieurs capacités de sécurité spécifiques sont à considérer dans l’environnement IdO : une capacité de communication sécurisée pour garantir la confidentialité et l’intégrité des données durant la transmission ; une capacité de gestion

14

Gestion du niveau de service

des données sécurisée pour garantir la confidentialité et l’intégrité lors du stockage. De plus, la recommandation spécifie une capacité de provision de service sécurisée garantissant l’interdiction des services frauduleux et une capacité d’authentification et d’autorisation mutuelle entre les objets et les utilisateurs suivant des politiques prédéfinies pour garantir la sécurisation de l’accès à l’information. Elles sont étroitement liées aux exigences spécifiques des applications IdO et dépendent du domaine d’application. La recommandation Y.2060 (ITU-T 2012) insiste aussi sur la nécessité de la prise en charge des fonctions et mécanismes de sécurité par les passerelles IdO interconnectant les différents composants des différentes couches de l’architecture IdO spécifiée par l’UIT-T. Nous décrivons dans la section suivante les différents services de sécurité qui doivent être pris en considération dans un environnement Internet des objets. 1.4.2. Services de sécurité dans un environnement IdO Pour assurer la sécurité dans l’environnement IdO, plusieurs services de sécurité sont à fournir en appliquant des mécanismes bien spécifiques et adaptés aux caractéristiques de ce type d’environnement. 1.4.2.1. Identification et authentification dans l’IdO 1.4.2.1.1. Définition L’identification consiste à établir l’identité de l’utilisateur d’un service. Son principe repose sur l’utilisation d’un identifiant attribué individuellement à un utilisateur. L’authentification succède à l’identification et permet à l’utilisateur d’apporter la preuve de son identité. L’utilisateur utilise un authentifiant ou un code secret que lui seul connait. L’authentification ne donne pas un droit d’accès, c’est le contrôle d’accès qui assure ce privilège si l’authentification a été réussie (ITU-T 1991). Les mécanismes d’authentification peuvent fournir des avantages à l’environnement IdO. Ainsi, cet environnement, à travers les mécanismes d’identification et d’authentification, prend en considération des dispositifs robustes capables de réduire les risques d’intrusion et d’éviter les violations (Li et Li 2017). En outre, les mécanismes d’identification et d’authentification traditionnels doivent être adaptés pour respecter les exigences de l’environnement IdO en termes d’évolutivité, du grand nombre d’entités, etc. Plusieurs organisations utilisent des certificats numériques basés sur l’infrastructure à clé publique (PKI) pour les opérations d’identification et d’authentification des périphériques (Allerin 2018). Toutefois, des adaptations doivent être effectuées pour considérer cette solution dans l’IdO. Premièrement, les infrastructures PKI devraient être en mesure de soutenir efficacement le processus d’émission de certificats numériques en grande quantité et à grande vitesse. À ce titre, une infrastructure PKI basée sur le Cloud permet d’offrir un moyen plus économique et plus réaliste pour atteindre

Gestion du niveau de service dans l’IdO

15

l’échelle IdO. Ensuite, les certificats numériques ont une durée de vie limitée, ce qui signifie qu’ils ont une date d’expiration. Dans le cadre de l’environnement IdO, certains cas d’utilisation peuvent nécessiter des certificats de courte durée, tandis que de nombreux autres demandent des certificats de plus longue durée. Un certificat de durée de vie plus longue est requis lorsqu’un périphérique nécessite une authentification à base de certificat à long terme. Les responsables de projets IdO doivent alors déterminer avec soin la durée de vie requise des certificats numériques et en déterminer les avantages et les inconvénients. En revanche, les certificats, étant considérés comme des éléments critiques ayant un cycle de vie, doivent être gérés d’une manière efficace. En effet, la gestion manuelle de suivi des certificats n’est pas faisable dans un environnement IdO. Ainsi, l’infrastructure PKI devrait être associée à des fournisseurs de gestion de certificats ayant une plateforme évolutive. Ces plateformes devraient alors être capables de gérer les cas d’utilisation de l’IdO (Allerin 2018). 1.4.2.1.2. Travaux de recherche Les services de sécurité de type identification et authentification ont été traités dans différents projets et travaux de recherche. BUTLER (uBiquitous, secUre inTernet-ofthings with Location and contExt-awaReness) (CORDIS 2018), un projet européen financé par FP7 (octobre 2011 – octobre 2014), a étudié les mécanismes d’identification et d’authentification dans l’environnement IdO. Ce projet a proposé un mécanisme pour gérer la possession des objets par les différents utilisateurs. Les utilisateurs dans ce cas possèdent des objets connectés. Un utilisateur (propriétaire d’un objet) dispose d’un compte auprès du gestionnaire de confiance (Trust Manager) implémenté sur un serveur d’autorisation. L’utilisateur se connecte au serveur d’autorisation et enregistre une nouvelle ressource (un nouvel objet connecté). La ressource doit comporter un identifiant unique (généralement une adresse URL) et des informations d’identification (resource security credentials). L’utilisateur doit alors configurer la ressource avec les informations d’identification et ainsi l’identité de l’utilisateur possédant l’objet pourra être vérifiée. De même, BUTLER propose un mécanisme permettant l’identification des objets auprès des passerelles à travers des certificats numériques gérés par le serveur d’autorisation (Sottile et al. 2014). Des travaux académiques ont également traité le sujet de l’identification et l’authentification dans l’IdO. Selon le travail décrit dans (Li et Li 2017), l’auteur met l’accent sur l’importance de proposer un protocole d’authentification permettant de soulager les nœuds, contraints en termes de capacités de stockage et de calcul, de la gestion de l’authentification et de l’autorisation. 1.4.2.2. Contrôle d’accès dans l’IdO 1.4.2.2.1. Définition Le contrôle d’accès permet de lutter contre l’utilisation non autorisée d’une ressource. Afin de réaliser ce contrôle, une liste des entités autorisées à accéder à une

16

Gestion du niveau de service

ressource, avec leurs autorisations d’accès est définie conformément à une politique de sécurité. Ce service est offert pour mettre en place différents types d’accès aux ressources (lecture, écriture, modification, suppression d’information et exécution d’une tâche). Le contrôle d’accès est basé sur un ou plusieurs éléments à travers des bases d’informations conservées par des centres d’autorisation ou par l’entité elle-même et peuvent avoir la forme d’une liste de contrôle d'accès ou d'une matrice de structure hiérarchique ou répartie. Ces bases comprennent des informations d’authentification (mots de passe, étiquettes de sécurité, etc.) (ITU-T 1991). Deux entités sont utiles pour le contrôle d’accès dans l’IdO : les détenteurs de données (les utilisateurs des services IdO) et les objets (collecteurs de données) qui envoient les données ou reçoivent les commandes. Les deux entités doivent être authentifiées mutuellement (Balte et al. 2015). 1.4.2.2.2. Travaux de recherche Plusieurs projets de recherche européens ont étudié l’adaptation du service de sécurité de type contrôle d’accès pour l’environnement Internet des objets. Ainsi, ARMOUR (ARMOUR 2018), projet européen financé par H2020 (février 2016 – février 2018), a traité certains défis de sécurité et de confiance dans l'Internet des objets. Les travaux effectués dans le cadre de ce projet permettent de définir un ensemble de composants qui interagissent pour autoriser ou bloquer des requêtes de données sécurisées dans un environnement IdO. Pour cela, ARMOUR définit dans cet environnement plusieurs entités. En premier lieu, le point de décision stratégique ou PDP (Policy Decision Point) est un composant comportant les politiques d’accès et permet d’autoriser ou non un dispositif IdO (capteur) à effectuer une action sur une ressource (serveur d’enregistrement de données) en évaluant les politiques de contrôle d’accès. Par exemple, une décision « PERMIT » provenant du PDP permet au gestionnaire de fonctionnalité ou Capability Manager (serveur communicant avec le PDP) de générer et d’envoyer un jeton au capteur pour la publication des données sur la plateforme IdO. Le serveur de publication de données (Pub/Sub Server) enregistre les données et permet alors la mise à jour et l’exécution de la requête de données si le jeton du capteur reçu par le Capability Manager permet cette action (ARMOUR 2016). SMARTIE (Secure and SMArter ciTIes data management) (Pokric et al. 2015), un autre projet européen financé par FP7 (septembre 2013 – décembre 2016), s’est focalisé sur le contrôle d’accès dans l’Internet des objets. Il a comme objectif de développer de nouveaux mécanismes qui établissent la confiance et la sécurité dans les différentes couches de l’IdO. Les résultats du projet indiquent que le contrôle d’accès basé sur les attributs ABAC (Attribute-Based Access Control) est une solution adéquate pour une spécification de politiques fines de contrôle d’accès. Dans ABAC, l’identité des utilisateurs de service IdO n’est plus limitée à un seul attribut mais repose sur plusieurs attributs (c’està-dire id utilisateur, rôle, etc.) qui composent cette identité. Pour ces raisons, le contrôle de

Gestion du niveau de service dans l’IdO

17

type ABAC permet des améliorations substantielles pour l’autorisation et le contrôle d’accès dans l’IdO. Les solutions basées sur ABAC permettent de surmonter les inconvénients des solutions de contrôle d’accès centralisées. Chaque requête nécessite deux étapes : une vérification d’autorisation (contrôle d’identité et authentification) et par la suite une décision de contrôle d’accès (autorisation ou prohibition). Pour chaque demande d’accès, une authentification de l’utilisateur du service IdO auprès de son domaine est effectuée et la requête d’autorisation d’accès de l’utilisateur est obtenue. La requête d’autorisation d’accès de l’utilisateur est signée par une autorité de confiance du domaine. Ainsi, l’utilisateur peut envoyer la requête aux dispositifs IdO qui vérifient la signature. Si la vérification de la signature est réalisée avec succès, les informations demandées sont envoyées à l’utilisateur (SMARTIE 2014a ; SMARTIE 2014b ; Pokric et al. 2015). 1.4.2.3. Confidentialité dans l’IdO 1.4.2.3.1. Définition Le service de confidentialité fournit une protection contre l’analyse du trafic par des entités non autorisées et contre la divulgation des flux de données. Pour assurer ce service de sécurité, le chiffrement des données est le mécanisme de sécurité le plus adapté. Le chiffrement peut être effectué avec un système symétrique (à clé secrète) ou asymétrique (à clé publique). Le système de chiffrement symétrique implique la connaissance de la clé secrète qui permet le chiffrement et le déchiffrement. Alors que pour le système de chiffrement asymétrique, la connaissance de la clé publique de chiffrement par toutes les entités n’implique pas la connaissance de la clé privée correspondante pour le déchiffrement. Autre que les mécanismes de chiffrements, l’existence d’un mécanisme de gestion de clés est nécessaire pour l’échange de clés entre les entités communicantes (ITU-T 1991). Dans l’environnement IdO, plusieurs points sont à prendre en considération lors de l’utilisation du service de confidentialité, notamment lors du processus d’échange de clés utilisé pour le chiffrement. D’une part, l’extensibilité est une caractéristique importante à considérer comme le nombre d’objets connectés est élevé. En fait, le nombre d’entités pouvant être impliquées dans le processus d’échange de clés peut être limité en utilisant les systèmes traditionnels. D’autre part, de nouvelles entités peuvent être impliquées après le premier échange de clés. Ainsi, de nouveaux objets peuvent s’intégrer à l’environnement IdO après l’initiation des services. De plus, l’évolutivité est une caractéristique importante à prendre en considération. En effet, suite à l’implication de nouvelles entités dans le processus d’échange de clé dans l’Internet des objets, le volume de données cryptographiques à stocker sur les objets devient de plus en plus important alors que les objets IdO ont des restrictions en termes de stockage et de capacité de traitement (Abdemeziem 2016).

18

Gestion du niveau de service

1.4.2.3.2. Travaux de recherche Un des challenges lors de la mise en œuvre d’un système de chiffrement sur un objet connecté dans un environnement IdO est la disponibilité de librairies logicielles adéquates et respectant les contraintes concernant les objets de l’IdO en termes de capacité mémoire, capacité de calcul et de consommation énergétique. Dans ce contexte, certains travaux de recherche ont été effectués pour remédier à ce problème qui reste toujours un défi de recherche et demande des études plus avancées et plus adaptées aux besoins de l’Internet des objets afin de garantir un service de sécurité optimal. Nous citons comme exemple de librairies existantes qui peuvent être utilisées dans un environnement IdO, la librairie « AVR-Crypto-Lib » (Cantora 2013), fournissant des implémentations spéciales respectant les ressources limitées de microcontrôleurs. Cette librairie propose des fonctions de chiffrement à clés symétriques comme AES, RC5, RC6, DES, etc. D’autre part, la librairie « Relic-Toolkit » (2018) propose un éventail assez large d’algorithmes de chiffrement asymétrique comme RSA, Rabin crypto system, etc. « Relic-Toolkit » est utilisé dans le projet TinyPBC implémenté sur le simulateur TOSSIM (2018) sur le système d’exploitation TinyOS. Les librairies que nous venons de décrire assurent entre autres un service de confidentialité dans un environnement IdO afin de permettre des communications sécurisées, de sorte que l’accès non autorisé au contenu des données soit interdit et que ce contenu soit protégé pendant son transfert entre deux entités de l’environnement IdO. Des projets européens de recherche se sont aussi focalisés sur la confidentialité des données dans l’Internet des objets. Ainsi, le projet SMARTIE (Pokric et al. 2015) utilise CP-ABE (Ciphertext Policy Attribute Based Encryption), une technique permettant à l’utilisateur du service IdO de déchiffrer le message provenant des objets avec une clé secrète si les attributs de la politique correspondent aux attributs de la clé. CP-ABE permet de ne pas chiffrer les données individuellement mais, en revanche, de les chiffrer pour un groupe d’utilisateurs selon des politiques d’accès. Cette technique relie le contrôle d’accès et le chiffrement. Elle est utile lorsque les données d’un objet doivent être reçues par plusieurs utilisateurs du service IdO. Ainsi le chiffrement sera effectué une seul fois (SMARTIE 2014a ; Pokric et al. 2015). Le projet européen BUTLER (CORDIS 2018) s’est intéressé à la protection du canal de communication dans l’IdO. Ce canal est vulnérable en raison de sa caractéristique sans fil et de la diffusion de l’information. BUTLER propose des améliorations aux normes de sécurité utilisées dans les technologies de communication de l’IdO. Concernant ZigBee par exemple, il propose un système de sécurité basé sur l’utilisation de clés symétriques afin de compléter et renforcer les fonctionnalités de sécurité fournies par la norme ZigBee. Cette dernière utilise deux clés obligatoires et une facultative. La clé maître (Master Key) et la clé réseau (Network Key) sont obligatoires et la clé de lien (Link Key) est facultative. La clé maître est utilisée lors de la phase d’initialisation et implémentée dans les nœuds à travers un canal hors bande. La clé réseau assure la sécurité au niveau de la couche

Gestion du niveau de service dans l’IdO

19

réseau et est partagée par tous les nœuds, elle est dérivée de la clé maître. La clé facultative de lien est déduite de la clé maître et assure la sécurité du lien entre deux pairs au niveau de l’application. Dans ce contexte, le projet BUTLER a implémenté des mécanismes pour gérer le déploiement, la maintenance et la révocation de la clé maître. De plus, il propose d’implémenter dans le nœud, lors de sa fabrication, une clé symétrique supplémentaire appelée clé globale. Cette clé est utilisée par la couche MAC (Medium Access Control), et est partagée par tous les nœuds. La clé globale assure une sécurité aux niveaux des couches basses. Ainsi, la clé de réseau fournie par la norme ZigBee sera utilisée comme une clé de groupe (Group Key). La clé de groupe sera partagée entre les nœuds et gérée par la couche réseau de ZigBee. Elle permet d’adresser en toute sécurité un groupe de nœuds partageant une fonctionnalité commune. Par conséquent, une sécurité plus accrue sera assurée dans le réseau d’objets communicant à travers ZigBee ainsi qu’une sécurité supplémentaire lors de l’utilisation de la clé facultative de lien (Sottile et al. 2014). 1.4.2.4. Intégrité dans l’IdO 1.4.2.4.1. Définition L’intégrité est un service de sécurité qui englobe deux grandes parties dans le contexte de l’Internet des objets : l’intégrité des données et l’intégrité des objets. L’intégrité des données vise à assurer que les données échangées dans un environnement IdO n’ont pas été modifiées ou détruites d’une manière non autorisée lors de leur acheminement. Elle est nécessaire pour fournir un service fiable et s’assurer que les informations collectées et les commandes reçues par les objets sont légitimes. La vérification de l’intégrité de données implique deux processus, l’un au niveau de l’émetteur et l’autre au niveau du récepteur. L’entité émettrice ajoute des informations de contrôle (code de contrôle par bloc comme le BCC (Block Check Character) ou valeur de contrôle cryptographique tel que le hachage) en fonction des données envoyées. L’entité réceptrice génère les mêmes informations de contrôle en se basant sur les données reçues et les compare à celles reçues pour déterminer si les données ont été modifiées pendant l’acheminement dans l’environnement IdO (ITU-T 1991). L’intégrité des objets est nécessaire car les nœuds dans l’IdO peuvent être déployés dans des environnements non fiables et peuvent être attaqués physiquement afin de modifier par exemple le code en cours d’exécution sur ces objets. Ce deuxième service d’intégrité à assurer dans l’Internet des objets permet de détecter et empêcher les modifications apportées au système d'exploitation et à la configuration des objets. L’intégrité des objets permet aussi de verrouiller et d’éliminer les périphériques non conformes. Pour mettre en place ce type d’intégrité, une empreinte numérique (digital fingerprint) de l’objet en question est utilisée pour comparer les données existantes sur l’objet et les données qui doivent exister.

20

Gestion du niveau de service

1.4.2.4.2. Travaux de recherche Le service de sécurité de type intégrité avec ces deux axes portant sur les objets et les données dans un environnement IdO a été étudié dans différents projets de recherche européens. À ce titre, SMARTIE prend en considération plusieurs architectures pour la mise en place du service d’intégrité dans un environnement IdO. En effet, il utilise l’architecture de mesure d’intégrité présente dans le noyau Linux (Pokric et al. 2015) pour vérifier l’intégrité des objets mais en plus, il s’appuie sur les mécanismes de contrôle d’intégrité présents dans les cartes à puce tout en s’inspirant de l’architecture IMA (Integrity Measurment Architecture). Ainsi, SMARTIE propose un composant d’attestation de nœud permettant de vérifier l’intégrité du nœud en testant le hachage de la liste des logiciels et de fichiers qui ont été exécutés sur le nœud. Le composant d’attestation de nœud consiste en un mécanisme d’attestation à distance (Remote attestation) entre les objets IdO et l’unité distante centrale chargée de la mesure d’intégrité des objets. L’attestation à distance permet à une partie distante – la passerelle ou le serveur chargé de la vérification de l’intégrité des objets – d’inspecter l’état d'un périphérique ou d’un objet IdO à tout moment. La partie distante peut demander le hachage de la liste de logiciels ou de fichiers et est en mesure de vérifier si les enregistrements fournis par le dispositif ont été falsifiés ou non en comparant le hachage reçu à celui calculé. Le composant d’attestation de nœud développé dans SMARTIE permet de fournir une solution pratique qui est un compromis entre la solution matérielle et les approches basées sur le logiciel en utilisant le module IMA et l’architecture de mesure d’intégrité présente dans le noyau Linux (SMARTIE 2014a ; Pokric et al. 2015). Le module IMA mesure l’intégrité du code binaire avant que le noyau ne procède au chargement du code dans la mémoire pour exécution. Le résultat de la mesure est enregistré et envoyé au service IMASC (Integrity Management Architecture using a SmartCard). Le service du système IMASC transmet le résultat à la carte à puce où il est horodaté et signé, de sorte qu’aucune manipulation de l’entrée n’est possible par la suite. En outre, la carte à puce conserve un registre avec une valeur de hachage. En ce qui concerne l’attestation à distance, la partie vérificatrice peut inspecter l’état d’un périphérique à distance à tout moment en demandant le hachage et en vérifiant les signatures. Lors d'une demande d’attestation à distance, le service IMASC interagit avec la carte à puce et la partie distante, pour fournir la preuve d’attestation. De plus, des librairies ont été conçues pour les objets de l’IdO pour réaliser les fonctions de hachage. À ce titre, la librairie « Cryptosuite » (Knight 2010) est une bibliothèque pour Arduino qui supporte différents algorithmes de hachage comme SHA-1, SHA-256, HMAC-SHA-1 et HMAC-SHA-256. 1.4.2.5. Non-répudiation dans l’IdO 1.4.2.5.1. Définition Le service de non-répudiation permet de ne pas nier la participation aux échanges par une partie. Ce service peut prendre une ou deux des formes suivantes : la première forme est la non-répudiation avec preuve de l’origine, où le destinataire reçoit la preuve de

Gestion du niveau de service dans l’IdO

21

l’origine des données. Cette preuve peut être constituée par une signature numérique en utilisant le chiffrement asymétrique appliqué au résultat de hachage des données échangées. La deuxième forme est la non-répudiation avec preuve de la remise des données, où l’émetteur reçoit cette preuve sous la forme d’un accusé de réception par exemple (ITU-T 1991). Ce service de sécurité de type non-répudiation est nécessaire dans l’Internet des objets afin de fournir une preuve d’envoi des données par les objets, mais aussi une preuve d’envoi d’ordre d’exécution par les utilisateurs des services IdO. Ceci peut rentrer dans le cadre d’un audit qui permettra de suivre et sauvegarder tous les événements qui ont eu lieu dans un environnement IdO dans les fichiers de traces. 1.4.2.5.2. Travaux de recherche La non-répudiation dans sa première forme (c’est-à-dire, avec preuve de l’origine) repose sur des mécanismes utilisés pour garantir l’intégrité telle que la signature des données. Par conséquent, l’adaptation des mécanismes de non-répudiation à un environnement Internet des objets peut hériter de l’adaptation des services d’intégrité dans l’IdO. La non-répudiation a été garantie dans le projet européen SMARTIE grâce à la mise en place d’une signature de la liste des logiciels et du système d’exploitation des objets pour vérifier l’identité de l’émetteur du hachage (voir section 1.4.2.4.2). 1.4.2.6. Disponibilité dans l’IdO 1.4.2.6.1. Définition La disponibilité concerne la possibilité d’accéder et d’utiliser sur demande des ressources par une entité autorisée suite à une authentification et un contrôle d’accès. La disponibilité est un service de sécurité puisqu’un service non disponible suite à une attaque de type DoS (Denial of Service) par exemple est un service non sécurisé, et peut être compromis à n’importe quel moment (Mosenia et Jha 2017). La disponibilité dans l’Internet des objets est essentielle pour fournir un environnement connecté à Internet pleinement opérationnel. Dans le contexte de l’IdO, ce service intègre d’une part la disponibilité des dispositifs (c’est-à-dire, les objets et les passerelles) permettant de collecter des données sans interruptions. D’autre part, il assure aussi la disponibilité du service IdO offert aux utilisateurs. Ce deuxième type de disponibilité est déterminé par la configuration de l’environnement IdO, d’où la nécessité de faire des choix appropriés de protocoles de gestion et d’administration et de se protéger contre des attaques de type déni de service (DoS ; DDOS : Distributed DoS). Les services offerts dans l’IdO doivent être disponibles d’une façon continue tout en prenant en compte la criticité de quelques-uns de ces services (Mosenia et Jha 2017). Dans ce contexte, une disponibilité permanente de 24 heures sur 24 pendant les 365 jours de l’année est requise pour des services critiques dans l’IdO, telles que certaines applications dans le domaine de l’e-santé.

22

Gestion du niveau de service

1.4.2.6.2. Travaux de recherche Suivant les recommandations de GSMA (Global System for Mobile Communications Association), un organisme commercial qui représente les intérêts de 800 opérateurs mobiles dans le monde entier, la disponibilité a été mise en relief en indiquant que les nœuds doivent être capables de communiquer en permanence entre eux, avec les utilisateurs et avec les services « back-end » (GSMA 2016). Le projet européen iCore (Internet Connected Objects for Reconfigurable Ecosystem) (Menoret 2012), financé par FP7 (octobre 2011 – octobre 2014), définit les exigences de sécurité à prendre en considération dans un framework concernant l’Internet des objets. Le framework, appelé « Open Cognitive framework », prend en considération trois niveaux : objets virtuels (Virtual Objects – VO) qui fournit une représentation virtuelle des objets, objets virtuels composites (Composite Virtual Objects – CVO) qui représente des fusions de plusieurs VO et le niveau utilisateur. Ce framework permet d’assurer une réutilisation des objets dans de nouveaux services, permettant ainsi une certaine redondance afin d’améliorer la disponibilité. De même, la fusion de certains objets virtuels à travers les CVO assure une meilleure disponibilité. Une description sémantique des capacités des objets permet d’assurer cette réutilisation. Le projet iCore présente aussi des recommandations à respecter dans différents cas d’utilisation pratiques de l’IdO. Ainsi, le rapport (Menoret 2012) insiste sur l’idée de fournir des mécanismes pour protéger l’infrastructure informatique contre les menaces de déni de services et de mettre en place les mécanismes nécessaires pour prendre en charge la récupération de service après une défaillance. Le travail de recherche décrit dans (Nagara et al. 2017) spécifie un outil de test de DoS portable basé sur un logiciel pour les appareils IdO. Ce test DoS doit être effectué au stade de la conception et du développement du produit. L’outil comprend une entité attaquante et un moniteur. L’attaquant effectue une attaque DoS sur le périphérique cible (c’est-à-dire, l’objet IdO) et transmet les informations de trafic au moniteur. Dans ce contexte, l’attaque « Mirai » a été utilisée, elle cible les périphériques sous Linux et les transforme en « bots » contrôlés à distance et pouvant être utilisés dans le cadre d’une attaque de réseau à grande échelle. L’outil vérifie efficacement si les appareils IdO sont résistants ou vulnérables aux attaques de type déni de service. 1.4.3. Protection de la vie privée et confiance dans l’IdO 1.4.3.1. Vie privée La protection de la vie privée dans l’Internet des objets nécessite une considération particulière pour protéger les informations concernant la vie privée des personnes contre l’exposition dans ce type d’environnement. Les données transmises par un seul objet peuvent ne pas générer de problèmes de confidentialité portant atteinte à la vie privée des individus. Cependant, lorsque des données fragmentées provenant de plusieurs objets

Gestion du niveau de service dans l’IdO

23

sont rassemblées, compilées et analysées, elles peuvent générer des informations sensibles nécessitant une protection adaptée. Comme déjà mentionné dans la section 1.3.2, l’Internet des objets opère dans différents domaines d’applications à travers lesquels des données personnelles des utilisateurs sont collectées. En fait, les consommateurs des services IdO risquent de divulguer leur vie privée, peu à peu, sans s’en rendre compte, car ils peuvent ignorer la nature des données collectées et leurs utilisations dans ce type d’environnement. Les approches actuelles de protection des données personnelles dans l’IdO reposent principalement sur le chiffrement ou encore le contrôle d’accès aux informations collectées. Cependant, les menaces concernant la vie privée dans l'Internet des objets peuvent ne pas être couvertes par les mécanismes proposés par ces solutions. Ainsi, les données peuvent être externalisées pour le traitement (data outsourcing) créant un risque de vente des données pour des fins de marketing ou autre à des parties tierces (Sicari et al. 2015). 1.4.3.2. Confiance La confiance est un concept complexe influencé par de nombreuses propriétés mesurables et non mesurables. La confiance est étroitement liée à la sécurité des systèmes et des utilisateurs et est une condition nécessaire. Cependant, la confiance concerne non seulement la sécurité, mais également de nombreux autres facteurs, tels que la qualité du service rendu par le système, sa fiabilité, sa disponibilité et donc les services offerts par ce dernier, etc. Un autre concept important lié à la confiance est la protection de la vie privée. Un système de confiance devrait préserver la vie privée de ses utilisateurs, afin de gagner la confiance de ces derniers. La confiance, la sécurité et la protection de la vie privée sont des enjeux cruciaux dans les domaines émergents des technologies de l’information, tel que l’IdO (Yan et al. 2014). La gestion de la confiance se fait grâce à plusieurs processus intervenant dès la collecte des données jusqu’à l’offre du service au client. Ainsi, la gestion de la confiance dans l’Internet des objets fournit un moyen efficace pour évaluer les relations de confiance entre les entités de l’IdO et les aider à prendre une décision afin de communiquer et de collaborer entre elles. Pour assurer cette confiance, la détection et la collecte des données doivent être fiables dans l’Internet des objets. Ainsi, il faut accorder une attention particulière aux propriétés de confiance dans ce type d’environnement. Ces propriétés comprennent la sensibilité, la précision, la sécurité, la fiabilité et la persistance de l’objet, ainsi que l’efficacité de la collecte de données. La collecte génère un énorme volume de données qui doit être traité et analysé de manière digne de confiance en matière de fiabilité, de préservation de la vie privée et de précision. De plus, les données doivent être transmises et communiquées en toute sécurité dans un environnement IdO. La gestion des clés de chiffrement dans l’Internet des objets est un défi important à relever pour atteindre cet objectif puisque la confidentialité des données est commune

24

Gestion du niveau de service

aux services de sécurité, de protection de la vie privé et de la confiance. En outre, il faut prendre en considération les mesures nécessaires pour remédier aux attaques qui peuvent porter atteinte à tous les niveaux de l’environnement IdO et être sûr que le système est robuste face à tous types d’attaques, et ce afin d’obtenir une confiance suffisante des utilisateurs en leur environnement IdO. Finalement, une gestion d’identité évolutive et efficace est attendue. Cette gestion d’identité concerne toutes les couches de l’architecture IdO en partant de l’objet et en arrivant à l’utilisateur du service hébergé sur le Cloud. La gestion de l’identité doit respecter la confidentialité de l’identité de l’utilisateur du service afin de respecter ainsi sa vie privée. Le contexte du service IdO est susceptible d'influencer les stratégies de gestion des identités. À ce titre, un service IdO critique dans le domaine de l’e-santé requiert une gestion d’identité plus fine et plus spécifique (Yan et al. 2014). 1.4.3.3. Réglementations Plusieurs réglementations pour la protection de la vie privée ont été présentées par les États et l’Union européenne. Une des plus importantes est la directive 95/46/EC du Parlement européen qui insiste sur la protection des personnes à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (Journal officiel L 281 1995). Ainsi, le règlement général sur la protection des données (RGPD) est un règlement de l’Union européenne constituant le texte de référence en matière de protection des données privées. Il est entré en vigueur le 25 mai 2018 et engendre un changement important dans le traitement des données utilisateurs. Cette réglementation doit être respectée lors de l’offre de services dans l’Internet des objets et comprend différentes exigences (Journal officiel de l’Union européenne 2016) : – traiter les données personnelles équitablement, licitement et de manière transparente ; – collecter et conserver seulement les données personnelles réellement nécessaires et détruire ces données après usage ; – s’assurer que les données détenues sont exactes et à jour ; – s’assurer d’être prêt à gérer les droits accrus des personnes ; – nommer un délégué à la protection des données ; – élaborer et tenir à jour un registre des activités de traitement ; – partager les données personnelles de manière responsable. 1.4.3.4. Travaux de recherche Plusieurs travaux ont porté sur la confiance et la vie privée dans l’IdO. Ainsi, le rapport de l’atelier de l’Alliance pour l’innovation dans l’IdO (AIOTI : Workshop on

Gestion du niveau de service dans l’IdO

25

Security & Privacy in IoT) indique les principales exigences de sécurité et de la vie privée pour différents domaines d’application de l’Internet des objets. Ces exigences peuvent se résumer par la possibilité du contrôle des données par l’utilisateur, la transparence et le contrôle de l’interface utilisateur, le chiffrement par défaut, l’isolation des données, le contrôle continu, etc. De plus, ce rapport insiste sur l’importance de l’application de mécanismes supplémentaires comme la minimisation de la collecte des données et la nécessité de la responsabilisation lors de l’utilisation abusive des données personnelles collectées (AIOTI 2017). D’autre part, TCG (Trusted Computing Group) (2018) est un groupe formé par AMD, Hewlett-Packard, IBM, Intel et Microsoft qui a pour objectif d’implémenter les concepts du « Trusted Computing » (c’est-à-dire de confiance) dans les ordinateurs personnels. Dans ce contexte et à travers le rapport (Hanna 2015), le sous-groupe Internet des objets de TCG a défini un système de confiance comme étant un système conçu pour être prévisible, même sous le stress. Dans ce même rapport, il a été spécifié que pour construire un système IdO de confiance, il faut mettre en place une racine matérielle de confiance (RoT : Root of Trust), utiliser le chiffrement lors du stockage, ajouter une automatisation de sécurité et protéger les systèmes hérités. Le RoT permet de générer des nombres aléatoires, de stocker et d’utiliser des clés à long terme et de vérifier l’intégrité du système dans le but de réduire les risques et d’assurer une protection forte au système. Dans ce contexte, TPM (Trusted Platform Module) est un standard ouvert et interopérable de l’ISO/IEC (2015b) qui permet de spécifier un RoT matériel. La spécification technique de ce standard a été rédigée par le groupe TCG. TPM assure des fonctionnalités de sécurité comme l’authentification, le chiffrement et l’attestation (garantissant la sécurité d’un logiciel ou d’un matériel à un tiers). Actuellement, TPM est intégré dans des milliards d’objets connectés. Le chiffrement de stockage matériel (Hardware Storage Encryption) est un composant permettant d’assurer le service de chiffrement. Le chiffrement de stockage matériel utilise le SED (Self-Encrypting Drive) afin d’assurer un chiffrement continu et sans impact sur la performance du système. Ce composant permet de se protéger contre les attaques physiques, la perte ou le vol en assurant un effacement instantané des données et des suites cryptographiques. L’automatisation de sécurité (Security Automation) permet le traitement automatique des tâches liées aux opérations de sécurité. Cette automatisation est effectuée lors de toutes les phases de sécurisation du système (détection d’incident, analyse de l’incident, réponse à l’incident) (Hanna 2015). Cette automatisation de sécurité est normalisée à travers différents standards comme IEEE 802.1AR (IEEE Standards Association 2018) et TAXII (Trusted Automated eXchange of Indicator Information) (Davidson et Schmidt 2014). Enfin, le travail de recherche effectué dans (Dong et al. 2011) présente un modèle de gestion de la confiance dans l’Internet des objets nommé TRM-IdO. Ce modèle permet

26

Gestion du niveau de service

de se défendre contre les attaques des nœuds malicieux en les identifiant et en prenant les décisions adéquates. Pour effectuer cette tâche, la mesure de la confiance des objets est nécessaire et est effectuée en prenant en compte des aspects complexes tels que l’évaluation de crédibilité des nœuds à titre d’exemple. La théorie de la logique floue est ensuite utilisée pour déterminer la confiance en prenant en compte différents paramètres d’entrée : le ratio de transmission de paquets de bout en bout, la consommation énergétique et le ratio de livraison de paquets. 1.5. Gestion de la qualité de service dans l’IdO 1.5.1. Motivations et challenges L’Internet des objets consiste en une combinaison de technologies différentes et réseaux hétérogènes fournissant divers types de services. Par conséquent, plusieurs types de données et flux avec des contraintes différentes, voire contradictoires peuvent coexister dans un même environnement IdO. De ce constat est née la nécessité de l’intégration de la qualité de service (QoS) pour satisfaire les exigences requises par chaque type de données (Gubbi 2013). La QoS est un élément critique dans l’Internet des objets, étant donné que le grand nombre d’objets connectés induit une augmentation considérable du volume de données dans ce type d’environnement. Cette augmentation peut créer une congestion affectant les performances du système IdO. Dans ce contexte, les mécanismes de QoS permettent d’optimiser les performances en identifiant les trafics et en leur appliquant un traitement différencié. La gestion de la performance permet également de réduire les coûts et d’assurer une meilleure évolutivité dans l’environnement IdO (Bhaddurgatte et Kumar 2015). Les modèles de QoS utilisés dans les réseaux informatiques traditionnels tels que IntServ (Braden et al. 1994) et DiffServ (Babiarz et al. 2006) sont difficiles à mettre en place dans l’Internet des objets. Cela est dû aux contraintes en termes de mémoire et de capacité de calcul des objets de l’IdO, mais aussi à la grande envergure de l’IdO et le déploiement aléatoire de ces objets. Ainsi, de nouveaux modèles de QoS bien adaptés doivent être proposés pour offrir des services IdO avec des garanties de connectivité, de performance et de QoS d’une façon générale (Premila et al. 2015). L’importance de la garantie de QoS dans l’Internet des objets a été mise en avant par différents organismes internationaux. L’UIT-T a étudié l’importance de l’intégration de la QoS dans l’environnement IdO à travers Y.2066 (ITU-T 2014) en mentionnant le fait que prioriser les services IdO est une exigence primordiale. En outre, Y.2066 indique que la fonctionnalité de priorisation permet de satisfaire les différentes exigences de service de divers groupes d’utilisateurs IdO. En d’autres termes, les services différenciés devraient être pris en charge, afin que l’IdO puisse fournir différents accords de niveau

Gestion du niveau de service dans l’IdO

27

de service (SLA : Service Level Agreement). D’autre part, LinkLabs, société américaine développant des technologies pour les réseaux informatiques, indique que l’intégration de la QoS dans l’IdO permet de mieux gérer les capacités et les ressources dans ce type d’environnement pour fournir une infrastructure fiable et optimisée pour la connectivité des objets de l’IdO. Selon LinkLabs, afin d’offrir des services IdO sûrs et prévisibles, les mécanismes de QoS permettront de gérer les délais, la gigue, la bande passante et la perte de paquets en classifiant le trafic et en enregistrant les limites des canaux de communication (Ray 2016). Nous décrivons dans la section suivante les besoins en termes de garantie de qualité de service ainsi que les réponses apportées au sein des différentes couches de l’architecture de l’Internet des objets. 1.5.2. Garantie de la QoS dans l’IdO 1.5.2.1. Couche dispositifs de l’IdO 1.5.2.1.1. Besoins de QoS La couche dispositifs de l’architecture en couches de l’IdO comprend les objets connectés et les passerelles qui gèrent ces derniers. Ainsi, la QoS à ce niveau doit répondre à des besoins en rapport avec les objets et les passerelles. Un besoin essentiel pour assurer une QoS à la couche dispositifs est la différenciation des flux et la priorisation. L’Internet des objets regroupe un ensemble varié d’applications de différents types et appartenant à différents domaines. Par conséquent, la priorité des données émanant de ces différentes applications n’est pas identique. Ceci est à l’origine du besoin de classifier les différents flux suivant leur criticité et d’appliquer une certaine priorisation à travers différents mécanismes de QoS adaptés. En se basant sur la même notion d’hétérogénéité des applications, les mécanismes de QoS appliqués doivent être en adéquation avec les caractéristiques de ces différentes applications. Ainsi, il est important de classifier les applications de l’IdO suivant des critères spécifiques afin de proposer des mécanismes de QoS définis dans le contexte d’un ensemble homogène d’applications. Ainsi, chaque ensemble d’applications disposera de mécanismes bien adaptés à leurs exigences. Ensuite, la gestion de la performance du système, à travers l’optimisation de l’utilisation des ressources pour offrir les meilleures performances, est un mécanisme important à proposer pour assurer une QoS au niveau de cette couche de l’architecture de l’IdO. Afin de répondre aux besoins des clients des applications IdO et offrir un service respectant les exigences correspondantes, une surveillance de la performance de l’environnement IdO doit être effectuée. Cette surveillance consiste en une collecte d’informations précises sur le système. Il est donc important de bien choisir les paramètres permettant de mesurer les performances relatives à l’environnement IdO. Ce choix

28

Gestion du niveau de service

permet ainsi de spécifier des paramètres propres à l’Internet des objets qui doivent être quantifiés par des métriques adaptées. Différents protocoles et technologies de communication sont utilisés pour l’échange d’informations entre objets et passerelles au sein de la couche dispositifs de l’architecture IdO. Par conséquent, les mécanismes de QoS relatifs à la couche dispositifs dépendent de ces technologies. Certaines de ces technologies ont des bases communes, ce qui permet de généraliser certains des mécanismes de QoS utilisés au niveau de cette couche. 1.5.2.1.2. Travaux de recherche Différents projets et travaux de recherche ont proposé l’intégration de la QoS au niveau de la couche dispositifs de l’architecture IdO grâce à des mécanismes adaptés à ce type d’environnement. OpenIoT, un projet européen financé par FP7 (décembre 2011 – décembre 2014), spécifie différents paramètres pour la QoS dans l’Internet des objets (Serrano 2014). Ces paramètres sont variés et peuvent être classés en plusieurs catégories. Premièrement, les paramètres généraux comme la qualité des capteurs pour déterminer la précision et la sensibilité des mesures mais aussi la consommation énergétique. De plus, OpenIoT prend en considération le volume de données produit par un capteur physique, la couverture du réseau des objets et la confiance corrélée à la qualité d’un capteur. D’autre part, différents paramètres concernant le réseau d’objets de la couche dispositifs, sont à prendre en considération comme la durée de vie, le délai et la gigue. Pour chaque paramètre de QoS spécifié dans le cadre du projet OpentIoT, différentes métriques sont prises en compte pour les quantifier. Par exemple, le paramètre relatif à la consommation énergétique est quantifié grâce à la métrique niveau de batterie. Enfin, ce projet permet d’appliquer la QoS en utilisant un gestionnaire appelé « QoS Manager » qui va permettre la collecte des différents paramètres. Les informations collectées vont permettre à ce gestionnaire de prendre des décisions pour améliorer la qualité rendue (Serrano 2014). Le travail de recherche effectué dans (Nef et al. 2012) concernant la garantie de QoS dans l’IdO, propose de classifier les différentes applications de l’IdO selon 3 modèles de services (c’est-à-dire Open Service Model, Supple Service Model, Complete Service Model) et fait correspondre à chaque classe une topologie physique pour l’implémentation des capteurs. « Open Service Model » correspond aux applications interactives, non temps réel et non critiques, « Supple Service Model » correspond aux applications interactives, temps réel souples (Soft Real Time) et critiques alors que « Complete Service Model » correspond aux applications interactives, temps réel dures (Hard Real Time) et critiques. Ainsi, les auteurs ont classifié les applications appartenant à différents domaines selon ces 3 modèles. De plus, ce travail a fait correspondre les modèles de service proposés à des topologies physiques (topologie étoile et topologie aléatoire) au

Gestion du niveau de service dans l’IdO

29

niveau de la couche dispositifs et ce afin de répondre aux besoins de chaque modèle. En effet, les applications appartenant au modèle « Complete » doivent être fournies à travers une topologie physique en étoile pour obtenir de meilleurs délais. D’autre part, les applications appartenant au modèle « Open » doivent être fournies à travers une topologie physique aléatoire pour une meilleure consommation énergétique. D’autres travaux de recherche se sont intéressés à la priorisation de l’accès au canal de communication partagé entre les objets IdO pour garantir une différenciation de trafic lors de l’envoi des données aux passerelles. Le travail de recherche mené dans (Sayarifah et al. 2015) spécifie différentes files d’attente et un ordonnanceur dans un objet afin de privilégier le traitement des flux prioritaires. D’autres travaux de recherche ont tenté d’adapter les algorithmes d’accès au canal CSMA/CA à créneaux (Slotted Carrier Sense Multiple Access/Collision Avoidance) pour assurer une garantie de qualité de service. La recherche menée dans (Feng et al. 2013) a adapté le standard IEEE 802.15.4 et particulièrement l’algorithme CSMA/CA à créneaux en intégrant un mécanisme de qualité de service. Cette nouvelle méthode d’accès, appelée SDA-CSMA/CA, repose sur la spécification de différentes valeurs de variables CSMA/CA (Contention Window (CW), Backoff Exponent (BE) minimal maximal) permettant de créer différentes priorités en fonction des types de trafic. Ainsi, trois niveaux de priorité sont pris en compte avec SDA-CSMA/CA. Dans ce contexte, des CW moins importantes et des intervalles BE (BE minimal et BE maximal) moins larges sont affectés aux trafics de priorité élevée. Par conséquent, les messages importants ont plus de chance d’accéder au canal avec un temps d’attente réduit. 1.5.2.2. Couche réseau de l’IdO 1.5.2.2.1. Besoins de QoS La couche réseau de l’architecture IdO comprend toutes les fonctionnalités réseau tels que le routage, le transfert et la gestion des chemins (sélection et récupération du chemin) via une infrastructure à chemins multiples. Cette couche agit en tant qu’infrastructure réseau interconnectant le réseau d’objets à l’infrastructure Cloud. L’intégration de la QoS dans cette couche permettra de traiter le grand nombre de requêtes et informations transitant de la couche dispositifs à la couche support de l’architecture IdO. Ce traitement doit être différencié, il doit en d’autres termes prioriser les requêtes selon leur importance. De ce fait, les besoins de QoS pour la couche réseau de l’architecture IdO correspondent aux besoins de QoS d’une infrastructure réseau tout en adaptant ces besoins aux caractéristiques de l’environnement Internet des objets. Pour répondre aux besoins de l’IdO, différents mécanismes peuvent être utiles comme la priorisation des requêtes et le choix des chemins sur la base d’un contexte de QoS, etc.

30

Gestion du niveau de service

1.5.2.2.2. Travaux de recherche F-Interop Platform, un projet européen financé par H2020 (novembre 2015 – novembre 2018), développe des outils de test pour la QoS et la qualité d’expérience (QoE : Quality of Experience) qui se basent sur les solutions de type SDN/NFV (Software Defined Networking/Network Functions Virtualisation) pouvant être utilisées dans l’Internet des objets (Ziegler 2015). Ces technologies peuvent remplacer les technologies classiques pour assurer la QoS dans la couche réseau de l’architecture de l’IdO. La technologie SDN consiste à séparer les fonctions de contrôle des fonctions d’acheminement de données. Le contrôleur SDN (composant centralisant la prise de décision et la gestion du réseau formé par des équipements réseaux qui échangent des données entre eux) peut imposer des politiques sur les flux pour fournir différents niveaux de QoS. D’autre part, la technologie NFV permet de fournir des modules pour appliquer les différentes politiques, pour le déploiement des agents et pour émuler des conditions de réseau tout en collectant des mesures concernant les paramètres de QoS (Ziegler 2015). À travers la solution de F-Interop, la collecte de statistiques QoS (délai, gigue, etc.) peut être assurée en utilisant une méthode passive ou une méthode active. La méthode passive s’appuie sur la collecte de statistiques de QoS des commutateurs SDN (SDN switches) sur lesquels des compteurs sont implémentés pour mesurer le débit et la perte de paquets, par exemple. La méthode active s’appuie sur l’utilisation d’agents NFV permettant de mesurer les paramètres de QoS en temps réel. La collecte des informations porte sur les données concernant la perte de paquets, le délai et la gigue (Ziegler 2015). 1.5.2.3. Couche support et couche application de l’IdO 1.5.2.3.1. Besoins de QoS La couche support de l’architecture IdO comprend les services Cloud et les capacités de calcul et de stockage. En outre, la couche application comprend les applications IdO permettant de traiter les données et d’effectuer des calculs pour des fins utiles. La garantie de QoS dans le Cloud hébergeant les applications IdO est difficile à mettre en place et constitue une discipline émergente présentant plusieurs défis de recherche. Cela est dû à la pénurie d’approches standardisées de bout en bout pour l’assurance de la QoS dans ce type d’environnement. De plus, il existe une diversité de contraintes et de paramètres QoS spécifiques à chaque service Cloud. En effet, les besoins de QoS dans le Cloud sont variés et dépendent du service fourni par ce dernier. Ces services sont l’IaaS (Infrastructure as a Service), le PaaS (Platform as a Service) et le SaaS (Software as a Service). Le Cloud peut aussi fournir des services réseaux appelés NaaS (Network as a Service) qui peuvent constituer l’infrastructure connectant, dans un environnement IdO, la couche dispositifs à la couche support offrant des services de type IaaS, PaaS ou SaaS.

Gestion du niveau de service dans l’IdO

31

Les besoins de QoS dans un environnement Cloud et par conséquent dans la couche support et la couche application de l’architecture IdO peuvent concerner la disponibilité du service, la nécessité de fournir des mécanismes permettant de traiter de manière différenciée les différents types de flux, l’allocation des ressources en fonction des besoins des flux et la standardisation des SLA (Hamze 2015). 1.5.2.3.2. Travaux de recherche Différents projets et travaux de recherche étudient l’intégration de la technologie Cloud dans l’Internet des objets ainsi que la garantie de QoS dans ce contexte. Le projet européen BigClouT, financé par H2020 (juillet 2016 – juin 2019), vise à utiliser les trois principaux outils technologiques actuels, à savoir l’IdO, le Cloud et le Big Data, dans le but d’accroître l’efficacité des infrastructures urbaines, économiques et naturelles partagées par la population croissante (Grugen 2018). Un autre travail de recherche mené dans (Khodkari et al. 2017), a considéré que l’intégration du Cloud dans l’environnement IdO permet de garantir un niveau de QoS aux applications grâce aux ressources importantes du Cloud. En effet, le Cloud est capable de gérer des données diversifiées et de provisionner les applications IdO avec des ressources d’une manière dynamique pour garantir la performance tout en respectant un moindre coût. Dans ce contexte, les auteurs ont proposé différentes fonctions permettant de mesurer les attributs de QoS (c’est-à-dire, les temps de réponse, disponibilité, débit, etc.). D’autre part, les auteurs dans (Chowdhury et al. 2018) étudient l’environnement Cloud mais aussi IdO. Dans ce contexte, ils mettent en évidence différents concepts concernant le maintien d’une bonne QoS, les différents paramètres dont dépend la QoS en les classifiant selon les couches de l’IdO, les différents problèmes rencontrés pour maintenir ces paramètres et les solutions possibles pour surmonter les problèmes dans le cadre du Cloud et de l’IdO. Ce travail présente les différents paramètres à prendre en considération au niveau des couches de l’architecture IdO comme la charge de trafic, le délai de service, le temps de service, la précision du service et la priorité de service. Selon ce travail, les paramètres de QoS dans l’environnement IdO doivent prendre aussi en considération les caractéristiques liées aux applications IdO hébergées dans le Cloud. 1.5.2.4. Approche transversale dans l’IdO 1.5.2.4.1. Besoins de QoS Après avoir défini les différents besoins de QoS propres à chaque couche de l’IdO et les mécanismes pouvant apporter cette QoS pour chacune de ces couches, il est nécessaire de spécifier les besoins et les mécanismes assurant une QoS de bout en bout à travers les différentes couches de l’architecture IdO. Cette QoS de bout en bout permet aux clients de percevoir le niveau de service apporté. En effet, le client (utilisateur de l’application IdO) apprécie le niveau global de QoS de bout en bout et ne distingue pas la déclinaison de cette QoS en plusieurs niveaux.

32

Gestion du niveau de service

Différents travaux de recherche prennent en charge l’étude de la QoS de bout en bout dans l’Internet des objets et spécifient les différent besoins relatifs à ce type d’environnement. Premièrement, l’environnement IdO doit être en mesure de prioriser certains flux et certains services en fonction de leurs besoins. Les utilisateurs de l’IdO ayant payé pour des services privilégiés doivent en bénéficier. De plus, le déploiement de l’Internet des objets, en partant de la couche dispositifs et jusqu’à l’hébergement de l’application au niveau de la couche support, doit être effectué d’une manière optimale pour prendre en considération les capacités demandées des différents composants. Les passerelles doivent être capables de traiter le volume de données remontées par les objets alors que le service Cloud doit être en mesure de fournir les capacités de calcul et de stockage nécessaires. De même, l’ensemble des composants de l’environnement IdO doivent être capables d’effectuer des auto-adaptations en temps réel pour respecter les besoins des différents flux des utilisateurs. Ensuite, les besoins de QoS au niveau des différentes couches de l’architecture IdO doivent être traduits d’une manière compréhensible par les autres couches. Cette traduction permet aux différentes couches de l’IdO de communiquer entre elles afin de respecter les exigences en termes de QoS. Par conséquent, la garantie d’une QoS de bout en bout dans l’Internet des objets, nécessite la décomposition en premier lieu des besoins de QoS suivant les différentes couches de l’architecture IdO et ensuite de trouver les mécanismes à appliquer d’une façon complémentaire entre ces couches. 1.5.2.4.2. Travaux de recherche Différents projets et travaux de recherche ont pour objectif d’étudier la garantie de QoS dans l’environnement IdO en se basant sur une approche transversale impliquant les différentes couches de l’architecture IdO. Nous présentons dans ce qui suit une liste non exhaustive des propositions émanant de ces études. SymbIoTe, un projet européen financé par H2020 (janvier 2016 – janvier 2019) (Zarko et al. 2015), a comme but de présenter un système offrant les services IdO si la disponibilité et la qualité de service potentiellement associées peuvent être garanties par l’infrastructure sous-jacente. Le système IdO doit offrir aux utilisateurs privilégiés une priorité sur les utilisateurs de base lors d’une tentative d’accès simultanée à certains services IdO. Cette priorité doit être assurée au niveau de toutes les couches IdO pour garantir une QoS de bout en bout. De plus, le système doit permettre le contrôle de l’accès aux services IdO pour des raisons liées à la législation locale et mondiale (la sécurité de l’accès aux données critiques est une exigence nécessaire demandée par plusieurs gouvernements et organisations internationales), la surcharge actuelle, les questions de sécurité, etc. Ce contrôle d’accès doit être assuré au niveau de toutes les couches de l’IdO (Zarko et al. 2015).

Gestion du niveau de service dans l’IdO

33

De plus, plusieurs travaux de recherche s’intéressent à l’approche transversale pour la garantie de QoS dans l’environnement IdO. Ainsi, le travail de recherche présenté dans (Duan et al. 2011) se base sur le principe que deux couches adjacentes de l’architecture IdO communiquent entre elles pour assurer la QoS. En effet, la couche supérieure effectue une requête de QoS vers la couche directement inférieure qui traduit la demande en un nombre de paramètres QoS. Cette communication inter-couche se fait à l’aide d’interfaces dédiées avec des paramètres bien spécifiques. La QoS au niveau de la couche support et applications de l’architecture IdO est perçue directement par les clients et se base sur des paramètres comme l’heure de service, la précision, la charge et la priorité, etc. La QoS au niveau de la couche réseau dépend du type de réseau et se base sur des paramètres comme la bande passante, le délai, la gigue et le taux de perte de paquets, etc. Enfin, la QoS de la couche dispositifs se base sur les paramètres d’échantillonnage, de couverture, de synchronisation et de mobilité. La différenciation de service est utile pour identifier différent niveaux de service et les attribuer à des applications IdO bien spécifiques. En outre, chaque niveau correspond à un certain nombre d’exigences de QoS spécifiques. Le travail effectué dans (Duan et al. 2011) organise les applications en quatre classes selon le type de tâche à effectuer. Les quatre types de classes d’applications spécifiés sont : service garanti (Guaranteed Service), service garanti/service différencié (Guaranteed Service/ Differentiated Service), service différencié (Differentiated Service), et service au mieux (Best Effort). Ainsi, les applications IdO de contrôle ont besoin d’un service garanti, les requêtes IdO ont besoin d’un service garanti ou différencié, les applications de surveillance IdO en temps réel ont besoin d’un service différencié alors que les applications de surveillance IdO en temps non réel ont besoin d’un service au mieux. 1.6. QBAIoT : méthode d’accès sans fil basée sur la QoS pour l’IdO Pour garantir un niveau de service au sein de l’Internet des objets, nous proposons dans (Khalil et al. 2017) un framework basé sur une architecture permettant la garantie de la QoS à travers l’établissement de différents types de SLA. 1.6.1. Garantie du niveau de service dans l’IdO 1.6.1.1. Architecture de QoS pour l’IdO Nous proposons l’architecture illustrée par la figure 1.3 afin de permettre à un fournisseur de services IdO (IdO-SP : IdO Service Provider) de fournir un service à un client (IdO-C : IdO Client) en conformité avec un contrat de niveau de service global (iSLA : IdO-SLA).

Figure 1.3. Architecture de l’Internet des objets (Khalil et al. 2018)

34 Gestion du niveau de service

Gestion du niveau de service dans l’IdO

35

L’architecture proposée est basée sur trois couches (sensing, réseau et Cloud) et différentes entités ayant chacune un rôle spécifique. L’IdO-C demande un service auprès de l’IdO-SP. Le service sollicité fait appel à une infrastructure d’objets détenue par le client ou le fournisseur. De plus, l’IdO-SP peut posséder sa propre infrastructure Cloud où il souscrit des SLA spécifiques avec différents fournisseurs de services Cloud (CSP : Cloud Service Provider). D’autre part, l’IdO-SP souscrit des SLA avec différents fournisseurs de services réseau (NSP : Network Service Provider) pour interconnecter les infrastructures d’objets aux ressources du Cloud. Le service IdO nécessite une partie application et une partie infrastructure d’objets. L’infrastructure d’objets récupère des informations ou exécute des ordres. Elle est gérée par une passerelle de haut niveau (HL-Gw : High-Level Gateway) agrégeant les données avant leur envoi au Cloud pour garantir une consommation minimale de bande passante. De plus, cette passerelle de haut niveau offre des capacités de traitement des données en local (fog computing). D’autre part, les passerelles de bas niveau (LL-Gws : Low-Level Gateways) classifient les données pour la différenciation et assurent l’application de la QoS au niveau de la couche la plus basse de l’architecture IdO proposée (couche sensing ou encore dispositifs selon l’UIT-T). Quant à la partie applicative du service IdO, elle permet la surveillance des objets lors de l’exécution des ordres ou le traitement des données. Elle est généralement hébergée dans l’infrastructure Cloud et peut être fournie sous différentes formes selon le service souscrit avec le CSP (IaaS, SaaS, PaaS) (Khalil et al. 2017). Un contrat de niveau de service (SLA) entre le fournisseur et le client permet de définir les caractéristiques attendues du service IdO. Dans le contexte de notre architecture IdO, le SLA doit inclure les attentes des clients et les garanties du fournisseur par rapport aux trois couches (sensing, réseau et Cloud). Ainsi, notre IdOSLA global (iSLA) établi entre l’IdO-SP et l’IdO-C est basé sur différents sous-SLA établis entre l’IdO-SP et le CSP (appelé cSLA : cloud SLA), ou encore le NSP (appelé nSLA : network SLA). De plus, un SLA interne est établi par l’IdO-SP avec la passerelle de haut niveau (appelé gSLA : gateway SLA). Le cSLA inclut des paramètres de performance et de QoS en fonction du type de service Cloud souscrit. Les paramètres de performance d’un service IaaS diffèrent de ceux des services PaaS et SaaS. Ainsi, un temps de réponse pour un service SaaS peut être suffisant pour mesurer la performance. Alors que pour un service IaaS, une infrastructure est offerte au client du cSLA et par conséquent d’autres paramètres sont essentiels pour la mesure de performance, comme la capacité de calcul, capacité de stockage, etc. Quant au nSLA, il est basé sur les paramètres de QoS réseau traditionnels tels que la bande passante, la latence, la gigue, le taux de perte de paquets et la disponibilité. Le gSLA décrit les capacités de traitement et de stockage utilisées par le service IdO au niveau de la passerelle de haut niveau. Il comprend aussi les caractéristiques des passerelles de bas niveau et celles de l’infrastructure d’objets utilisées pour l’offre de service IdO (Khalil et al. 2017).

36

Gestion du niveau de service

1.6.1.2. Contrat de niveau de service dans l’IdO L’IdO-SP établit un contrat de niveau de service appelé iSLA avec l’IdO-C en utilisant un ensemble de sous contrats tels que les cSLA et les nSLA mis en place avec divers NSP et CSP. Le contrat global de type iSLA permet une identification du service IdO grâce à l’attribut « Service Identification ». Cet attribut est basé du côté client sur une liste des adresses IP utilisées par l’IdO-C. Alors que du côté fournisseur, un identificateur d’application, l’adresse IP de l’interface de l’application, le numéro de port ainsi que les identificateurs de la HL-Gw et des LL-Gws sont utilisés. De plus, le contrat de type iSLA comporte un attribut « IdO Service Performance Parameters » décrivant les caractéristiques du service IdO grâce à trois sous attributs, « IdO Sensing Characteristics », « IdO Application Characteristics » et « IdO QoS Parameters ». Ainsi, la partie « IdO Sensing Characteristics » comprend les caractéristiques des passerelles (HL-Gw, LL-Gw) et du groupe d’objets IdO (c’est-à-dire technologie de communication inter et intra passerelles, nombre d’objets connectés par passerelle LL-Gw, nombre de passerelles LL-Gw par HLGw, etc.). La partie « IdO Application Characteristics » comprend des paramètres liés au cSLA tels que l’identifiant de l’application, le nombre maximum d’utilisateurs, le nombre moyen de requêtes par seconde par utilisateur, le temps de support et les paramètres de stockage. Enfin, la partie « IdO QoS Parameters » comporte des paramètres qualitatifs et quantitatifs de QoS. Les paramètres qualitatifs définissent le type d’application en spécifiant la classe de QoS des données générées. Nous pouvons citer à ce titre la classe des services temps réel critiques appelée RTMC (Real Time Mission Critical), mais aussi la classe des services temps réel non critiques appelée RTNMC (Real Time Non Mission Critical), la classe des services de diffusion appelée streaming et la classe des services non temps réel appelée NRT (Non Real Time). Les paramètres quantitatifs dépendent du type de service concerné par l’iSLA et comprennent le délai de bout en bout, la disponibilité, la durée de vie des objets et la qualité des données (écart-type, fréquence de détection et taux d’erreur des données, etc.). Le contrat de type iSLA comprend aussi un attribut « Business Parameters » spécifiant le coût du service IdO et la méthodologie de gestion des violations et des pénalités résultantes à travers des seuils et des intervalles de surveillance pour chaque paramètre de QoS quantitatif. 1.6.2. Principe de fonctionnement de QBAIoT dans l’IdO Afin de garantir les paramètres de QoS négociés dans le contrat de niveau de service iSLA, nous proposons un nouveau mécanisme de QoS concernant la première couche de l’architecture IdO, à savoir la couche sensing. Ainsi, nous spécifions une méthode d’accès sans fil basée sur la QoS nommée QBAIoT (QoS Based Access method for IdO) (Khalil et al. 2018). Cette méthode permet la communication entre les objets de l’IdO et la passerelle de bas niveau (LL-Gw) tout en adaptant la structure de la supertrame du standard IEEE 802.15.4 et le mécanisme CSMA/CA slotté (Slotted CSMA/CA).

Gestion du niveau de service dans l’IdO

37

L’adaptation permet une différenciation du trafic afin de satisfaire les exigences de QoS de chaque classe. La méthode QBAIoT prend en considération jusqu’à quatre classes de QoS tel que défini dans les paramètres qualitatifs de l’iSLA (RTMC, RTNMC, Streaming et NRT). Les trafics temps réel (RTMC et RTNMC) sont très sensibles au délai, alors que le trafic Streaming est très sensible à la gigue (c’est-à-dire la variation du délai) et le trafic NRT est une classe de QoS sans contraintes temporelles. Pour adapter la structure de la supertrame, QBAIoT remplace la période d’accès unique avec la contention nommée CAP (Contention Access Period), commune à tous les objets, ainsi que la période de non contention (CFP : Contention Free Period) de la supertrame IEEE 802.15.4 classique par des QoS CAP. Chaque QoS CAP est spécifique à une classe de QoS. Ainsi, la supertrame QBAIoT adaptée peut contenir jusqu’à quatre QoS CAP. Le nombre de QoS CAP configurées dans une passerelle de bas niveau (LL-Gw) dépend du nombre de classes de QoS définies dans les iSLA concernant cette passerelle. De plus, la partie inactive de la supertame classique est éliminée dans le contexte de QBAIoT. Cette suppression entraîne la réduction du délai et améliore les performances des trafics correspondant aux classes temps réel. D’autre part, le nombre d’intervalles de temps (IT ou encore slots) disponibles dans la supertrame est fixé à 16 et la durée de chaque IT dépend de la durée de la supertrame. La durée de la supertrame (SD : Superframe Duration) est calculée en fonction de la valeur de l’ordre de la supertrame (SO : Superframe Order). L’ordre de balise (BO : Beacon Order) est utilisé pour le calcul de l’intervalle d’envoi des trames de balise (BI : Beacon Interval). Dans QBAIoT, BO et SO sont toujours équivalents comme la période inactive est supprimée. Pendant chaque QoS CAP de QBAIoT, seuls les objets qui génèrent un trafic appartenant à la classe QoS correspondante peuvent entrer en concurrence pour accéder au support partagé. Chaque QoS CAP se voit attribuer un nombre d’intervalles de temps parmi les 16 disponibles dans la supertrame. La configuration des IT et les valeurs de BO et SO dépendent du nombre de classes de QoS existantes dans l’environnement IdO considéré et en particulier du nombre de classes de QoS temps réel. Si une seule classe existe, la structure de la supertrame IEEE 802.15.4 normale sera utilisée, mais sans période CFP et sans période inactive, comme une seule QoS CAP existe. De plus, dans ce cas les valeurs de BO et SO sont fixées à la valeur 14 pour minimiser le nombre de balises envoyées dans l’environnement IdO. Dans le cas où plusieurs classes existent, BO et SO sont initialisées à une valeur égale à 2 s’il y a au moins une classe de QoS temps réel (RTMC ou RTNMC), et à une valeur égale à 3 s’il n’y a pas de classes de QoS temps réel. La méthode QBAIoT est implémentée sur la passerelle de bas niveau (agissant en tant que coordinateur) ainsi que sur les objets IdO de la couche sensing. La figure 1.4 représente une comparaison entre la structure de la supertrame IEEE 802.15.4 standard et celle de QBAIoT.

Figure 1.4. Comparaison de la structure de la supertrame IEEE 802.15.4 et QBAIoT

38 Gestion du niveau de service

Gestion du niveau de service dans l’IdO

39

1.6.2.1. Passerelles QBAIoT À chaque BI, la passerelle de bas niveau (LL-Gw) qui implémente QBAIoT, envoie une trame de balise comprenant les informations concernant les valeurs de BO, SO ainsi que le premier et dernier IT de chaque QoS CAP. Ces valeurs sont utilisées par les objets IdO de la couche sensing pour déterminer la durée pendant laquelle ils sont autorisés à entrer en contention pour accéder au canal. La passerelle QBAIoT choisit une configuration initiale pour la supertrame en fonction du nombre et types de classes existantes dans son environnement. Suite à l’envoi de la trame de balise, la passerelle QBAIoT commence à recevoir des données provenant de différents objets pendant les QoS CAP correspondantes. Le schéma de l’algorithme de QBAIoT déployé au niveau de la passerelle est illustré par la figure 1.5. Une passerelle QBAIoT dispose également de fonctionnalités de gestion autonome. En effet, une fonction d’auto-configuration permet à la passerelle d’adapter la configuration des différentes QoS CAP en fonction du nombre existant de classes de QoS dans son environnement. Cette fonction permet aussi d’appliquer une reconfiguration de ces périodes de contention par classe suite à des changements effectués au niveau des iSLA qui concernent l’environnement de cette passerelle. D’autre part, une fonction d’autooptimisation réalisée par QBAIoT permet de remédier au problème d’intervalles de temps inutilisés par les objets IdO dans une QoS CAP. Cette fonction est assurée grâce à un mécanisme de réallocation d’IT couvrant toute la supertrame. Les deux fonctions d’auto-configuration et d’auto-optimisation permettent d’améliorer les performances de QBAIoT dans un environnement IdO. QoS Based Access Control for IoT (QBACIOT)

Sots and BO/SO configuration

Send_Beacon (BO, SO, CAP) & N = 1

N = Nb_QoS_Classes No

Yes CAP[N]

CAP[N] Receive_Data (CAP[N], Slotted_CSMA) Receive_Data (CAP[N], Slotted_CSMA) & Calculate_Slots_Usage (CAP[N]) N=N+1

Figure 1.5. Algorithme de la méthode d’accès QBAIoT au niveau d’une passerelle

Wait_Untill end of current superframe

No

Locate backoff period boundary

Yes

MLME status = CHANNEL_ACCESS_FAILURE

Yes

NB > macMaxCSMABackoffs ?

NB = NB +1 , CW = CW0 , BE = min (BE+1, macMaxBE)

No

Channel idle ?

Perform CCA on backoff period boundary Yes

Current Slot ∈ [CAP i _Start , CAP i _End] ? / i ∈ [1,4]

Yes

Current Slot < CAP i _Start ?

Send_packet (PAN Coordinator)

Yes

CW = 0 ?

CW = CW -1

Wait untill current slot in [CAP i _Start , CAP i _End]

No

Figure 1.6. Algorithme de la méthode d’accès QBAIoT au niveau d’un objet IdO

No

Yes

Packet to send in current Superframe ? Yes

Delay for random (2BE – 1) unit of backoff period boundary

Sufficient Remaining Time in CAP i ?

No

Receive_Beacon (BO, SO, CAP) & Slots and SuperFrame configuration (CW, NB, BE)

No

Wait_Untill end of current superframe

No

40 Gestion du niveau de service

Gestion du niveau de service dans l’IdO

41

1.6.2.2. Objets QBAIoT Le schéma de l’algorithme QBAIoT utilisé par les objets IdO prenant en compte la méthode CSMA/CA slotté est représentée par la figure 1.6. Tous les objets dans l’environnement de la passerelle QBAIoT reçoivent la trame de balise. Selon la classe de QoS à laquelle il appartient, chaque objet détermine la QoS CAP pendant laquelle il peut tenter d’accéder au canal partagé. Lorsqu’un objet génère des données, il doit tester s’il a le droit de tenter d’envoyer son trafic. Si la QoS CAP correspondant à l’objet dans la supertrame n’a pas débuté, alors il attend jusqu’au début de sa QoS CAP et entre en compétition avec les autres objets de sa classe pour envoyer ses données suivant le mécanisme de CSMA/CA slotté. D’autre part, si la QoS CAP de l’objet dans la supertrame en cours est passée, alors il attend la QoS CAP correspondante dans la supertrame suivante. Sinon, l’objet a droit de rentrer en contention avec les autres objets de sa classe pour l’accès au canal suivant le mécanisme CSMA/CA slotté, comme sa QoS CAP est en cours. 1.6.3. Évaluation des performances de QBAIoT 1.6.3.1. Environnement de simulation Dans le cadre de l’évaluation des performances de QBAIoT, nous utilisons le simulateur réseau OMNeT ++ en adaptant un modèle IEEE 802.15.4 disponible pour OMNeT ++ (Kirsche 2018). L’adaptation consiste non seulement à supprimer la période de non contention (CFP) et la partie inactive de la supertrame standard, mais également à créer différentes QoS CAP dans une même supertrame. Nous réalisons différents scénarios de simulation en variant le nombre de classes de QoS dans l’environnement IdO considéré. Le tableau 1.1 montre la configuration et les caractéristiques des différents scénarios de simulation en termes de nombre de classes de QoS existantes, nombre d’objets par classe et la répartition des IT par classe. Objets RTMC

Objets RTNMC

Objets Streaming

Objets NRT

Configuration des IT (slots)

Scénario 1

3

0

0

0

16

Scénario 2

3

3

0

0

9/7

Scénario 3

3

3

3

0

7/6/3

Scénario 4

3

3

3

3

6/5/3/2

Tableau 1.1. Paramètres des scénarios de simulation QBAIoT

42

Gestion du niveau de service

La valeur commune de BO et SO est fixée à 2 comme au moins une classe temps réel existe dans tous les scénarios considérés. Dans les différents scénarios de simulation, la taille des paquets utilisée est de 50 octets avec un intervalle de génération de 0,25s. La durée de chaque simulation est de 100s avec une topologie en étoile basée sur un coordinateur qui est la passerelle QBAIoT. 1.6.3.2. Résultats Le premier scénario de simulation correspond à un service IdO basé sur 3 objets RTMC. Il en résulte une allocation des 16 IT aux 3 objets. Le deuxième scénario correspond à des services IdO nécessitant 3 objets RTMC et 3 objets RTNMC. Par conséquent, 9 IT sont alloués aux objets RTMC et 7 aux nœuds RTNMC. Le troisième scénario correspond à 9 objets (3 RTMC, 3 RTNMC et 3 Streaming) entraînant une configuration des IT de type 7/6/3. Le dernier scénario correspond à l’existence de 12 objets (3 de chaque classe de QoS). Il en résulte une configuration des IT de type 6/5/3/2. Les résultats illustrés par la figure 1.7 montrent que QBAIoT offre de meilleurs délais que le standard IEEE 802.15.4, aux classes de QoS sensibles à ce paramètre, donc aux classes RTMC et RTNMC. Il est à noter que le délai des paquets avec QBAIoT, lorsqu’une classe unique existe dans l’environnement de la passerelle, est légèrement supérieur à celui du standard mais respecte les exigences du trafic RTMC. Cette différence est due au test effectué sur les slots pour vérifier l’appartenance à la QoS CAP, ce qui n’est pas nécessaire dans l’approche traditionnelle sans QoS du standard. RTMC Standard

RTMC QBAIoT

Délai de RTMC en secondes

0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 Scénario 1

Scénario 2

Scénario 3

Scénario 4

Figure 1.7a. Délai moyen des paquets temps réel pour les différents scénarios

Gestion du niveau de service dans l’IdO

Délai de RTNMC en secondes

RTNMC Standard

43

RTNMC QBAIoT

0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 Scénario 2

Scénario 3

Scénario 4

Figure 1.7b. Délai moyen des paquets temps réel pour les différents scénarios (suite)

Nous observons à travers la figure 1.8 que QBAIoT offre de meilleurs ratios de livraison de paquets pour tous les scénarios de simulation et pour toutes les classes de QoS. En effet, en limitant le nombre d’objets pouvant accéder au canal pendant une QoS CAP, le nombre de collisions devient moins important et plus de paquets sont transmis avec succès à la destination.

Figure 1.8. Ratio de livraison de paquets des différentes classes de QoS

1.7. Conclusion Les développements dans le domaine de l’Internet des objets tentent d’optimiser les services fournis tout en garantissant la QoS et la sécurité. Dans ce contexte, les travaux et projets de recherche mais aussi les différentes organisations de l’IdO mettent en avant

44

Gestion du niveau de service

l’importance de garantir un niveau de service (QoS et sécurité) entre les fournisseurs de services IdO et les clients. Différentes infrastructures, réseaux et fournisseurs interagissent pour fournir le service. Ainsi, les travaux qui visent la garantie du niveau de service doivent prendre en considération les différentes caractéristiques de ces sous environnements afin de mettre en place des mécanismes adaptés en termes de sécurité et de QoS. La sécurité et la protection de la vie privée sont nécessaires dans l’Internet des objets pour gagner la confiance des utilisateurs et améliorer l’utilisation des services. Les services IdO touchent différents domaines de la vie quotidienne, et à ce titre l’IdO touche la vie privée des utilisateurs. Par conséquent, le respect des réglementations européennes et internationales concernant la protection de la vie privée est primordial et doit être intégré dans les services offerts dans un environnement IdO. D’autre part, la QoS est une autre composante importante du niveau de service à prendre en considération lors de l’offre des services IdO. Ces derniers peuvent appartenir à des domaines critiques tels que la e-santé ou encore la sécurité. Une priorisation des flux et une différenciation des traitements sont nécessaires pour respecter les exigences et les caractéristiques de ces flux émanant des différents domaines et services. Plusieurs travaux ont été effectués pour mettre en place la QoS lors de l’offre de service IdO, mais plusieurs défis restent à relever pour respecter les exigences de l’environnement IdO. Dans ce contexte, QBAIoT, une approche permettant de garantir la QoS au niveau de la couche dispositifs de l’architecture IdO, permet de différencier le trafic pour respecter les exigences de chaque application IdO. Cette méthode d’accès basée sur le standard IEEE 802.15.4 prend en considération quatre classes de services et permet d’obtenir de bonnes performances avec une garantie de QoS. 1.8. Bibliographie Abdemeziem, M.R. (2016). Data Confidentiality in the Internet of Things. Thèse de doctorat, Université de Lorraine, Metz. AIOTI (2017). Report on Workshop on Security and Privacy in the Hyper Connected World. Rapport, AIOTI. Alcatel Lucent Enterprise (2018). The Internet of Things in Transportation [En ligne]. Disponible à l’adresse : https://www.al-enterprise.com/-/media/assets/internet/ documents/iot-for-transportation-solutionbrief-en.pdf. Allerin (2018). Authentication and device identification in IoT security [En ligne]. Dcoument. Disponible à l’adresse : https://www.allerin.com/blog/authentication-anddevice-identification-in-iot-security [Consulté le 07 novembre 2018]. ARMOUR (2016). ARMOUR Experiments and Requirements [En ligne]. Projet. Disponible à l’adresse : https://www.armour-project.eu/wp-content/uploads/2016/ 08/D11-ARMOUR-Experiments-and-Requirements.pdf.

Gestion du niveau de service dans l’IdO

45

ARMOUR (2018). Consortium [En ligne]. Disponible à l’adresse : https://www.armourproject.eu/consortium/ [Consulté le 02 novembre 2018]. Babiarz, J., Chan, K., Baker, F. (2006). Configuration Guidelines for DiffServ Service Classes [En ligne]. Mémo, IETF, 4594. Disponible à l’adresse : https://tools.ietf.org/ html/rfc4594. Balte, A., Kashid, A., Patil, B. (2015). Security Issues in Internet of Things (IoT) : A Survey. International Journal of Advanced Research in Computer Science and Software Engineering, 5(4), 450–455. Bhaddurgatte, R.C., Kumar, V. (2015). Review: QoS Architecture and Implementations in IoT Environment. Research & Reviews: Journal of Engineering and Technology, S1, 6–12. Braden, R., Clark, D., Shenker, S. (1994). Integrated Services in the Internet Architecture: An Overview [En ligne]. Mémo, IETF, 1633. Disponible à l’adresse : https://tools. ietf.org/html/rfc1633. Cantora (2013). Mirror of AVR-Crypto-Lib. Ressource. GitHub. Chowdhury, A., Mukherjee, S., Souray Banerjee, S. (2018). Examining of QoS in Cloud Computing Technologies and IoT Services. Hershey, Pensylvannie. CORDIS (2018). Butler [En ligne]. Projet. Disponible à l’adresse : https://cordis. europa.eu/project/rcn/101349/factsheet/en [Consulté le 05 novembre 2018]. Davidson, M., Schmidt, C. (2014). TAXII Overview. Rapport. The MITRE Corporation, McLean. Dong, C., Chang, G., Sun, D. et al. (2011). TRM-IoT: A Trust Management Model Based on Fuzzy Reputation for Internet of Things. Computer Science and Information Systems, 8(4), 1207–1228. Duan, R., Chen, X., Xing, T. (2011). A QoS Architecture for IOT. Dans International Conference on Internet of Things, and International Conference on Cyber, Physical and Social Computing. Dalian, Chine, 717–720. Ericsson (2018). Ericsson and partners demonstrate battery life improvements in Massive IoT e-health wearable prototype [En ligne]. Disponible à l’adresse : https://www.ericsson.com/en/news/2018/8/connected-e-health-IoT [Consulté le 02 novembre 2018]. Feng, X., Jie, L., Ruonan, H. et al. (2013). Service Differentiated and Adaptive CSMA/ CA over IEEE 802.15.4 for Cyber-Physical Systems. The Scientific World Journal. Google’s Internet of Things Solutions (2018). Build smart devices with Google [En ligne]. Blog. Disponible à l’adresse : https://developers.google.com/iot/ [Consulté le 05 juillet 2018]. Grugen, L., (2018). Updated use cases, requirements and architecture. Document, BigClouT. GSMA (2016). IoT Security Guidelines Overview Document Version 1.1. Document, GSMA Association, Londres.

46

Gestion du niveau de service

Gubbi, J., Buyya, R., Marusic, S. et al. (2013). Internet of Things (IoT): A vision, architectural elements, and future directions. Future Generation Computer Systems, 29, 1645–1660. Hamze, M. (2015). Autonomie, sécurité et QoS de bout en bout dans un environnement de Cloud Computing. Thèse de doctorat, Université de Bourgogne, Dijon. Hanna, S. (2015). The untrusted IoT: A Path to Securing Billions of Insecure Devices. Document, Trusted Computing Group. IEEE Standards Association (2018). IEEE Standard for Local and Metropolitan Area Networks – Secure device Identity [En ligne]. IEEE 802.1AR-2018. Disponible à l’adresse : https://standards.ieee.org/standard/8021AR-2018.html [Consulté le 05 novembre 2018]. International Electrotechnical Commission (2017a). Orchestrating infrastructure for sustainable Smart Cities. Livre blanc, IEC, Genève. International Electrotechnical Commission (2017b). IEC role in the IoT. Livre blanc, IEC, Genève. International Electrotechnical Commission (2018). Interconnection of information technology equipment [En ligne]. IEC, Genève. Disponible à l’adresse : https://www.iec.ch/dyn/www/f?p=103:7:0::::FSP_ORG_ID,FSP_LANG_ID:3399, 25 [Consulté le 02 novembre 2018]. ISO/IEC (2015a). Internet of Things (IoT). Rapport, ISO, Genève. ISO/IEC (2015b). Information technology, Trusted platform module library - Part 1: Architecture. Norme, ISO, Genève. ITU-T (1991). Architecture de sécurité pour l’interconnexion en systèmes ouverts d’applications du CCITT [En ligne]. Recommandation, ITU. Disponible à l’adresse : https://www.itu.int/rec/T-REC-X.800-199103-I/fr. ITU-T (2012). Y.2060: Overview of the Internet of Things [En ligne]. Recommandation, ITU. Disponible à l’adresse : https://www.itu.int/rec/T-REC-Y.2060-201206-I. ITU-T (2014). Y.2066: Next Generation Networks – Frameworks and functional architecture models. Recommandation, ITU. Journal officiel de l’Union européenne (2016). Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données). Règlement, Union européenne, Bruxelles. Journal officiel L 281 (1995). Directive 95/46/EC of the European Parliament and of the Council of 24 October 1995 on the protection of individuals with regard to the processing of personal data and on the free movement of such data. Règlement, Commission européenne, Bruxelles. Khalil, A., Mbarek, N., Togni, O. (2017). Service level guarantee framework for IoT environments. Dans First International Conference on Internet of Things and Machine Learning. IML, Liverpool.

Gestion du niveau de service dans l’IdO

47

Khalil, A., Mbarek, N., Togni, O. (2018). IoT Service QoS Guarantee Using QBAIoT Wireless Access Method. Dans Fourth International Conference on Mobile, Secure, Programmable Networks. MSPN, Paris. Khodkari, H., Ghazi-Maghrebi, S., Asosheh, A. (2017). Assurance of QoS in the Integration of Cloud Services and Internet of Things. Dans International Symposium on Networks, Computers and Communications. Marrakech. Kirsche, M. (2018). IEEE 802.15.4-Standalone [En ligne]. GitHub. Disponible à l’adresse : https://github.com/michaelkirsche/IEEE802154INET-Standalone. Knight, P. (2010). Cryptographic suite for Arduino (SHA, HMAC-SHA) [En ligne]. GitHub. Disponible à l’adresse : https://github.com/Cathedrow/Cryptosuite. Lee, G.M., Park, J., Kong, N. et al. (2012). The Internet of Things: Concept and Problem Statement [En ligne]. Mémo, IRTF. Disponible à l’adresse : https://illumine.wp.imtbstsp.eu/files/2012/01/8-draft-lee-iot-problem-statement-00.txt. Li, S., Li, D.X. (2017). IoT Node Authentication. Securing the Internet of Things. Elsevier, Cambridge. Lin, S.W., Miller, B., Durand, J. et al. (2015). Industrial Internet Reference Architecture version 1.7. Document de travail, Industrial Internet Consortium, Needham. LiteOS (2018). Site [En ligne]. Disponible à l’adresse : https://www.huawei.com/ minisite/liteos/cn/ [Consulté le 05 juillet 2018]. Menoret, S. (2012). Security requirements for the iCore cognitive management and control framework version 1.0. Document, iCore Project. Minerva, R., Biru, A., Rotondi, D. (2015). Towards a definition of the Internet of Things (IoT). IEEE, 1. Mosenia, A., Jha, N.K. (2017). A Comprehensive Study of Security of Internet-ofThings. IEEE Transactions on Emerging Topics in Computing, 5(4), 586–602. Nagara, K., Aoki, K., Matsubara, Y. et al. (2017). Portable DoS Test Tool for IoT Devices. Dans Workshop on Internet of Things Security and Privacy. Dallas. Nef, M.A., Perleps, L., Karagiorgou, S. et al. (2012). Enabling QoS in the Internet of Things. Dans The Fifth International Conference on Communication Theory, Reliability, and Quality of Service. Chamonix. Njit (2018). Smart Transportation : How the IoT is Changing the Transportation System [En ligne]. Disponible à l’adresse : https://graduatedegrees.online.njit.edu/resour ces/msce/msce-articles/smart-transportation-how-the-iot-is-changing-the-transpo rtation-system/ [Consulté le 02 novembre 2018]. Nokia (2018). Smart city [En ligne]. Disponible à l’adresse : https://networks.nokia.com/ smart-city2018 [Consulté le 02 novembre 2018]. Nordrum, A. (2016). Popular Internet of Things Forecast of 50 Billion Devices by 2020 Is Outdated [En ligne]. IEEE Spectrum. Disponible à l’adresse : https://spec trum.ieee.org/tech-talk/telecom/internet/popular-internet-of-things-forecast-of-50billion-devices-by-2020-is-outdated.

48

Gestion du niveau de service

Pokric, B., Krimmling, J., Soika-Piotrowska, A. et al. (2015). SMARTIE: Node Security, Policies, and Automatic Configuration version 1.0. Document, IHP. Premila, D., Rabara, A., Jerald, V. (2015). Quality of Service Architecture for Internet of Things and Cloud Computing. International Journal of Computer Applications, 128(7), 23–28. Ray, B. (2016). Benefits of Quality of Service (QoS) in LPWAN for IoT [En ligne]. LinkLabs. Disponible à l’adresse : https://www.link-labs.com/blog/quality-of-ser vice-qos-lpwan-iot. Relic-toolkit (2018). Relic [En ligne]. GitHub. Disponible à l’adresse : https://github. com/relic-toolkit/relic/commits/master. Sayarifah, E., Indrajit, A., Sivaramakrishnan, S. et al. (2015). An IoT Environment for WSN Adaptive QoS. Dans IEEE International Conference on Data Science and Data Intensive Systems. Sydney. Serrano, M. (2014). Quality of Service (QoS) for IoT services. Projet de recherche, OpenIoT Consortium. Sicari, S., Rizzardi, A., Grieco, L.A. et al. (2015). Security, privacy and trust in Internet of Things: The road ahead. Computer Networks, 76, 146–164. SMARTIE (2014a). Deliverable D4.1. IoT information Access and Privacy Preservation. Document, IHP. SMARTIE (2014b). Deliverable D3.1. Components for secure information gathering and storage. Document, IHP. Sottile, F., et al. (2014). Deliverable D2.5. IoT Enabling Technologies and Future Developments. Document, BUTLER Consortium. TOSSIM (2018). [En ligne]. Disponible à l’adresse : http://networksimulationtools.com/ tossim/ [Consulté le 05 novembre 2018]. Trusted Computing Group (2018). [En ligne]. Disponible à l’adresse : https://trus tedcomputinggroup.org/ [Consulté le 05 novembre 2018]. Windows 10 IoT Core (2018). [En ligne]. Disponible à l’adresse : https://develo per.microsoft.com/en-us/windows/iot/ [Consulté le 05 juillet 2018]. World Health Organization (2018). WHO and PATH partner to globalize digital health. [En ligne]. Article. Disponible à l’adresse : https://www.who.int/ehealth/events/WHOPATH-partnership/en/ [Consulté le 02 novembre 2018]. Yan, Z., Zhang, P., Vasilakos, A.V. (2014). A survey on trust management for Internet of Things. Journal of Network and Computer Applications, 42, 120–134. Zarko, V.P., Skocir, P., Katsaros, K. (2015). Initial Report on System Requirements and Architecture. SymbIoTe Project, 1–127. Ziegler, S. (2015). Deliverable 7.1. Project Presentation. Document, F-Interop.

2

Gestion du niveau de service dans le Cloud Nader MBAREK Université de Bourgogne Franche-Comté, Dijon, France

2.1. Introduction Au cours des dix dernières années, Internet s’est développé très rapidement. Les petites entreprises qui possèdent des ressources limitées ont besoin d’investir à grande échelle avec un budget convenable. En revanche, mettre en place une infrastructure traditionnelle est un processus long et coûteux qui nécessite un investissement initial conséquent, beaucoup de temps et des personnes qualifiées pour déployer cette infrastructure et la gérer au quotidien. De plus, lorsqu’un problème se pose pour les services et les applications, ces entreprises ont besoin de beaucoup de temps et un coût élevé pour le régler. Ainsi, les entreprises qui possèdent leurs infrastructures doivent trouver continuellement les solutions adéquates face à ces problèmes. La question qui s’est alors posée concerne la mise en place d’une infrastructure complète si nous pouvons louer des ressources à la place. Cette réflexion a favorisé l’apparition du Cloud Computing. Bien que dans sa forme actuelle, le Cloud Computing (ou simplement le Cloud) soit un phénomène relativement récent, nous sommes probablement dans un monde où nous utilisons le Cloud sans nous en rendre compte. Aujourd’hui, le Cloud est présent partout avec un intérêt croissant grâce à une offre de ressources à la demande. Les environnements de type Cloud sont en pleine expansion. Les principaux défis de recherche dans ce type d’environnement concernent non seulement la garantie du Gestion du niveau de service dans les environnements émergents, coordonné par Nader MBAREK. © ISTE Editions 2020.

50

Gestion du niveau de service

niveau de service, intégrant la QoS et la sécurité, mais aussi la gestion de ces services en conformité avec un SLA. Dans ce chapitre, nous commençons par décrire l’environnement Cloud en termes de Cloud Computing, Cloud Networking et inter-Cloud. Par la suite, nous spécifions le contexte et les motivations concernant la garantie du niveau de service dans le Cloud en termes de QoS et de sécurité. Enfin, nous décrivons un framework pour la garantie de qualité de service dans un environnement Cloud. 2.2. Environnement de Cloud 2.2.1. Cloud Computing 2.2.1.1. Définition Internet est constitué d’une multitude de systèmes fournissant des services. Le Cloud Computing est dans cette lignée : un ensemble de services et de données consommables fournis aux utilisateurs (Wygwam 2018) Pour une majorité d’utilisateurs, le Cloud est un nouveau modèle informatique avec une source d’économies. Il permet de répondre facilement aux besoins de développement et permet de se détacher des problèmes de gestion informatique. En effet, les utilisateurs « Cloud Service Users » (CSU) ne sont pas généralement propriétaires de l’infrastructure informatique, mais ils possèdent la possibilité d’accéder ou d’allouer des services informatiques du Cloud fournis par des fournisseurs de services Cloud « Cloud Service Providers » (CSP). Il existe de nombreuses définitions pour le Cloud. La définition fournie par le National Institute of Standards and Technology (NIST) (Mell et Grance 2009) couvre tous les aspects essentiels du Cloud : « Le Cloud Computing est un modèle informatique pratique pour établir un accès facile et à la demande par le réseau à un réservoir partagé de ressources informatiques configurables (réseau, serveurs, espaces de stockage, applications et services) qui peuvent être rapidement provisionnées et libérées avec un minimum d’efforts de gestion ou d’interaction avec le fournisseur du service. » 2.2.1.2. Caractéristiques Le Cloud Computing possède plusieurs caractéristiques intéressantes qui le rendent attirant pour les utilisateurs (CSU) et les fournisseurs (CSP). Plusieurs travaux donnent

Gestion du niveau de service dans le Cloud

51

différentes caractéristiques du Cloud (Gong et al. 2010) dont nous pouvons citer : groupement des ressources partagées et affectation dynamique et à la demande ; facilité d’accès ; faible investissement initial ; service mesuré et tarification avantageuse ; auto-organisation et mise à l’échelle ; réduction des charges de maintenance ; ressources virtualisées ; etc. L’objectif d’un environnement de type Cloud Computing est d’offrir des services à des utilisateurs suivant différents modèles. Les modèles de services principaux du Cloud Computing sont : – SaaS (Software as a Service) : le modèle de services « logiciel en tant que service » (SaaS) permet de fournir des applications à la demande sur Internet. Le CSU ne gère ni contrôle l’infrastructure Cloud sous-jacente, y compris le réseau, les serveurs, les systèmes d’exploitation, le stockage, à l’exception possible des paramètres limités de configuration d’application ; – PaaS (Platform as a Service) : le modèle de services « plateforme en tant que service » (PaaS) permet de fournir aux développeurs (CSU) des ressources pour les environnements d’exécution, les cadres de développement de logiciels et le support du système d’exploitation ; – IaaS (Infrastructure as a Service) : le modèle de services « infrastructure en tant que service » (IaaS) permet de créer un pool de ressources virtuelles en divisant les ressources physiques à l’aide des technologies de virtualisation, et de fournir ces ressources infrastructurelles à la demande, le plus souvent en termes de machines virtuelles, d’espaces de stockage et de ressources réseau. De plus, il existe plusieurs modèles de déploiement de Cloud qui vont permettre aux fournisseurs (CSP) d’offrir les services du Cloud selon les exigences de l’utilisateur (CSU) en termes de sécurité et de qualité de service. À ce titre, nous citons : – Cloud public : dans ce modèle de déploiement les CSP offrent leurs ressources comme services à tout type d’utilisateurs. Ce modèle peut être détenu, géré et exploité par une entreprise ou une organisation académique ou gouvernementale, ou une combinaison de ces entités ; – Cloud privé : ce modèle de déploiement est conçu pour une utilisation exclusive par une seule organisation. Un Cloud privé peut être construit et géré par l’organisation, une tierce partie, ou une combinaison des deux ; – Cloud communauté : c’est un Cloud qui partage des infrastructures entre plusieurs organismes d’une communauté spécifique avec des préoccupations communes (la mission, les exigences de sécurité, la politique, etc.). Ces infrastructures sont gérées

52

Gestion du niveau de service

par un ou plusieurs organismes de la communauté, une tierce partie, ou une combinaison de ces entités ; – Cloud hybride : ce type de déploiement est une combinaison de modèles de Cloud (public, privé et communauté) qui tente de remédier aux limitations de chaque approche. Dans un Cloud hybride, une partie des services de l’infrastructure s’exécute dans des Clouds privés tandis que la partie restante est dans des Clouds publics. La conception d’un Cloud hybride nécessite de bien déterminer la meilleure répartition entre les composantes de Cloud public et privé. Avec ces différents modèles de déploiement, plusieurs technologies hétérogènes peuvent être utilisées dans le cadre de réalisation d’un environnement de type Cloud Computing. De plus, plusieurs solutions propriétaires ont été proposées pour mettre en place les infrastructures de type Cloud. Ainsi, les activités de standardisation sont primordiales dans ce domaine afin de définir la terminologie et les techniques à utiliser, ce qui va permettre l’émergence d’une infrastructure Cloud standard, interopérable et adoptée par les différents acteurs du marché.

Figure 2.1. Organisations de standardisation du Cloud (Sakai 2011)

Gestion du niveau de service dans le Cloud

53

De nombreuses organisations et des groupes informels travaillant sur les technologies du Cloud se sont spécialisés dans le traitement des problèmes de standardisation en ce qui concerne l’environnement de Cloud. Ces organisations de standardisation aident à maintenir les normes et les meilleures pratiques pour veiller à ce que les différents CSP et les équipements soient capables de coexister ensemble d’une manière interopérable. La figure 2.1 montre une classification générale des différentes organisations de standardisation selon leurs rôles dans un environnement de Cloud. Plusieurs outils d’implémentation et de simulation ont été conçus afin de permettre de tester les services Cloud dans un environnement répétitif et contrôlable. Ils peuvent adapter le système avant de le déployer sur un vrai Cloud et de l’expérimenter avec différentes charges de travail et scénarios d’évaluation de performances. Nom

Modèle de service

Modèle de déploiement

Open source

But

OpenNebula (2018)

IaaS

Cloud privé

Oui

Construction et gestion de façon centralisée d’une infrastructure IaaS

Nimbus (2018)

IaaS

Cloud public

Oui

Installation sur une grappe de serveurs et fourniture d’un service IaaS au CSU

Eucalyptus (2018)

IaaS

Cloud public, privé ou hybride

Oui

Installation, déploiement et gestion de grappes de serveurs comme un seul Cloud

OpenStack (2018a)

PaaS, IaaS, NaaS

Cloud public, privé ou hybride

Oui

Déploiement des infrastructures de Cloud et contrôle des ressources de machines virtuelles, de stockage ou de réseau

CloudStack (2018)

IaaS, NaaS

Cloud public, privé ou hybride

Oui

Déploiement et gestion avec une interface web de grands réseaux de machines virtuelles

IaaS

Cloud public ou privé

Oui

Construction des infrastructures de ressources de calcul virtualisées, et gestion des machines virtuelles

Snooze (2018)

Tableau 2.1. Plateformes d’implémentation du Cloud Computing

Le tableau 2.1 décrit des exemples de plateformes d’implémentation alors que le tableau 2.2 présente des logiciels de simulation d’un environnement de type Cloud Computing. Ces tableaux constituent une synthèse des différentes solutions en

54

Gestion du niveau de service

fonction des modèles de service et de déploiement que nous venons de décrire dans cette section. Modèle de service SaaS, PaaS, IaaS, NaaS

Nom CloudSim (Calheiros et al. 2011) RealCloud Sim (2018) MRCloudSim (Jung et Kim 2012) GroudSim (Ostermann et al. 2010) DCSim (Tighe et al. 2012)

Modèle de déploiement

Open source

But

Cloud public, privé ou hybride

Oui

Modélisation, simulation et expérimentation transparente du Cloud et de ses services

IaaS, NaaS

Cloud public, privé ou hybride

Oui

Allocation de VM basée sur CloudSim et fourniture d’une interface graphique pour lire les topologies BRITE

IaaS

Cloud public, privé ou hybride

Oui

Outil de simulation basé sur CloudSim qui prend en charge le modèle MapReduce

SaaS, IaaS

IaaS

Cloud public, privé ou hybride Cloud public, privé ou hybride

Oui

Oui

GreenCloud (Kliazovich et al. 2010)

IaaS, NaaS

Cloud public, privé ou hybride

Oui

iCanCloud (Nunez et al. 2012)

IaaS

Cloud public, privé ou hybride

Oui

Simulation des applications scientifiques sur un environnement de Cloud Simulation d’un DC (Data Center) hébergeant un Cloud IaaS Simulation des DC du Cloud pour évaluer leurs coûts en termes d’énergie. C’est une extension de NS2 Modélisation et simulation des systèmes de Cloud. Il peut fournir un hyperviseur global et simuler des VM

Tableau 2.2. Logiciels de simulation du Cloud Computing

2.2.2. Cloud Networking 2.2.2.1. Définition Le Cloud Networking offre un nouveau modèle de services de Cloud Computing à savoir le NaaS (Network as a Service) ou encore le « réseau en tant que service ». Grâce à ce nouveau modèle de service Cloud de type NaaS, nous utilisons l’ensemble des ressources de deux types de réseaux en tant que service (ITU-T 2012). Le premier service réseau, c’est-à-dire NaaS (DC), offre les ressources réseau du centre de données (DC : Data Center) du Cloud qui relient les différentes machines virtuelles

Gestion du niveau de service dans le Cloud

55

(VM) et les espaces de stockage. Ce type de réseau est appelé réseau intra-Cloud. Le deuxième service réseau, c’est-à-dire, NaaS (BoD), offre une bande passante à la demande (BoD : Bandwidth on Demand) grâce aux ressources réseau qui relient le CSU et les infrastructures des CSP (réseau de transport de base (WAN/MAN)) ou encore les ressources réseau qui relient les infrastructures des CSP entre elles (réseau inter-Cloud). Ces ressources réseau peuvent être détenues par un même fournisseur CSP ou par différents CSP. 2.2.2.2. Caractéristiques Le Cloud Networking est introduit dans un scénario avec des domaines multiadministratifs, où le réseau et le centre de données (DC) doivent interagir via des interfaces bien définies pour fournir un service au CSU. Le Cloud Networking permet de spécifier un service au moyen d’objectifs de haut niveau, tout en assurant un déploiement et une gestion rapides des services Cloud à travers les centres de données et les réseaux d’opérateurs. Il permet aussi l’optimisation et la gestion des ressources sous-jacentes pour fournir et maintenir la QoS demandée. Le Cloud Networking étend la virtualisation du réseau au-delà du Data Center pour apporter deux nouveaux aspects au Cloud Computing : connecter l’utilisateur aux services offerts par le Cloud et interconnecter les services répartis géographiquement sur les infrastructures Cloud. Les utilisateurs du Cloud Networking seront capables de demander leurs infrastructures virtuelles et spécifier les propriétés réseau correspondantes pour accéder à ces services. Ainsi, il existe trois types de réseaux dans l’environnement Cloud (ITU-T 2012) : – réseau intra-Cloud : ce réseau connecte les infrastructures locales de Cloud et comprend trois sous-types de réseaux : (a) entre les machines virtuelles (VM) sur le même serveur, (b) entre les serveurs et les systèmes de stockage, et (c) entre les VM sur différents serveurs ; – réseau de transport de base (WAN/MAN) : ce réseau peut être utilisé par les clients pour accéder et consommer les services Cloud déployés dans le centre de données du fournisseur de services Cloud (CSP) ; – réseau inter-Cloud : il peut être utilisé pour interconnecter les infrastructures Cloud. Ces infrastructures Cloud peuvent appartenir au même fournisseur Cloud ou à des fournisseurs différents. Le service offert par le Cloud Networking, à savoir NaaS, fournit la connectivité réseau dans les trois réseaux que nous venons de décrire. NaaS permet aux utilisateurs de personnaliser les services qu’ils reçoivent du réseau et au fournisseur de décider comment les ressources sont allouées et partagées entre ces utilisateurs. Les exigences relatives au service de type NaaS incluent la QoS et la sécurité. En effet, il est difficile

56

Gestion du niveau de service

de garantir les performances du transfert de données dans les réseaux de transport de base et les réseaux inter-Cloud. La solution la plus pratique est d’utiliser suffisamment de bande passante pour transporter les flux de données dans ces réseaux. Cette bande passante est généralement fournie par toute entité qui a la capacité de fournir une connectivité réseau et une réservation des ressources telle que le fournisseur de services réseau (NSP : Network Service Provider). Ainsi, le service NaaS offert par ces NSP est la bande passante à la demande (BoD). Ce service de type NaaS (BoD) offre la capacité d’effectuer des changements à la demande (augmentation, diminution) et de provisionnement instantané de la bande passante sur des liens particuliers via des interfaces normalisées. De plus, le service de type NaaS (BoD) permet l’établissement d’un SLA de bout en bout entre les CSU et les CSP. Il fournit une solution économique pour la garantie de QoS. Nom

Modèle de service

Modèle de déploiement

Open source

But

OpenStack (2018b)

NaaS

Cloud public

Oui

Fourniture de ressources réseau nécessaires pour l’interconnexion des zones OpenStack de calcul et stockage

Network CloudSim (Garg et Buyya 2011)

SaaS, IaaS, NaaS

Cloud public, privé ou hybride

Oui

Modélisation des réseaux du DC du Cloud et des applications génériques en se basant sur CloudSim

CloudNaaS (Benson et al. 2011)

SaaS, NaaS

Cloud public

Oui

Une plateforme de Cloud Networking proposée par IBM

Oui

Une extension d’OCCI définie par l’Institut Télécom qui permet le contrôle externe des services réseau

Oui

Fourniture d’un ensemble d’outils souples pour le déploiement de services orientés NaaS

Python Open Cloud Networking Interface (Institut Telecom 2018)

OpenNaaS (2018)

NaaS

NaaS

Cloud privé

Cloud privé

Tableau 2.3. Outils d’implémentation et de simulation du Cloud Networking

Gestion du niveau de service dans le Cloud

57

Plusieurs outils d’implémentation et de simulation possèdent des fonctionnalités concernant le Cloud Networking. Des exemples de ces outils sont présentés dans le tableau 2.3. 2.2.3. Inter-Cloud 2.2.3.1. Définition D’une manière générale, si toutes les ressources d’un CSP sont allouées, il ne peut pas satisfaire de nouvelles demandes des CSU. De plus, il est impossible pour un CSP d’avoir des centres de données (DC) partout dans le monde. Le Cloud devrait être conçu comme un environnement multifournisseurs, capable d’offrir la possibilité de migrer un service d’un CSP à un autre et de localiser la meilleure ressource, non seulement en termes de capacité de calcul ou de stockage, mais aussi de connectivité, de bande passante et de délai d’acheminement. Dans ce contexte, un environnement de Clouds distribués (inter-Cloud) offre une solution pour répondre aux besoins des CSU répartis géographiquement (Buyya et al. 2010). Ainsi, l’inter-Cloud est une interconnexion globale de Clouds que nous pouvons désigner par l’appellation Cloud de Clouds. L’inter-Cloud assure une affectation à la demande des ressources d’un Cloud vers les autres, y compris les capacités de calcul, de stockage et les ressources réseau, ainsi que le transfert de la charge de travail, grâce à l’interfonctionnement des systèmes Cloud. 2.2.3.2. Caractéristiques Dans le cadre d’un environnement de type inter-Cloud, la communication entre les différents Clouds est établie grâce au Cloud Networking qui peut fournir un service de type NaaS (BoD). Dans ce contexte, les CSP peuvent interagir de différentes manières (ITU-T 2012) : – inter-Cloud de type peering (P2P) : il s’agit d’une interconnexion directe entre deux CSP utilisant des interfaces déjà établies. Les deux Clouds forment logiquement un même Cloud et l’un d’entre eux peut externaliser dynamiquement les ressources à l’autre en réponse aux variations de la demande ; – inter-Cloud de type broker (ISB) : ce modèle fournit une interconnexion indirecte entre deux CSP ou plus et les services de courtage aux CSU ou CSP grâce à une entité appelée Inter-Cloud Service Broker (ISB). Ce dernier gère les performances, la sécurité et la livraison des services Clouds. L’ISB fournit et exécute des services de trois catégories. (a) Intermédiation de service : l’ISB améliore un service donné en y ajoutant d’autres caractéristiques (gestion de l’accès, sécurité, etc.) et en fournissant des services à valeur ajoutée aux CSU. (b) Agrégation des services :

58

Gestion du niveau de service

l’ISB combine et intègre de multiples services dans un ou plusieurs nouveaux services. (c) Arbitrage des services : il est similaire à l’agrégation des services, sauf que les services agrégés ne sont pas fixés. Dans ce cas, l’ISB a la flexibilité de choisir des services à partir de sources multiples en se basant sur un score lui permettant de choisir la meilleure source ; – inter-Cloud de type fédération : ce type d’inter-Cloud offre une alliance entre plusieurs CSP formant logiquement un même Cloud en intégrant leurs ressources. Cette fédération permet aux CSP de rechercher et de réserver les ressources disponibles dans les autres CSP de l’alliance, en fonction des différents niveaux de service, afin d’éviter les violations des SLA (Service Level Agreement). Certains outils d’implémentation et de simulation possèdent des fonctionnalités concernant l’inter-Cloud et en particulier l’inter-Coud de type broker. Des exemples de ces outils sont présentés dans le tableau 2.4. Nom

Modèle de service

Modèle de déploiement

Open source

But

IEEE interCloud Testbed (2018)

SaaS, PaaS, IaaS

Cloud public ou privé

Oui

Mise en œuvre d’un outil pour les technologies d’inter-Cloud

Mosaic (2018)

SaaS, PaaS, IaaS

Cloud public ou privé

Oui

Un Cloud broker qui permet aux applications de négocier les services Cloud demandés par leurs CSU

Oui

Un Cloud broker qui fournit un modèle pour la description, l’intégration et l’agrégation des différentes ressources provisionnées par des CSP hétérogènes

Compatible One (2018)

SaaS, PaaS, IaaS

Cloud public, privé ou hybride

Tableau 2.4. Outils d’implémentation et de simulation de l’inter-Cloud

2.3. Niveau de service et gestion autonome dans le Cloud Le niveau de service regroupe non seulement la qualité de service (QoS) mais aussi la sécurité que nous devons gérer d’une façon autonome dans un environnement de type Cloud. Nous commençons dans ce qui suit par décrire les spécificités de la QoS

Gestion du niveau de service dans le Cloud

59

dans le Cloud. Par la suite, nous étudions les aspects relatifs à la sécurité dans ce type d’environnement. Enfin, nous décrivons les apports de la gestion autonome pour la garantie du niveau de service. 2.3.1. Qualité de service dans un environnement de Cloud 2.3.1.1. Définition et caractéristiques La qualité de service (QoS : Quality of Service) est un concept de gestion qui a pour but d’optimiser les ressources et de garantir des performances convenables aux applications. Elle est aussi définie comme la capacité de pouvoir établir la priorité des flux spécifiques et d’allouer les ressources nécessaires pour répondre aux niveaux de service requis. De plus, la qualité de service désigne la capacité d’un service à répondre par ses caractéristiques aux différentes exigences de ses CSU (Kouki et al. 2013). La qualité de service permet de véhiculer dans de bonnes conditions un type de trafic donné, en termes de plusieurs paramètres. Ces paramètres de QoS peuvent être associés à un service de type NaaS (par exemple : la latence, la gigue, le taux de perte de paquets, la bande passante, la disponibilité, etc.) ou un service de type IaaS (par exemple : le temps de réponse, la disponibilité, etc.) mais aussi des services de type SaaS (Software as a Service) et PaaS (Platform as a Service). Dans un environnement de Cloud, un accord de niveau de service (SLA : Service Level Agreement) est un contrat bilatéral entre un CSU et un CSP ou entre des CSP. Il énonce les conditions de service et caractérise l’accord sur un niveau de service. Il peut définir la qualité de service requise par un CSU et offerte par les CSP. Une bonne utilisation du SLA permet d’identifier et de définir les besoins du client, fournir un cadre pour la compréhension, simplifier les questions complexes, réduire les zones de conflit et encourager le dialogue en cas de conflit. Le Cloud fournit des ressources informatiques, logicielles ou matérielles, accessibles à distance, en tant que service. L’adoption de ce modèle soulève un certain nombre de défis, notamment la qualité de service (QoS) des services fournis. Aujourd’hui, la prise en compte de la qualité de service dans le Cloud reste encore incomplète. Certains CSP se sont intéressés à des critères de QoS comme l’indisponibilité du service due à une panne. Cependant, ces solutions ne s’intéressent qu’à un aspect unique de la QoS. Ainsi, les CSU sont facturés en fonction de la quantité de ressources utilisées ou réservées, mais une garantie limitée est assurée quant à la qualité de service des ressources fournies.

60

Gestion du niveau de service

Différents types de données et de trafics pour un seul CSU ont différents niveaux d’importance (données critiques, transfert de fichiers, communication temps réel, etc.). Donc pour garantir la QoS, il faut mettre en place des mécanismes permettant de traiter de manière différenciée ces différents types de flux, chacun avec le niveau de service correspondant. L’offre d’un service avec garantie des valeurs des paramètres de qualité de service en accord avec les préférences des CSU est considérée comme un défi important. Le CSP doit garantir la délivrance d’un service avec une bonne QoS pour satisfaire les exigences des clients. Ainsi, il y a de grands enjeux concernant la façon d’établir un SLA dans un environnement de Cloud et la façon de sélectionner les meilleurs CSP pour l’allocation des ressources en fonction des exigences de QoS du CSU (Yanzhi et al. 2013). Ensuite, il faut assurer une continuité du niveau de service exigé par le CSU au cours de l’exécution de ses applications. De plus, les ressources qui sont actuellement déployées dans les centres de données devront avoir des liens permettant des connexions rapides, flexibles, et sûres, non seulement entre le CSU et les CSP mais aussi les CSP entre eux. En effet, de nombreuses applications nécessitent des garanties de bande passante entre les sites des utilisateurs et les instances des serveurs qui les exécutent. Dans ce contexte, il faut assurer la standardisation effective des SLA et de la fourniture de la QoS dans le Cloud afin de permettre une communication claire et sans ambiguïté entre les CSP et les CSU. 2.3.1.2 Travaux de recherche et de standardisation Plusieurs organismes de standardisation s’intéressent à la garantie de la QoS dans les environnements Cloud comme le montre le tableau 2.5. D’autre part, il existe de nombreux travaux de recherche liés à la QoS dans les environnements Cloud, mais la QoS considérée dans ces travaux concerne les services SaaS, PaaS ou IaaS et non les services NaaS. Ainsi, les auteurs de (Patel et al. 2009) considèrent le problème de l’allocation des ressources et du coût en accord avec un SLA établi. Cependant, ils ne considèrent ni l’approche inter-Cloud ni les paramètres de QoS relatifs au NaaS. De plus, plusieurs projets de recherche présentent un SLA pour le Cloud Computing seulement, sans prendre en considération le Cloud Networking. Ainsi, le projet Mycloud (2018) propose le Cloud Service Level Agreement (CSLA). D’autre part, le projet de recherche SAIL (Scalable & Adaptive Internet Solutions) (Sail Project 2018) décrit une architecture de Cloud Networking et se concentre sur la sécurité, mais ne tient pas compte de la garantie d’un SLA de QoS. Faniyi et al. (2012) présentent la conception d’une architecture Cloud de type fédération permettant la coordination des entités de cette alliance pour répondre aux exigences des CSU décrites dans un SLA.

Gestion du niveau de service dans le Cloud

61

Cependant, ils ne considèrent ni le cas d’une architecture de type broker ni les paramètres de QoS relatifs au NaaS. Organisme Distributed Management Task Force (2018) Cloud Standards Customer Council Steering Committee (2018) European Telecommunications Standards Institute (2018) Organization for the Advancement of Structured Information Standards (2018) SNIA Cloud Data Management Interface (2018) Open Networking Foundation (2018)

But Travaux sur la QoS, le SLA, les politiques, l’approvisionnement et la surveillance dans le Cloud dans le groupe de travail « Cloud Management Working Group (CMWG) » créé en juin 2010 Travaux sur la QoS et le SLA dans le document « Practical Guide to Cloud Service Level Agreements Version 1.0 » Travaux sur la QoS et le SLA dans le document « SLA for Cloud services » Travaux sur les interactions entre CSP et CSU portant sur la QoS, lors de la conception et de la fourniture des services : activités réalisées par le comité technique « Symptoms Automation Framework Technical Committee » Travaux sur la standardisation du stockage et la QoS dans le Cloud Étude des mécanismes de QoS dans la prochaine version de la spécification OpenFlow

Tableau 2.5. Standardisation de la QoS dans le Cloud

2.3.2. Sécurité dans un environnement Cloud 2.3.2.1. Définition et caractéristiques La sécurité du Cloud peut être définie comme étant l’ensemble des moyens techniques, organisationnels, juridiques et humains nécessaires pour protéger les données, les applications et l’infrastructure associées au Cloud contre une faiblesse d’ordre logicielle ou matérielle qui peut être exploitée par une ou plusieurs menaces internes ou externes. La sécurité du Cloud implique des concepts tels que la sécurité des réseaux et du matériel ainsi que les stratégies de contrôle déployées afin de protéger les données, les applications et l’infrastructure d’un environnement de Cloud. La notion de confiance dans le Cloud peut être définie comme étant la croyance du CSU dans le fait que le CSP est capable de fournir les services requis de façon précise et infaillible grâce à l’efficacité de ses mécanismes de sécurité et le respect de tous les règlements. Ainsi, la confiance est liée essentiellement aux processus de sécurité mis en place par le CSP et le modèle de sécurité du Cloud doit être basé sur l’hypothèse que le CSU devrait faire confiance au CSP.

62

Gestion du niveau de service

La sécurité offre plusieurs services importants tels que l’authentification, le contrôle d’accès, la confidentialité, l’intégrité, la disponibilité et la non-répudiation. Par conséquent, ces services deviennent des composants importants que nous devons utiliser lors de la conception d’un système de Cloud sécurisé (Zissis et Lekkas 2012). Cette sécurité relative à l’offre de service du Cloud peut faire l’objet d’un accord de niveau de service (SLA) qui définit les attentes des CSU et les obligations des CSP pour le provisionnement des services de Cloud. De plus, une tierce partie de confiance peut être utilisée pour faciliter les interactions d’une façon sécurisée et garantir la confiance entre le CSU et les CSP ou entre les CSP qui font confiance à ce tiers. Dans le Cloud, les ressources sont fournies comme un service accessible via Internet à des clients qui les utilisent à la demande selon leurs besoins. Ces ressources sont disponibles dans les centres de données et accessibles partout, de sorte que le Cloud est un point d’accès unique pour les clients. Par la suite, les données transférées, stockées, traitées, récupérées, ou bien détruites, ainsi que la puissance de calcul et de traitement, l’espace de stockage, et l’utilisation des données par une tierce partie, ont amené à des préoccupations portant sur la confiance et la sécurité de cet environnement de Cloud. Par conséquent, de nombreuses organisations ont hésité à externaliser leurs systèmes d’informations vers le Cloud en raison de restrictions réglementaires et de ces préoccupations quant à la confiance et la garantie de sécurité. La sécurité est l’un des défis à relever pour l’adoption du Cloud. En effet, l’externalisation du traitement ou encore du stockage des données dans un environnement de Cloud Computing s’accompagne d’un risque de sécurité puisque les données peuvent être compromises à différentes étapes de leur cycle de vie lorsqu’elles sont stockées ou traitées dans le Cloud. De plus, les risques de sécurité peuvent apparaître lors du transfert de ces données du réseau interne de l’entreprise vers le Cloud pour y être stockées ou traitées, ou encore lors du processus de restauration des données. Ainsi, la transition vers une utilisation massive des services du Cloud s’accompagne de plusieurs défis de sécurité et en particulier de confidentialité, principalement en raison du fait que dans cet environnement les composants logiciels et matériels qui permettent d’offrir un service appartiennent à de multiples domaines de confiance. Par conséquent, la garantie des services de sécurité dans un environnement de Cloud est beaucoup plus difficile à assurer. 2.3.2.2. Activités de recherche et de standardisation Plusieurs organismes de standardisation s’intéressent à la sécurité dans les environnements Cloud comme le montre le tableau 2.6.

Gestion du niveau de service dans le Cloud

Organisme Cloud Standards Customer Council (2018) Global inter-Cloud Technology Forum (GICTF) (Cloud Standards 2018) European Network and Information Security Agency (2018) Cloud Security Alliance (2018) ITU-T (2018) NIST (Mell et Grance 2009) ISO/IEC JTC1/SC27 (2018) OASIS (2018) SNIA Cloud Data Management Interface (2018)

63

But Accélérer l’adoption du Cloud en proposant des standards de sécurité et d’interopérabilité liés à la transition vers le Cloud Présenter des métriques pour le SLA, y compris les attributs de sécurité pour l’environnement inter-Cloud Présenter une liste hiérarchisée des risques organisationnels, techniques et juridiques, avec une comparaison des différents CSP selon leurs pratiques de sécurité Proposer plusieurs documents de référence et des guides portant sur la sécurité du Cloud Publier des rapports et des guides portant sur la sécurité du Cloud Computing Réaliser un projet d’évaluation de sécurité dans le Cloud et étudier les défis de sécurité du Cloud pour le gouvernement américain Étudier la sécurité et la vie privée dans le Cloud au sein des groupes de travail WG1/WG4/WG5 Développer des guides pour l’atténuation des vulnérabilités et l’analyse des risques et des menaces dans le Cloud Développer une interface standardisée portant sur la sécurité dans le Cloud

Tableau 2.6. Standardisation de la sécurité dans le Cloud

D’autre part, plusieurs travaux et projets de recherche (Neng-Hai et al. 2013 ; Rong et al. 2013 ; Ryan 2013) présentent différentes menaces et défis de sécurité qui ont été étudiés dans un environnement de Cloud. Ainsi Christmann et al. (2015) décrivent une méthode pour identifier les exigences juridiques de sécurité concernant les services du Cloud. Studnia et al. (2012) présentent les vulnérabilités de virtualisation et les contremesures pour faire face à ces vulnérabilités. Ali et al. (2015) proposent un framework pour assurer le partage sécurisé des données dans un inter-Cloud. Fan et Perros (2014) présentent un autre framework pour la gestion de la confiance dans un environnement d’inter-Cloud, mais sans assurer les services de sécurité. Cependant, d’autres travaux de recherche (Sankar 2014) présentent des architectures pour offrir ces services de sécurité pour le Cloud mais sans traiter les aspects relatifs à la confiance. Plusieurs travaux de recherche essayent d’offrir la sécurité pour les services Cloud de type IaaS. Ainsi, Wei et al. (2014) décrivent un framework pour assurer la sécurité et la vie privée pour les ressources de stockage et de calcul. Chavan et al. (2013) examinent les défis de sécurité qui sont introduits suite à l’évolution vers les services

64

Gestion du niveau de service

de type IaaS du Cloud. Karadsheh et al. (2012) examinent les risques rencontrés par la mise en œuvre du modèle IaaS dans les organisations et décrivent le rôle des politiques de sécurité pour améliorer la sécurité du modèle de service IaaS. D’autre part, pour les services Cloud de type NaaS, Moraes et al. (2014) présentent un framework permettant d’isoler les CSU qui utilisent des ressources réseaux de Cloud. He et al. (2014) décrivent un autre framework pour assurer la sécurité du réseau dans le Cloud en utilisant des arbres de règle de pare-feu. De plus, pour la gestion autonome de la sécurité, Ruj et al. (2014) présentent un cadre de travail pour assurer l’authentification autonome et le contrôle d’accès décentralisé pour le stockage de données dans plusieurs Clouds. Cependant, Sah et al. (2014) mettent l’accent sur l’intégration et la gestion des mécanismes d’authentification, d’autorisation et de comptabilité dans l’architecture du système de Cloud. Plusieurs travaux de recherche essayent d’inclure la sécurité dans le SLA établi entre le CSU et le CSP. Ainsi, Rak et al. (2011) proposent de construire une application de Cloud orientée SLA qui permet la gestion des fonctions de sécurité liées à l’authentification de l’utilisateur et l’autorisation d’utilisation des services. Chaves et al. (2010) donnent un aperçu sur un SLA intégrant des paramètres de sécurité. Na et Huh (2014) présentent une méthodologie d’évaluation de la sécurité basée sur un SLA et un broker dans un environnement de Cloud. Les mécanismes de sécurité utilisés lors de l’offre d’un service de Cloud doivent être supervisés et gérés afin d’atténuer les menaces de sécurité. Dans ce contexte, la gestion autonome peut être utilisée comme une approche innovante pour améliorer l’efficacité de la garantie du niveau de service, non seulement en termes de sécurité mais aussi de QoS grâce à une réduction de l’intervention humaine dans cet environnement de Cloud. 2.3.3. Gestion autonome des environnements de type Cloud 2.3.3.1. Définition et caractéristiques L’augmentation de la complexité, l’hétérogénéité et la dynamicité de l’environnement de Cloud peuvent conduire à une infrastructure fragile, ingérable et non sécurisée. Ainsi, ces caractéristiques du Cloud exigent aujourd’hui le déploiement d’une stratégie intelligente de gestion pour offrir des services qui répondent aux exigences du CSU. D’autre part, faire une gestion d’une manière statique par des administrateurs, peut donner lieu à divers problèmes de sécurité, de mise à l’échelle, de temps et de coût. Par conséquent, une nouvelle méthode de gestion s’impose et le besoin de l’adoption d’un nouveau paradigme alternatif appelé gestion autonome devient primordial. La gestion autonome dans le cadre d’un environnement de Cloud a

Gestion du niveau de service dans le Cloud

65

pour objectif le développement de systèmes autonomes qui peuvent assurer une autogestion des applications et des ressources du Cloud. Ce nouveau paradigme permet une meilleure gestion des attributs de qualité de service et de sécurité qui changent fréquemment en raison de la nature dynamique du Cloud, et qui doivent être bien surveillés d’une manière continue pour respecter les SLA, minimiser les violations, et réduire les pénalités. La gestion autonome apparaît comme une approche stratégique et holistique pour la conception de systèmes informatiques, des applications et des infrastructures distribuées complexes. Grâce à l’adoption de ce paradigme, ces systèmes peuvent s’auto-gérer conformément à des politiques de haut niveau spécifiées par l’administrateur. La gestion autonome permet au système d’adapter ses fonctionnalités aux changements de son environnement afin d’améliorer sa performance, sa sécurité, sa tolérance aux pannes, sa configuration, sa maintenance, etc. Le concept de gestion autonome qui est l’objectif de l’Autonomic Computing est inspiré du fonctionnement du système nerveux humain. Ce dernier décide d’une façon autonome des actions qu’il doit mener pour garder un état stable sans intervention externe. Ainsi, il vérifie et optimise constamment son état, et s’adapte automatiquement aux conditions changeantes de son environnement. La gestion autonome est caractérisée par la réalisation de quatre fonctions de gestion d’une façon autonome à savoir (IBM Corp. 2015) : – l’auto-restauration (self-healing) désigne la capacité du système à examiner, rechercher, diagnostiquer et réagir d’une manière autonome aux dysfonctionnements du système ; – l’auto-protection (self-protecting) est la capacité du système à anticiper, identifier, détecter et se protéger de manière proactive et autonome contre les attaques malveillantes ; – l’auto-optimisation (self-optimizing) désigne la capacité du système à surveiller et contrôler d’une manière autonome les ressources pour assurer une performance et une efficacité optimales par rapport aux exigences définies ; – l’auto-configuration (self-configuring) est la capacité du système à adapter d’une manière autonome les paramètres des ressources logicielles ou matérielles dans le but d’atteindre un fonctionnement correct ou encore de meilleures performances. Afin d’atteindre les objectifs de la gestion autonome, les systèmes disposent d’une boucle de contrôle fermée appelée MAPE-K (Monitor, Analyse, Plan, Execute, Knowledge) qui permet d’éviter toute intervention externe. Cette boucle est contrôlée par un gestionnaire autonome (AM : Autonomic Manager) et l’ensemble constitue un système autonome (voir figure 2.2).

66

Gestion du niveau de service

Figure 2.2. Représentation d’un gestionnaire autonome (IBM 2005)

Ainsi, un système autonome est composé d’un gestionnaire autonome qui respecte les politiques de haut niveau spécifiées par les administrateurs afin de gérer d’une façon autonome des ressources matérielles ou logicielles grâce à la boucle de contrôle fermée. L’utilisation des services du Cloud par les différents CSU poursuit son augmentation, eu égard aux avantages offerts par cette nouvelle technologie. À ce titre, un grand nombre de vidéos transitant entre le Cloud et les CSU, demande une allocation de ressources réseau, une bande passante convenable, plusieurs VM et des espaces de stockage importants. Dans ce contexte, la gestion de ces ressources dans un environnement de Cloud constitue un challenge afin de satisfaire les exigences des CSU. En effet, la gestion d’un centre de données (DC) du Cloud implique une manipulation efficace des machines virtuelles, des espaces de stockage et du réseau dans ce DC. De plus, il faut gérer le réseau qui relie le CSU avec le CSP et celui qui relie les CSP entre eux. Cependant, un administrateur de Cloud ne peut pas gérer un grand nombre de ressources en assurant que ses actions soient compatibles avec le niveau de service attendu à un moment donné, et qu’elles seront aussi compatibles dans le futur. Donc, cette situation a conduit à la nécessité d’adopter de nouvelles approches permettant la gestion autonome de l’infrastructure du Cloud afin de remplacer l’approche traditionnelle manuelle. 2.3.3.2. Activités de recherche et de standardisation Plusieurs organismes de standardisation s’intéressent à la gestion autonome dans les environnements Cloud comme le montre le tableau 2.7.

Gestion du niveau de service dans le Cloud

Nom Open Networking Foundation (2018) ITU-T (2018)

67

But Adopter la technologie Software-Defined Networking (SDN) à travers des standards ouverts de développement pour faire le pont entre la gestion autonome des ressources réseaux et la demande de QoS des applications de type Cloud Spécifier une plate-forme unifiée de gestion autonome des périphériques réseau physiques et virtuels, ainsi que la gestion du centre de données du Cloud

Tableau 2.7. Standardisation de la sécurité dans le Cloud

D’autre part, plusieurs travaux et projets de recherche (Van et al. 2009 ; Infosys 2018) présentent différents mécanismes pour mettre en place certaines des fonctions de la gestion autonome dans un environnement de Cloud. Ainsi, Kouki et Ledoux (2012) proposent une approche de planification permettant à un CSP offrant des services de type SaaS de trouver, pour une charge de travail donnée, une configuration optimale pour l’application Cloud, afin d’assurer le SLA et minimiser le coût. Patel et al. (2009) proposent un mécanisme de gestion des SLA dans un environnement de type Cloud en utilisant WSLA (Web Services SLA), élaboré pour l’application et la surveillance du SLA dans une architecture orientée services (SOA : Service Oriented Architecture). Faniyi et al. (2012) décrivent la conception d’un middleware pour une fédération de Cloud capable de répondre aux demandes des CSU avec les offres des CSP sans violer le SLA. Demchenko et al. (2011) présentent une infrastructure de sécurité proposée pour un Cloud offrant des services de type IaaS avec une configuration dynamique des services d’infrastructure de Cloud et une gestion des SLA. Ardagna et al. (2007) proposent une approche d’allocation autonome des ressources ainsi qu’une gestion des SLA de plusieurs applications en cours d’exécution sur un seul Cloud. Van et al. (2010) spécifient un gestionnaire autonome de ressources pour contrôler l’environnement virtualisé lors de la fourniture des ressources et du placement dynamique des machines virtuelles. Ce gestionnaire vise à optimiser une fonction d’utilité globale qui intègre à la fois le degré d’accomplissement des SLA et les coûts d’exploitation. Itani et al. (2014) décrivent la conception et la mise en œuvre de ServBGP, un protocole de routage autonome qui vise à trouver le meilleur chemin en prenant en considération la performance, la sécurité et les exigences de coûts pour la gestion des services et la collaboration entre les CSP dans un environnement de Cloud. 2.4. Garantie de QoS dans le Cloud Networking 2.4.1. Architectures de Cloud Networking Afin de fournir le niveau de service attendu par un utilisateur de service Cloud (CSU), la conception et la mise en place d’une architecture de Cloud Networking est

68

Gestion du niveau de service

très critique. Par conséquent, nous avons proposé deux types d’architectures pour un environnement Cloud (Hamze et al. 2016) : la première est basée sur le concept d’inter-Cloud broker et la seconde est basée sur celui d’inter-Cloud fédération. Au sein de ces architectures de Cloud Networking, nous avons assuré la cohérence entre les exigences de QoS spécifiées par les CSU et le SLA proposé par les CSP. 2.4.1.1. Architecture Cloud Networking de type inter-Cloud broker

Figure 2.3. Architecture Cloud Networking de type inter-Cloud broker

Dans la première architecture proposée (voir figure 2.3), le Cloud broker apparaît comme une entité intermédiaire entre un CSU et plusieurs CSP pour aider à établir un niveau de service qui satisfait aux exigences du CSU. En outre, il permet aux utilisateurs (tels que les entreprises) de consommer un portefeuille de services Cloud intégrés et offerts avec des garanties spécifiées dans un seul SLA global et avec une facturation unifiée. Nous avons spécifié deux types de CSP, le CSP (BoD) fournissant le service NaaS (BoD) (par exemple l’opérateur de réseau) et le CSP (DC) fournissant des services IaaS et NaaS. Le service IaaS concerne les ressources VM et de stockage alors que le service NaaS concerne les ressources réseau du centre de données. Le CSP

Gestion du niveau de service dans le Cloud

69

(DC) peut offrir des ressources à partir d’un ou plusieurs centres de données. De plus, les CSP peuvent offrir des niveaux de service différents (platine, or, argent et bronze) avec différents coûts et garanties des paramètres de QoS. Dans ce contexte, nous avons spécifié un contrat de niveau de service (SLA) qui contient des garanties de QoS offertes par les CSP et requises par les CSU. Par conséquent, dans notre architecture de Cloud Networking de type broker, nous proposons trois types de SLA construits en langage XML pour l’interopérabilité et la portabilité entre les différentes entités : 1) inter-cloud Service Level Agreement (iSLA) : il s’agit d’un contrat entre un CSU et un Cloud broker. Il garantit la QoS pour les services NaaS (BoD et/ou DC) et/ou les services IaaS (VM et/ou stockage). Les paramètres de QoS pour le service IaaS, les plus importants, sont le temps de réponse (RT : Response Time) et la disponibilité (AIaaS : Availability). Cependant, les paramètres de QoS pour le service NaaS sont la latence (L : Latency), la gigue (J : Jitter), le taux de perte des paquets (P : Packet Loss Ratio), la bande passante (BW : Bandwidth) et la disponibilité (ANaaS : Availability). De plus, ces paramètres peuvent être quantitatifs ou qualitatifs. Les attributs commerciaux définissent les violations, les pénalités et le coût unitaire des machines virtuelles, des ressources de stockage et de bande passante. Ainsi, le CSU est facturé en fonction de son utilisation des ressources et l’intervalle de monitoring est utilisé pour le calcul des pénalités dans le cas d’une violation de la QoS. La figure 2.4 schématise les paramètres les plus importants de ce type de SLA ; 2) BoD inter-cloud Service Level Agreement (B_iSLA) : il s’agit d’un contrat entre un Cloud broker et un CSP(BoD). Sa structure ressemble à celle de l’iSLA. Cependant, ce contrat ne garantit que la QoS pour les services NaaS (BoD) et ne contient que des paramètres de QoS quantitatifs relatifs au service NaaS ainsi que le coût unitaire de bande passante ; 3) Data center inter-cloud Service Level Agreement (D_iSLA) : il s’agit d’un contrat entre un Cloud broker et un CSP (DC) pour les services NaaS et IaaS. Sa structure ressemble à celle de l’iSLA. Cependant, les paramètres de QoS relatifs aux services IaaS et NaaS sont quantitatifs. Dans le cadre de notre architecture de type broker, l’établissement d’un SLA de bout en bout nécessite plusieurs interactions entre CSU, Cloud broker et CSP (voir figure 2.5). Dans un premier temps, les CSP (DC/BoD) décrivent les services IaaS et/ou NaaS pour leurs ressources disponibles avec différents niveaux de service. Ensuite, les CSP envoient périodiquement ces informations au Cloud broker. Toutefois, si des changements importants se produisent dans ces CSP, ils envoient ces modifications immédiatement au Cloud broker.

Figure 2.4. Représentation du schéma XML de l’iSLA

70 Gesstion du niveau de service

Gestion du niveau de se ervice dans le C Cloud

71

Figure 2.5 5. Interactionss dans une arc chitecture de type t broker

2.4.1.2. Architecture e Cloud Netw working de ty ype fédération n Danss la deuxième architecture proposée p (voir figure 2.6), laa fédération foournit une alliance entre plusieurrs CSP(DC/BoD) qui collaaborent pour aider à l’étabblissement d’un nivveau de servicee qui satisfait aux exigencees du CSU. Lees CSP fourniissent des services IaaS et/ou NaaS avec différrents niveaux de d service. Noous avons conssidéré que e associé à unn CSP(DC) Leeader (CSPL). le CSU est En outre, o nous avons a proposéé les mêmes trois types de d SLA que ceux de l’architeccture de type Cloud C broker (voir ( section 2.4.1.1). 2

72

Gestion du niveau de service

Figure 2.6. Architecture Cloud Networking de type fédération

Cependant, l’iSLA dans cette deuxième architecture de type fédération est un contrat entre un CSU et le CSPL, le D_iSLA est un contrat entre le CSPL et un CSP (DC), et le B_iSLA est un contrat entre un CSP(DC) et un CSP(BoD) interconnectant des sites de CSU. De plus, dans cette architecture de type fédération, nous avons pris en considération deux scénarios : le scénario 1, où le CSPL dispose de ressources (IaaS avec/sans NaaS) qui répondent aux exigences du CSU et le scénario 2, où le CSPL ne dispose pas de ressources suffisantes et qui doit sélectionner les meilleurs CSP qui répondent aux exigences du CSU. Les différentes interactions entre les entités de l’architecture de type fédération pour ces deux scénarios sont représentées par la figure 2.7.

Gestion du niveau de se ervice dans le C Cloud

73

Figure 2.7. Interactions dans d une architecture de typ pe fédération

2.4.2. Évaluation É d performa des ances Afin de bénéficierr des garantiess assurées parr notre propossition d’archittecture de Cloud Networking N et démontrer d les avantages dee ce type d’arcchitecture, nouus présentons danns cette sectionn deux cas d’uutilisation pou ur l’établissem ment efficace ddes applications de d Cloud vidééoconférence et e des applicaations de calcuul intensif. Noous avons testé les scénarios corrrespondants coomme une preeuve de conceppt qui nous a ppermis de n architecturees de type broker et fédératiion. valider nos

.

74

Gestion du niveau de service

2.4.2.1. Environnement de simulation Nous avons évalué les performances des deux architectures en effectuant un ensemble de simulations correspondant à des scénarios différents grâce à la boîte à outils CloudSim (Calheiros et al. 2011). Nous avons étendu CloudSim pour prendre en charge trois nouvelles entités. La première est une entité de type CSU et la seconde est une entité de type Cloud broker, qui remplace l’entité DatacenterBroker de CloudSim, permettant au CSU de lui envoyer ses exigences. Enfin, la troisième est une entité de type CSP (BoD) qui interconnecte le Cloud broker, les CSP (DC) et les sites des CSU en se basant sur une topologie de type BRITE (Calheiros et al. 2011) pour modéliser la bande passante et les latences des liens. Il est à noter que le CSPL dans l’architecture de type fédération est simulé comme un CSP normal avec des fonctionnalités en plus, comme la sélection des meilleurs CSP. Le modèle simulé est composé d’un Cloud broker ou d’un CSPL, de quatre CSP (BoD) et de quatre CSP (DC) contenant chacun 10 hôtes. Un hôte dispose d’un processeur Quad-core (4 x 1,2 GHz) et 16 Go de RAM. Toutes les entités sont initiées au début de la simulation. Pour un niveau de service bronze par exemple, un CSP(DC) peut avoir les caractéristiques suivantes dans notre modèle de simulation : capacité CPU VM = 250 MHz, disponibilité IaaS = 98,999 %, paramètres QoS relatifs au service NaaS {Latence = 22ms, Gigue = 2ms, taux de perte des paquets = 10-2, bande passante = 1Mb/s, disponibilité NaaS = 98.999 %}, coût de la bande passante = 0,005 ($ par GB) et le coût du processeur = 0,11 ($ par heure). En outre, un CSP (BoD) peut avoir les caractéristiques suivantes : paramètres QoS NaaS {Latence = 50 ms, Gigue = 5 ms, taux de perte des paquets = 10-2, bande passante = 1Mb/s, disponibilité NaaS = 98.999 %} et coût de la bande passante = 0.005 ($ par GB). D’autre part, les CSP (DC/BoD) ont des valeurs différentes pour chaque niveau de service (platinum, gold, silver, bronze). 2.4.2.2. Scénarios de simulation Nous avons considéré deux cas d’utilisation des architectures proposées, à savoir la Cloud vidéoconférence et le calcul intensif. La vidéoconférence multi-parties peut être l’une des applications multimédia les plus exigeantes en termes de bande passante, de délai de bout en bout et de gigue. Nous avons implémenté des algorithmes de sélection de meilleurs CSP dans CloudSim. Ces algorithmes déterminent les meilleurs routes de livraison des flux de vidéoconférence en passant par les machines virtuelles allouées pour les serveurs de vidéoconférence, tout en minimisant le coût total de l’application et sans violer les contraintes de QoS de bout en bout correspondantes. Nous avons évalué trois scénarios de simulation de vidéoconférence. Le premier correspond à une sélection statique de ressources sans garantie de QoS. Le deuxième

Gestion du niveau de service dans le Cloud

75

et le troisième scénario correspondent à une sélection basée respectivement, sur une architecture de type broker et fédération avec la garantie de QoS. Dans chaque scénario, nous avons 4 sites de CSU connectés à différents CSP (BoD) avec plusieurs destinations possibles. Le CSU choisit des services de type IaaS avec NaaS dans des scénarios de type broker et fédération. Dans ce contexte, nous avons évalué le délai moyen de transmission ainsi que la gigue de la source vers la destination pour différents scénarios. D’une manière formelle, le délai est défini comme une période de temps nécessaire pour qu’un paquet se déplace d’un point initial à un autre final et la gigue est définie comme étant la variation de ce délai. Dans les trois scénarios de vidéoconférence, nous avons simulé quatre types de vidéos envoyées par le CSU avec une longueur d’une heure, une taille de 1, 2, 3 et 4 Go, respectivement, et une bande passante demandée égale à 2,2 Mb/s, 4,5 Mb/s, 6,8 Mb/s et 9,1 Mb/s, respectivement. De plus, dans les scénarios de type broker et fédération, le CSU spécifie une latence réseau maximale de 180 ms, une gigue réseau maximale de 30 ms et un temps de réponse maximal de transcodage de 20 ms. Pour les autres paramètres de qualité de service relatifs aux services IaaS et NaaS, le CSU demande un niveau de service bronze. 2.4.2.3. Résultats Les résultats illustrés dans la figure 2.8 montrent un bon délai global obtenu grâce à une sélection de CSP basée sur notre proposition d’architecture de type broker (B) ou fédération (F), par rapport à une sélection statique (S). Les délais de bout en bout sont bien contrôlés grâce à une minimisation des délais de mise en file d’attente, lors de la traversée des différents CSP qui garantissent leurs parts dans le niveau de service global à assurer pour les flux de vidéoconférence. De plus, la gigue est également bien contrôlée et n’a pas d’impact sur la transmission de la vidéoconférence (voir figure 2.9). Comme le montrent les figures 2.10 et 2.11, les coûts de bande passante et des machines virtuelles augmentent lorsque la taille de la vidéo et la bande passante correspondante augmentent en raison des contraintes de QoS de type NaaS et IaaS. En outre, dans une sélection statique, les coûts de bande passante et de machines virtuelles sont inférieurs aux coûts correspondants aux scénarios de type broker et fédération en raison de la garantie de QoS de type IaaS et NaaS. Enfin, les coûts de la bande passante et des machines virtuelles dans le scénario de type broker sont inférieurs à ceux du scénario de type fédération. Ces résultats s’expliquent par le fait qu’un CSPL commence d’abord par sélectionner ses propres ressources disponibles, avant de faire appel au besoin à des ressources au sein d’autres CSP. En effet, les ressources du CSPL ne sont pas forcément les meilleures en termes de coût. Ainsi, nous pouvons conclure

76

Gestion du niveau de service

que l’architecture de type broker est la plus économique, tout en assurant les exigences de qualité de service du CSU relatives à son application temps réel.

Figure 2.8. Évaluation du délai moyen global de bout en bout

Figure 2.9. Évaluation de la gigue

Gestion du niveau de service dans le Cloud

77

Figure 2.10. Évaluation du coût de la bande passante

Figure 2.11. Évaluation du coût global des VM

Le deuxième cas d’utilisation de notre architecture de Cloud Networking est une application de type calcul intensif. Cette dernière peut être basée sur la demande d’exécution de tâches de calculs scientifiques par exemple. Dans ce contexte, nous avons utilisé nos algorithmes de sélection de meilleurs CSP pour valider ce cas d’utilisation et déterminer les meilleures machines virtuelles à allouer pour les jobs

78

Gestion du niveau de service

demandés, tout en minimisant le coût total de l’application sans violer les contraintes de QoS correspondantes. Nous avons évalué le temps de réponse et la latence selon trois scénarios. Dans le premier, le CSU choisit un service IaaS sans NaaS et un temps de réponse inférieur à 300 ms. Dans le deuxième scénario, le CSU choisit un service IaaS avec NaaS, un temps de réponse inférieur à 300 ms, une latence inférieure à 150 ms, une bande passante de 1Mb/s et les autres paramètres de QoS sont égaux à bronze. Dans le troisième scénario, le CSU choisit une sélection statique sans garantie de QoS. Dans ces scénarios, nous avons simulé différentes longueurs de jobs (200, 250, 300 et 350 instructions) exécutées par différentes machines virtuelles. Nous avons considéré 4 CSU et chacun envoie 100 jobs à quatre machines virtuelles. Nous supposons qu’une instruction est égale à 1KB. Comme le montre la figure 2.12, en fournissant des garanties de QoS pour les services IaaS et NaaS dans l’architecture de type broker (B-I/N) et fédération (F-I/N), le temps de réponse et la latence sont bien contrôlés par rapport à une sélection utilisant uniquement la garantie de QoS relative au service IaaS offert dans les deux types d’architecture (B-I et F-I) et à une sélection statique (S).

Figure 2.12. Évaluation de la latence et du temps de réponse

De plus, comme le montrent les figures 2.13 et 2.14, les coûts de la bande passante et de machines virtuelles augmentent lorsque la longueur du job augmente. En outre, le coût de la bande passante sans les services NaaS (statique, B-I et F-I) est inférieur au

Gestion du niveau de service dans le Cloud

79

coût de bande passante de B-I/N et F-I/N en raison de la garantie de QoS pour le service NaaS. Le coût des VM dans la sélection statique est inférieur au coût des VM dans les scénarios broker et fédération en raison de la garantie de QoS pour le service IaaS. Enfin, les coûts de bande passante et de machines virtuelles dans le scénario broker sont moins importants que le scénario fédération selon les mêmes raisons mentionnées dans le cas d’utilisation de la vidéoconférence. Ainsi, l’architecture de type broker est la plus économique des architectures Cloud Networking proposées tout en assurant une garantie de QoS qui permet de satisfaire les exigences spécifiées par le CSU.

Figure 2.13. Évaluation du coût global de la bande passante

Figure 2.14. Évaluation du coût global des VM

80

Gestion du niveau de service

2.5. Conclusion Ce chapitre nous a permis de mieux cerner l’importance de la garantie du niveau de service et la gestion autonome d’un environnement de type Cloud. Ainsi, nous avons présenté en premier lieu trois différents types d’environnement Cloud, à savoir le Cloud Computing, le Cloud Networking et l’inter-Cloud en mettant l’accent sur les caractéristiques, les activités de standardisation les plus importantes dans ce type d’environnement mais aussi les plateformes d’implémentation et les outils de simulation relatifs aux différents types de Cloud. Ensuite, nous avons décrit l’importance de la garantie du niveau de service, intégrant la qualité de service et la sécurité, ainsi que la gestion autonome dans les environnements de type Cloud. Dans ce contexte, nous avons présenté les activités de standardisation ainsi que les activités de recherche qui ont permis de relever certains défis relatifs à la garantie de la QoS et la mise en place de la sécurité dans les environnements Cloud. De plus, nous avons montré les apports des concepts de la gestion autonome lorsqu’ils sont appliqués dans ce type d’environnement. Dans ce contexte, nous avons proposé un framework pour l’allocation des ressources conformément à un SLA établi de bout en bout entre un utilisateur de services Cloud (CSU : Cloud Service User) et plusieurs fournisseurs de services Cloud (CSP : Cloud Service Provider) dans un environnement de Cloud Networking (architectures d’inter-Cloud broker et fédération). Les travaux réalisés se concentrent sur les services Cloud de types NaaS (Network as a Service) et IaaS (Infrastructure as a Service). Nous avons validé les architectures proposées avec différents scénarios de simulation en utilisant CloudSim. Nous avons considéré dans le cadre de ces simulations des applications temps réel telles que la vidéoconférence afin de leur fournir une garantie de QoS. Les résultats obtenus montrent que les architectures proposées permettent de bonnes performances relatives aux paramètres de QoS pour ce type d’applications. En particulier, nous avons observé que l’architecture de type broker est la plus économique, tout en respectant les exigences de QoS. 2.6. Bibliographie Ali, M., Dhamotharan, R., Khan, E., Khan, S.U., Vasilakos, A.V., Li, K., Zomaya, A.Y. (2015). SeDaSC: secure data sharing in clouds. IEEE Systems Journal, vol. 11(2), 1–10. Ardagna, D., Trubian, M., Zhang, L. (2007). Sla based resource allocation policies in autonomic environments. Journal of Parallel Distributed Computing, 67, 259–270. Benson, T., Akella A., Shaikh, A., Sahu, S. (2011). CloudNaaS: a cloud networking platform for enterprise applications. Second ACM Symposium on Cloud Computing (SOCC’11), 8.

Gestion du niveau de service dans le Cloud

81

Buyya, R., Ranjan, R., Calheiros, R. (2010). Intercloud: Utility-oriented federation of cloud computing environments for scaling of application services. Dans Algorithms and Architectures for Parallel Processing. Springer, Berlin, 13–31. Calheiros, R., Ranjan, R., Beloglazov, A., De Rose, C., Buyya, R. (2011). CloudSim: a toolkit for modeling and simulation of cloud computing environments and evaluation of resource provisioning algorithms. Software: Practice and Experience, 41(1), 23–50. Chavan, P. et al. (2013). IaaS Cloud Security. Dans International Conference on Machine Intelligence Research and Advancement. Mira, Katra. Chaves, S., Westphall, C., Lamin, F.R. (2010). SLA Perspective in Security Management for Cloud Computing. Dans Sixth International Conference on Networking and Services. ICNS, Cancùn. Christmann, C., Falkner, J., Horch, A., Kett, H. (2015). Identification of IT Security and legal requirements regarding Cloud services. Dans Sixth International Conference on Cloud Computing, GRIDs, and Virtualization. Kuala Lumpur, 1–7. Cloud Security Alliance (2018). [En ligne]. Disponible à l’adresse : https://cloud securityalliance.org/ [Consulté en mars 2018]. Cloud Standards (2018). Global Inter-Cloud Technology Forum. [En ligne]. Disponible à l’adresse : http://cloud-standards.org [Consulté en mars 2018]. Cloud Standards Customer Council (2018). [En ligne]. Disponible à l’adresse : http:// www.cloud-council.org [Consulté en mars 2018]. Cloud Standards Customer Council Steering Committee (2018). Practical Guide to Cloud Service Level Agreements Version 2.0 [En ligne]. Disponible à l’adresse : https://www.omg.org/cloud/deliverables/CSCC-Practical-Guide-to-Cloud-ServiceAgreements.pdf [Consulté en mars 2018]. CloudStack (2018). [En ligne]. Disponible à l’adresse : http://cloudstack.apache.org/ [Consulté en mars 2018]. CompatibleOne (2018). [En ligne]. Disponible à l’adresse : http://www.compatibleone. org/ [Consulté en mars 2018]. Demchenko, Y. et al. (2011). Security Infrastructure for On-demand Provisioned Cloud Infrastructure Services. Dans Third IEEE International Conference on Coud Computing Technology and Science. IEEE, Athènes, 255–263. Distributed management Task Force (2018). [En ligne]. Disponible à l’adresse : http://dmtf.org/standards/cloud [Consulté en mars 2018]. Eucalyptus (2018). [En ligne]. Disponible à l’adresse : https://www.eucalyptus.cloud/ [Consulté en mars 2018]. European Network and Information Security Agency (2018). [En ligne]. Disponible à l’adresse : https://www.enisa.europa.eu/ [Consulté en mars 2018].

82

Gestion du niveau de service

European Telecommunications Standards Institute (2018). [En ligne]. Disponible à l’adresse : http://www.etsi.org/index.php/technologies-clusters/technologies/gridand-cloud-computing [Consulté en mars 2018]. Fan, W., Perros, H. (2014). A novel trust management framework for multi-cloud environments based on trust service providers. Knowledge-Based Systems, 70, 392– 406. Faniyi, F., Bahsoona, R., Theodoropoulos, G.A. (2012). Dynamic Data-Driven Simulation Approach for Preventing Service Level Agreement Violations in Cloud Federation. Dans International Conference on Computational Science. ICCS, Faro, 1167–1760. Infosys (2018). FoSII: Foundations of Self-governing Infrastructures. [En ligne]. Disponible à l’adresse : http://www.infosys.tuwien.ac.at/linksites/FOSII/index.html [Consulté en mars 2018]. Garg, S.K., Buyya, R. (2011). NetworkCloudSim: modeling parallel applications in cloud simulations. Dans fourth IEEE International Conference on Utility and Cloud Computing. IEEE, Washington, 105–113. Gong, C., Liu, J., Zhang, Q., Chen, H., Gong, Z. (2010). The Characteristics of Cloud Computing. Dans 39th International Conference on Parallel Processing Workshops. ICPP, Washington, 275–279. Hamze, H., Mbarek, N., Togni, O. (2016). Broker and Federation Based Cloud Networking Architecture for IaaS and NaaS QoS Guarantee. Dans 13th Annual IEEE Consumer Communications & Networking Conference. IEEE, Las Vegas, 705–710. He, X., Chomsiri, T., Nanda, P., Tan, Z. (2014). Improving cloud network security using the tree-rule firewall. Future Generation Computing System, 30, 116–126. IBM (2005). An architectural blueprint for autonomic computing, 3e édition [En ligne]. Rapport technique, IBM, Hawthorne. Disponible à l’adresse : http://www-03.ibm. com/autonomic/pdfs/AC%20Blueprint%20White%20Paper%20V7.pdf. IEEE InterCloud Testbed (2018). [En ligne]. Disponible à l’adresse : http://www. intercloudtestbed.org/ [Consulté en mars 2018]. Institut Telecom (2018). PyOCNI [En ligne]. Disponible à l’adresse : http://occiwg.org/2012/02/20/occi-pyocni/ [Consulté en mars 2018]. ISO/IEC JTC 1 (2018). [En ligne]. Disponible à l’adresse : http://www.iso.org/iso/ jtc1_home.html [Consulté en mars 2018]. Itani, W., Ghali, C., Bassil, R., Kayssi, A., Chehab, A. (2014). ServBGP : BGP-Inspired Autonomic Service Routing for Multi-Provider Collaborative Architectures in the Cloud. Elsevier Future Generation Computer Systems, 32, 99–117. ITU-T (2012). Focus Group on Cloud Computing. Rapport technique, ITU, parties 1 à 7. ITU-T (2018). [En ligne]. Disponible à l’adresse : http://www.itu.int/en/ITU-T/focus groups/cloud/Pages/default.aspx [Consulté en mars 2018].

Gestion du niveau de service dans le Cloud

83

Jung, J., Kim, H. (2012). MR-CloudSim: Designing and implementing MapReduce computing model on CloudSim. Dans ICTC 2012 International Conference on ICT Convergence. ICTC, Jeju Island, 504–509. Karadsheh, L. (2012). Applying security policies and service level agreement to IaaS service model to enhance security and transition. Computers & security, 31(3), 315– 326. Kliazovich, D., Bouvry, P., Khan, S. (2010). GreenCloud: a packet-level simulator of energy-aware cloud computing data centers. Dans IEEE Global Telecommunications Conference. IEEE, Miami, 1–5. Kouki, Y., Ledoux, T. (2012). SLA-driven Capacity Planning for Cloud applications. Dans IEEE International Conference on Cloud Computing Technology and Science (CloudCom). IEEE, Taipei. Kouki, Y., Ledoux, T., Serrano, D., Bouchenak, S., Lejeune, J., Sopena, J., Arantes, L., Sens, P. (2013). SLA et qualité de service pour le Cloud Computing. Dans Conférence d’informatique en parallélisme, architecture et système. ComPAS, Grenoble. Mell, P., Grance, T. (2009). NIST Definition of Cloud Computing v15 [En ligne]. Disponible à l’adresse : https://www.nist.gov/sites/default/files/documents/itl/cloud/ cloud-def-v15.pdf [Consulté en mars 2018]. Moraes, H., Nunes, R., Guedes, D. (2014). DCPortalsNg: efficient isolation of tenant networks in virtualized datacenters. Dans Thirteenth International Conference on Networks. ICN, Phoenix, 230–235. Mosaic (2018). [En ligne]. Disponible à l’adresse : http://www.mosaic-cloud.eu [Consulté en mars 2018]. Mycloud (2018). [En ligne]. Disponible à l’adresse : http://mycloud.inrialpes.fr/ [Consulté en mars 2018]. Na, S.H., Huh, E.N. (2014). A broker-based cooperative security-SLA evaluation methodology for personal cloud computing. Security and Communication Network, août. Neng-Hai, Y., Hao, Z., Xu, J. (2013). Review of cloud computing security. Acta Electron Sinica, 41(2), 371–381. Nimbus (2018). [En ligne]. Disponible à l’adresse : http://www.nimbusproject.org/ [Consulté en mars 2018]. Nunez, A., Vazquez-Poletti, J.L., Caminero, A.C., Castane, G.G. et al. (2012). iCanCloud: a flexible and scalable cloud infrastructure simulator. Journal of Grid Computing, 1, 185– 209. Open Networking Foundation (2018). [En ligne]. Disponible à l’adresse : https:// www. opennetworking.org/ [Consulté en mars 2018].

84

Gestion du niveau de service

OpenNaaS (2018). [En ligne]. Disponible à l’adresse : http://www.opennaas.org/ overview/ [Consulté en mars 2018]. OpenNebula (2018). [En ligne]. Disponible à l’adresse : http://opennebula.org/ [Consulté en mars 2018]. OpenStack (2018a). [En ligne]. Disponible à l’adresse : http://www.openstack.org/ [Consulté en mars 2018]. OpenStack (2018b). wiki/NaaS [En ligne]. Disponible à l’adresse : https://wiki. openstack.org/wiki/NaaS [Consulté en mars 2018]. Organisation for the Advancement of Structured Information Standards (2018). [En ligne]. Disponible à l’adresse : https://www.oasis-open.org/committees/ [Consulté en mars 2018]. Ostermann, S., Plankensteiner, K., Prodan, R., Fahringer, T. (2010). GroudSim: an event-based simulation framework for computational grids and clouds. Dans EuroPar 2010 parallel processing Workshops, Mario, R. et al. (dir.). Springer, Berlin, 305–313. Patel, P., Ranabahu, A., Sheth, A. (2009). Service Level Agreement in Cloud Computing. Rapport, CORE Scholar, Wright State University. Rak, M., Liccardo, L., Aversa, R. (2011). A SLA-based interface for security management in Cloud and GRID Integrations. Dans 7th International Conference on Information Assurance and Security. IAS, Melaka, 378–383. ReaCloudSim (2018) [En ligne]. Disponible à l’adresse : http://sourceforge.net/ projects/realcloudsim/ [Consulté en mars 2018]. Rong, C., Nguyen, S.T., Jaatun, M.G. (2013). Beyond lightning: a survey on security challenges in cloud computing. Computer & Electrical Engineering, 1, 47–54. Ruj, S., Stojmenovic, M., Nayak, A. (2014). Decentralized access control with anonymous authentication of data stored in clouds. IEEE Transactions Parallel and Distributed Systems, 25(2), 384–394. Ryan, M.D. (2013). Cloud computing security: the scientific challenge, and a survey of solutions. Journal of System Software, 9, 2263–2268. Sah, S.K., Shakya, S., Dhungana, H. (2014). A security management for cloud based applications and services with diameter-AAA. Dans IEEE International Conference on Issues and Challenges in Intelligent Computing Techniques. IEEE, Ghaziabad, 6– 11. Sail Project (2018). [En ligne]. Disponible à l’adresse : http://www.sail-project.eu/ [Consulté en mars 2018]. Sakai, H. (2011). Standardization Activities for Cloud Computing. Global Standardization Activities, 9(6).

Gestion du niveau de service dans le Cloud

85

Sankar, K., Kannan, S., Jennifer, P. (2014). On-demand security architecture for cloud computing. Middle-East Journal of Scientific Research, 20(2), 241–246. SNIA Cloud Data Management Interface (2018). [En ligne]. Disponible à l’adresse : http://www.snia.org/cdmi [Consulté en mars 2018]. Snooze (2018). [En ligne]. Disponible à l’adresse : http://snooze.inria.fr/ [Consulté en mars 2018]. Studnia, I. et al. (2012). Survey of security problems in cloud computing virtual machines. Computer and Electronics Security Applications. Tighe, M., Keller, G., Bauer, M., Lutfiyya, H. (2012). DCSim: a data center simulation tool for evaluating dynamic virtualized resource management. Dans The 6th International DMTF Academic Alliance Workshop on Systems and Virtualization Management: Standard and the Cloud. DMTF, Las Vegas, 385–392. Van, H., Tran, F., Menaud, J.M. (2009). SLA-aware virtual resource management for cloud infrastructures. Dans The 9th IEEE international conference on computer and information technology. IEEE, Vancouver, 357–362. Van, H., Tran, F., Menaud, J.M. (2010). Performance and power management for cloud infrastructures. Dans The 3rd IEEE international conference on cloud computing. IEEE, Washington, 329–336. Wei, L., Zhu, H., Cao, Z., et al. (2014). Security and privacy for storage and computation in cloud computing. Information Sciences, 258, 371–386. Wygwam (2018). Le Cloud Computing : réelle révolution ou simple évolution ?. [En ligne]. Disponible à l’adresse : https://www.yumpu.com/fr/document/view/6220300/ le-cloud-computing-reelle-evolution-ou-simple-wygwam [Consulté en mars 2018]. Yanzhi, W., Shuang, C., Pedram, M. (2013). Service Level Agreement-Based Joint Application Environment Assignment and Resource Allocation in Cloud Computing Systems. Dans IEEE Green Technologies Conference. IEEE, Denver, 167–174. Zissis, D., Lekkas, D. (2012). Addressing cloud computing security issues. Future Generation Computer Systems, 28(3), 583–592.

3

Gestion de la demande d’énergie en tant que service dans un environnement de type smart grid Samira CHOUIKHI, Leila MERGHEM-BOULAHIA et Moez ESSEGHIR Université de technologie de Troyes, Troyes, France

3.1. Introduction La demande toujours croissante d’énergie électrique représente un défi majeur pour les autorités dans le monde entier. Cependant, les réseaux électriques actuels, implémentés au cours du dernier siècle, vieillissent rapidement. Ces infrastructures héritées deviennent de plus en plus encombrées et incapables de satisfaire les besoins d’énergie futurs d’une économie numérique. En plus, l’intérêt de réduire l’impact du changement climatique (effet de serre) sur l’environnement a imposé le besoin d’intégrer des énergies plus saines et renouvelables. Ainsi, ces installations électriques doivent devenir plus intelligentes, plus fiables et plus robustes afin de prendre en compte ces nouveaux changements sans perdre en termes de stabilité et d’efficacité, d’où la naissance de l’environnement smart grid (Xi 2012). La migration vers le smart grid impose le développement de nouvelles techniques et stratégies pour obtenir un réseau qui exploite au maximum les fonctionnalités et les

Gestion du niveau de service dans les environnements émergents, coordonné par Nader MBAREK. © ISTE Editions 2020.

88

Gestion du niveau de service

services offerts par le smart grid. Ainsi, de nombreux algorithmes proposés ciblent les services de gestion de l’énergie, en particulier la gestion de la demande, dans les réseaux électriques intelligents. Des algorithmes hors-ligne (offline), supposant que toutes les informations (par exemple les prédictions) sont disponibles à l’avance, ainsi que des algorithmes en ligne (online), répondant aux événements en temps réel, ont été proposés. Ces algorithmes utilisent des techniques d’optimisation comme la programmation linéaire, quadratique, dynamique et stochastique, la théorie des jeux, les algorithmes évolutionnaires, etc., pour réduire les pics de demande, équilibrer l’offre et la demande et minimiser le gaspillage et le prix de l’énergie. Pour les algorithmes en ligne sont souvent utilisées des techniques d'intelligence artificielle distribuée, en particulier les systèmes multi-agents (SMA). Dans ce travail, nous nous intéressons à l’étude de la gestion de la demande en tant que service offert aux consommateurs dans un environnement smart grid. Nous introduisons d’abord cet environnement avec ses composants essentiels. Ensuite, nous poursuivons avec les concepts fondamentaux de la gestion de la demande pour nous focaliser enfin sur la gestion du point de vue de la demande (Demand-Side Management) et spécifiquement sur la planification de la consommation d’énergie. 3.2. Environnement des smart grids Les smart grids sont des réseaux électriques qui intègrent des technologies d’information et de communication pour mieux gérer les ressources et améliorer les services fournis. Ces technologies permettent une coordination entre tous les acteurs dans le processus de génération, de distribution, de transmission et de consommation de l’électricité (fournisseurs, consommateurs, équipements, etc.). D’un point de vue technique, un smart grid peut être divisé en trois systèmes majeurs : un système d’infrastructure intelligente, un système de gestion intelligente et un système de protection intelligente. – Système d’infrastructure intelligente : c’est l’infrastructure d’énergie, d’information et de communication de base du smart grid. Elle soutient un flux bidirectionnel d’électricité et d’informations. Ceci veut dire que l’électricité peut être injectée dans le réseau par les consommateurs. Cette infrastructure peut être divisée à son tour en trois sous-systèmes : système d’énergie (génération, distribution et consommation de l’énergie), système d’information (collecte des informations, surveillance, contrôle et

Environnement de type smart grid

89

gestion) et système de communication (transmission des informations entre les systèmes, les dispositifs et les applications dans un contexte smart grid). – Système de gestion intelligente : c’est le système qui fournit des services et des fonctionnalités de contrôle et de gestion avancés. Avec le développement de nouvelles applications et services de gestion permis par l’infrastructure intelligente, le réseau continue de devenir de plus en plus intelligent. Le système de gestion peut avoir plusieurs objectifs reliés en général à l’amélioration de l’efficacité énergétique, à l’équilibrage de l’offre et de la demande, au contrôle de l’émission, à la réduction du coût de fonctionnement, et à la maximisation de l’utilité. – Système de protection intelligente : c’est le système qui fournit l’analyse avancée de la fiabilité du réseau, la protection contre les pannes et les services de sécurité et de protection de la vie privée. Ce système permet de développer des mécanismes qui répondent aux défis de la cyber sécurité et préservent la vie privée. 3.2.1. Microgrids intelligents L’implémentation du smart grid à la place du réseau électrique traditionnel, en utilisant généralement les installations et les ressources existantes de l’ancien réseau, révèle de nouveaux défis. Les microgrids intelligents (voir figure 3.1) font partie de la solution proposée pour surmonter les problèmes dus aux infrastructures héritées. Leur capacité à intégrer des générateurs locaux, comme ressource de production distribuée d’énergie et des systèmes de stockage offre de nombreux avantages par rapport aux systèmes existants. Dans un fonctionnement normal, un microgrid est connecté au réseau traditionnel principal. Ses consommateurs peuvent générer de l’électricité basse tension en utilisant des ressources distribuées, telles que des panneaux solaires, des éoliennes et des piles à combustion. Cependant, le microgrid peut être déconnecté du réseau principal et continue de fournir de l’énergie aux consommateurs à travers ses ressources de génération distribuées. Ainsi, les générateurs distribués multiples et la capacité d’isoler le microgrid du réseau en perturbation permettent un approvisionnement continu en électricité. Il faut mentionner que même si les usagers n’obtiennent pas de l’énergie de l’extérieur en mode isolé, ils peuvent toujours échanger des informations avec le réseau principal. En plus, il est prouvé que l’utilisation des microgrids facilite l’implémentation des services et des fonctionnalités de smart grid.

90

Gestion du niveau de service

Figure 3.1. Architecture d’un microgrid

3.2.2. Infrastructure d’information et de communication L’évolution des smart grids compte non seulement sur l’avancement des technologies et des équipements de l’énergie, mais aussi sur l’amélioration de la surveillance automatisée, de l’analyse et du contrôle sophistiqués. Ces services deviennent distribués et localisés. En général, les défis de l’automatisation distribuée doivent être adressés d’une perspective technologie d’informations, comme l’interopérabilité des données et l’intégration des dispositifs, des systèmes et des applications existants et futurs. Ainsi, un sous-système intelligent d’information est implémenté pour soutenir la génération, la modélisation, l’intégration, l’analyse et l’optimisation des informations dans un environnement smart grid. De nombreuses technologies font partie de ce système, à savoir les compteurs intelligents, les unités de mesure de phaseur PMU (Phasor Measurement Units) et les capteurs. Les réseaux des capteurs sans fil (RCSF) (Akyildiz et al. 2002), étant donné leur faible coût, peuvent assurer une plateforme faisable et rentable de communication et de collecte d’information pour le contrôle et le diagnostic des systèmes distribués. Cependant, afin d’utiliser ce type de réseaux, le smart grid doit prendre en considération plusieurs facteurs, comme la qualité de service, les ressources limitées des capteurs, l’environnement hostile, la sécurité des transmissions, etc. Pour surmonter ces défis, les RCSF peuvent exploiter des techniques et des technologies telles que le protocole ZigBee, la communication multi-canal, l’autoréparation.

Environnement de type smart grid

91

En plus du système d’information, une infrastructure de communication est intégrée au smart grid afin de permettre l’échange des données indispensable pour le fonctionnement de ce dernier. En particulier, les réseaux domestiques HANS (Home Area Networks) sont utilisés pour interconnecter les éléments qui se trouvent dans le domaine du consommateur. Une gamme variée de technologies peut être utilisée pour implémenter les HAN qui peuvent être filaires ou sans fil. Ethernet reste une solution très populaire vu son débit très élevé qui peut atteindre des centaines de Gbit/s. Néanmoins, cette technologie exige des investissements pour déployer l’infrastructure filaire. Une alternative plus prometteuse est l’utilisation de PLC (Power Line Communication) qui utilise les câbles déjà installés du réseau électrique au lieu d’installer des câbles dédiés à la communication. Des technologies sans fil, telles que le Wi-Fi (Hiertz et al. 2010), sont aussi utilisées. Généralement, les solutions sans fil offrent une communication à courte distance avec des débits relativement bas en raison de l’atténuation des signaux et des interférences. D’autres technologies sans fil représentent une alternative plus appropriée étant donné qu’elles permettent de créer des infrastructures de communication peu coûteuses, flexibles, fiables et auto-réparées en cas de problèmes. En plus des HAN, des réseaux métropolitains WAN (Wide Area Networks) sont exigés afin de connecter les EMU aux autres domaines du smart grid comme l’entreprise utilitaire ou le serveur central en cas de solutions DSM conçues pour les communautés de consommateurs coopératifs. Les réseaux cellulaires sont considérés parmi les technologies les plus prometteuses vu qu’ils supportent un grand nombre de connexions simultanées avec une couverture très élevée. En outre, les technologies de quatrième génération, telles que WiMAX (Andrews et al. 2007) et LTE (Long Term Evolution) (Sesia et al. 2011), peuvent garantir la fiabilité et la qualité de service lors de la transmission des données. 3.3. Gestion de la demande : concepts fondamentaux La gestion de la demande d’énergie est considérée parmi les services les plus importants offerts par l’environnement smart grid. Les services de la gestion de la demande sont classifiés en général en deux catégories : services de réponse à la demande DR (Demand-Response) et services de gestion côté demande DSM (Demand-Side Management). Les services DR offrent des solutions réactives qui encouragent les consommateurs à changer dynamiquement leur demande à court terme suite à des signaux (changement de tarification, congestion, condition d’urgence, etc.) fournis par le réseau. Typiquement, ces techniques sont utilisées pour réduire la demande aux heures de pic ou éviter la panne du système. En revanche, les services DSM se basent généralement sur des méthodes proactives et ont pour but l’amélioration de l’efficacité énergétique des consommateurs. Dans la littérature, les termes DS et DSM sont souvent confondus ou considérés synonymes alors qu’ils représentent des méthodes

92

Gestion du niveau de service

complètement différentes mais qui peuvent être utilisées en même temps. En plus de deux types de services, un troisième type est offert pour l’environnement smart grid : la prévision de la demande d’énergie. Ce service est utilisé largement par les approches DSM et DR. 3.3.1. Prévision de la charge La prévision de la consommation d’énergie permet d’équilibrer la demande et l’approvisionnement en énergie et de réduire ainsi le pourcentage des consommateurs insatisfaits. Ce service permet de garantir un équilibrage entre la demande et l’approvisionnement en énergie afin de réduire l’insatisfaction. La prévision peut être de court, moyen, ou long terme, sur une période qui varie d’une heure à quelques années. Les approches de prévision de la demande utilisent en général des techniques d’intelligence artificielle et des méthodes statistiques, comme le lissage exponentiel, les réseaux de neurones, les systèmes experts, les méthodes de régression, les séries temporelles et la logique floue. De nombreux algorithmes ont été proposés pour prévoir la demande avec précision. Ghasmi et al. (2016) ont modélisé la corrélation entre la prévision du prix d’électricité et la prévision de la demande par un système multi-entrées multi-sorties qui utilise les méthodes ARIMA (AutoRegressive Integrated Moving Average) et NLSSVM (Non-Linear Least Square Support Vector Machine). L’ensemble des paramètres de NLSSVM est converti en un problème d’optimisation résolu par un algorithme de colonie d’abeilles. La simulation a montré que des prévisions précises sont obtenues en utilisant l’algorithme hybride. Un modèle évolutionnaire hybride flou avec optimisation paramétrique a été utilisé pour la prévision de la demande dans (Coelho et al. 2016). L’optimisation est réalisée en utilisant un optimiseur bio-inspiré. Des données réelles sont utilisées pour valider la méthodologie et les résultats ont montré que la solution s’adapte bien à la prévision à court terme dans les microgrids et les réseaux plus larges. Les résultats obtenus par les algorithmes de prévision sont largement utilisés par les approches DSM qui gèrent la demande afin de réduire le coût de la consommation, d’équilibrer la demande et l’offre, de lisser le profil de la consommation, etc. 3.3.2. Réponse à la demande DR L’implémentation du service DR permet de surmonter les problèmes dus aux pics de consommation et aux cas d’urgence. Les mécanismes proposés récompensent les consommateurs qui réduisent leur consommation suite à une demande ou cèdent le

Environnement de type smart grid

93

contrôle de quelques équipements électriques aux administrateurs du système. À titre d’exemple de ce système d’incitation, on peut citer : – contrôle direct des charges (direct load control) : dans cette solution, le gestionnaire du réseau peut intervenir directement et contrôler la consommation de l’usager. Suite à l’observation d’un problème dans le réseau, le gestionnaire envoie un signal pour annuler la demande de certaines applications afin de stabiliser le système. Dans (Zhu et al. 2015), les auteurs ont exploité cette technique comme partie de leur solution de planification de la consommation dans un microgrid intégrant des ressources renouvelables et des unités de stockage ; – consommation interruptible (interruptible/curtailable rates) : en contrepartie d’un tarif plus bas, l’usager doit soit réduire sa demande à court terme soit accepter l’interruption temporaire d’approvisionnement en énergie. Cette solution est utilisée généralement aux heures de pointe où la demande est très forte. Aalami et al. (2010) ont introduit un modèle économique dans lequel la consommation en énergie dépend du prix de l’électricité, de l’élasticité de la demande et de la pénalité. Afin de satisfaire les consommateurs et d’affiner le profil de la demande, le gestionnaire du réseau peut simuler les comportements de ses usagers pour différents prix, élasticités et pénalités en utilisant ce modèle ; – effacement suite à une urgence (Emergency Demand Response Programs ERDP) : lorsque le système risque d’être déséquilibré, le gestionnaire du réseau propose des récompenses aux consommateurs pour les inciter à diminuer leur demande. Sahebi et al. (2012) ont comparé cette technique avec la technique interruptible/ curtailable rates sur le même système et ont montré que ERDP présente de meilleures performances en termes de coût total ; – effacement basé sur la capacité (capacity market programs) : les clients s’engagent à diminuer leur consommation aux heures de pointe. S’ils ne respectent pas cet engagement lorsque le gestionnaire leur demande de réduire leur consommation, ils sont pénalisés. En échange de cet engagement, les consommateurs bénéficient de tarifs privilégiés même si aucune réduction de consommation ne leur est demandée. Cette technique est utilisée par Aalami et al. (2010) pour l’élaboration de la pénalité dans le modèle qu’ils proposent ; – effacement pour le maintien de services auxiliaires (ancillary services market programs) : les consommateurs engagés à réduire leur demande, si nécessaire, sont payés par l’opérateur du réseau. Ceci permet de supporter et de maintenir le bon fonctionnement du réseau électrique. Kirby et Hirst (1997) et Trehan (2001) ont décrit en détail ces services ; – offre d’effacement côté consommateur (demand bidding/buyback programs) : dans cette technique, c’est le consommateur qui initialise une enchère de réduction

94

Gestion du niveau de service

de la demande aux opérateurs. L’offre consiste en la quantité d’énergie que l’usager est prêt à réduire et le prix demandé. Cette solution est généralement avantageuse pour les consommateurs énergivores qui peuvent changer et adapter leur demande. Dans (Saebi et al. 2010), après l’étude de cette technique du point de vue du gestionnaire du système, les auteurs ont proposé un modèle qui permet de mieux redistribuer les demandes en énergie. Une nouvelle solution est proposée dans (Holyhead et al. 2015) qui permet de sélectionner un sous-ensemble optimal de consommateurs qui vont être ciblés par la demande de réduction de consommation. Ces consommateurs sont susceptibles d’utiliser des appareils planifiables aux heures de pointe et de réagir positivement à la demande du fournisseur d’énergie. 3.4. Gestion côté demande DSM Dans cette section, nous présentons l’architecture basique et les composants des plateformes DSM. De plus, nous étudions les différentes approches (voir tableau 3.1) en les classifiant selon plusieurs critères. Les systèmes DSM sont conçus pour identifier la planification optimale soit pour un consommateur résidentiel unique, soit pour une communauté de consommateurs. Cette planification peut avoir différents objectifs : minimisation de la facture d’électricité, minimisation de l’inconfort du consommateur, maximisation de la consommation de l’énergie produite localement, maximisation de l’utilisation de l’énergie renouvelable, lissage de profils de consommation, etc. L’optimisation peut se baser sur un objectif unique ou sur de multiples objectifs simultanément (optimisation multiobjectif). 3.4.1. Architectures et composants des plateformes DSM Les plateformes DSM sont conçues pour gérer, d’une manière optimale, les ressources d’énergie à travers une architecture spécifique illustrée par la figure 3.2. Les composants basiques de cette plateforme sont : – les générateurs locaux : ce sont des sources d’énergie renouvelable ou traditionnelle utilisées localement ou injectées dans le réseau principal ; – les dispositifs intelligents : ce sont des appareils électriques qui peuvent se contrôler et fournir des données comme leur consommation d’énergie, par exemple. Ils peuvent aussi être contrôlés à distance ;

Environnement de type smart grid

95

– les capteurs : utilisés pour collecter des données indispensables pour le fonctionnement d’un système DSM, à savoir la position, la température, l’intensité de la lumière, etc ; – les systèmes de stockage d’énergie : ce sont des dispositifs qui permettent de stocker l’énergie afin de permettre au système DSM une gestion flexible des ressources énergétiques ; – l’unité de gestion d’énergie EMU (Energy Management Unit) : assure l’échange des informations avec les autres éléments du système et la gestion des ressources des usagers en se basant sur un mécanisme DSM intelligent. Ce mécanisme doit déterminer la planification des appareils, le plan de fonctionnement des systèmes de stockage et les profils de demande et d’approvisionnement d’énergie. Dans le cas d’une architecture multi-usagers, toutes les EMU sont connectées à un serveur central qui coordonne les consommateurs ; – les domaines du smart grid : les domaines distribution, opération, marché, fournisseur de service et consommateur. Une entreprise utilitaire, qui fait partie du domaine marché, fournit l’énergie aux consommateurs qui la paient selon une tarification prédéfinie. Un éventuel opérateur du système indépendant, sans profit, peut intervenir entre les fournisseurs et les consommateurs. Il procure l’énergie des fournisseurs et la vend aux consommateurs afin de maintenir un équilibre entre l’offre et la demande. Tous ces composants sont connectés à travers l’infrastructure de communication présentée dans la section 3.2.2.

Figure 3.2. Architecture d’une plateforme DSM

96

Gestion du niveau de service

3.4.2. Classification des approches de DSM Les méthodes d’optimisation pour les approches DSM sont classifiées selon trois critères (voir figure 3.3). Le premier critère est la manière dont les consommateurs sont traités : individuellement ou comme communautés de consommateurs coopératifs. Dans le deuxième cas, les usagers collaborent pour déterminer leurs plans de consommation et des méthodes DSM sont utilisées pour optimiser une fonction d’utilité partagée. Une autre classification se base sur la technique de traitement des paramètres du système : déterministe ou stochastique. De nombreux paramètres des systèmes DSM, à citer l’énergie produite par les sources distribuées, les préférences des consommateurs et les prix de l’électricité sont estimés en utilisant des méthodes de prévision. Lorsqu’il s’agit d’approches DSM déterministes, ces paramètres sont définis comme des données déterministes, alors que pour les approches stochastiques, ils sont représentés par des variables aléatoires afin de considérer l’incertitude dans le processus de prise de décision. À cette fin, deux méthodes majeures sont adoptées : l’optimisation stochastique et l’optimisation robuste. La première méthode est utilisée dans les problèmes où l’incertitude peut être représentée par un modèle probabiliste. La deuxième méthode est appliquée si le modèle d’incertitude n’est pas probabiliste, si la distribution n’est pas connue avec précision ou lorsque les données incertaines peuvent être représentées par un ensemble de valeurs. L’optimisation stochastique reste toujours limitée par son indépendance de la disponibilité des données historiques, aussi bien que de son incapacité à manipuler les risques d’une manière directe ce qui exclut plusieurs domaines d’application. De l’autre côté, l’optimisation robuste est plus simple et plus efficace dans la pratique puisqu’elle n’augmente pas la complexité du problème d’optimisation correspondant. Pour ces raisons, la plupart des méthodes DSM conçues pour le traitement des données incertaines sont basées sur l’optimisation robuste. Le dernier critère de classification est l’échelle temporelle utilisée pour la gestion de la demande : jours en avance ou temps réel. Dans le premier cas, les plans de consommation des usagers pour une période future (typiquement le jour suivant) sont déterminés a priori. Les mécanismes DSM utilisant ce type de planification exigent la prévision de certains paramètres comme la quantité d’énergie produite localement, les prix de l’électricité et les préférences de consommation pour le jour à venir. Ces données peuvent être déterminées par des algorithmes d’apprentissage exécutés par les EMU en utilisant les données fournies par les capteurs, par les appareils intelligents ou par des sources externes (par exemple, la prévision météorologique). Pour la planification temps réel, les plans de consommation sont re-déterminés en se basant sur les événements et les données en temps réel. En conséquence, les systèmes DSM se comportent de la même façon que les plateformes réponse à la demande DR. Typiquement, les méthodes DSM temps réel se basent sur des techniques stochastiques.

Environnement de type smart grid

97

3.4.3. Approches déterministes pour les usagers individuels Dans ce type d’approches, les paramètres sont définis en tant que données déterministes même ceux qui sont estimés par des algorithmes de prévision. Dans (Ha et al. 2006), un modèle d’optimisation a été introduit pour minimiser l’inconfort thermique du consommateur à travers l’utilisation correcte des appareils adéquats. Les auteurs utilisent un graphe multi-niveau dans lequel chaque niveau est associé à un slot de temps et chaque nœud représente un état possible de la température interne. Considérant ce graphe, le problème original de planification peut être résolu en appliquant l’algorithme de Bellman-Ford. Goudarzi et al. (2011) ont défini un modèle d’optimisation multi-objectif afin d’inclure le coût de la consommation avec l’inconfort thermique. Ils ont introduit deux types de tarification : tarification fixe et tarification indépendante de la consommation. Ils ont proposé un algorithme exact branch-andbound pour résoudre le problème. Ensuite, ils ont défini une heuristique simple mais efficace pour éviter la complexité de l’algorithme exact. Dans (Clastres et al. 2010), le problème de planification a été formalisé en tant que problème temps réel pour s’adapter à l’incertitude des ressources d’énergies renouvelables. L’objectif des auteurs est d’ajuster la planification faite à l’avance selon le changement d’approvisionnement en énergie. À cette fin, la fonction objective est légèrement modifiée par l’introduction d’un paiement d’équilibrage qui est un coût encouru par le consommateur si l’énergie effective injectée dans le réseau diffère de celle définie dans la planification déjà établie. Les ressources renouvelables et les systèmes de stockage sont considérés dans (Agnetis et al. 2013). Dans ce travail, des tarifs de récompense sont utilisés et la fonction objective considère trois paramètres : le coût, les préférences de planification et le confort thermique. Les auteurs ont proposé une heuristique qui combine deux techniques de recherche locale et d’énumération exhaustive pour trouver des solutions sous-optimales en un temps d’exécution relativement faible. 3.4.4. Approches stochastiques pour les usagers individuels Généralement, la génération d’énergie renouvelable, ainsi que les paramètres des dispositifs électriques, et parfois les tarifs d’énergie, sont estimés par des méthodes de prévision qui peuvent produire des erreurs. Par conséquent, des outils adéquats sont exigés dans le processus de prise de décision de la planification de consommation en présence d’incertitudes. Dans (Jacomino et Le 2012), une méthode multi-objectif a été conçue pour minimiser le coût de la consommation et l’inconfort de l’usager. Pour faire face à l’incertitude des données, deux approches ont été proposées : la première est dédiée à l’incertitude de la prévision météorologique et la deuxième considère les données incertaines des dispositifs.

98

Gestion du niveau de service

Figure 3.3. Classification des approches DSM

L’incertitude des prix de l’électricité a été considérée dans (Deng et al. 2014). L’objectif du modèle d’optimisation multi-objectif présenté était la maximisation du confort d’usager et la minimisation du coût qui est déterminé selon un tarif fixe (indépendant de la demande) modélisé comme une variable aléatoire. Les auteurs ont proposé une méthode de décomposition duale et une méthode de gradient stochastique. Un autre travail a proposé un système temps réel basé sur une optimisation stochastique pour minimiser la facture moyenne d’électricité à long terme (Guo et al. 2012). Le modèle introduit prend en considération les prix, les ressources renouvelables et les systèmes de stockage. Les auteurs utilisent une version modifiée de la méthode Lyapunov qui a été initialement développée pour le contrôle dynamique des systèmes de files d’attente. Pour s’adapter au problème de planification de la demande d’énergie, les activités des ressources électriques sont représentées par des files virtuelles. Ainsi, le modèle Lyapunov donne des solutions très proches de l’optimal sans besoin d’aucune connaissance statistique sur les données incertaines. Les approches déjà présentées sont conçues pour contrôler les ressources énergétiques des consommateurs individuellement et localement. Cependant, cette technique peut avoir des effets indésirables sur le réseau puisque les décisions des usagers

Environnement de type smart grid

99

sont prises de manière égoïste. Par exemple, dans le cas de la minimisation de la facture à payer, tous les consommateurs peuvent déplacer leurs demandes aux périodes où les prix sont plus bas, ce qui cause des pics de consommation. Pour pallier ces insuffisances, des approches DSM qui considèrent les consommateurs comme étant des communautés sont développées. 3.4.5. Approches déterministes pour les communautés de consommateurs Les méthodes d’optimisation utilisées pour les usagers individuels peuvent être étendues pour s’adapter aux cas multi-usagers. Dans (Barbato et al. 2011), un problème linéaire a été présenté pour la gestion de la demande d’un groupe de consommateurs. L’objectif principal de ce travail est de minimiser la facture totale de la consommation de la communauté. Une architecture centralisée est utilisée dans laquelle un contrôleur DSM central détermine les plans de consommation des usagers. Une autre solution centralisée qui se focalise sur la gestion des systèmes de stockage a été proposée dans (Adika et Wang 2014). Bien que les approches centralisées de planification de la demande des communautés de consommateurs aient prouvé leur efficacité, un défi majeur peut se présenter. En effet, la quantité de données sensibles qui doit être transmise à travers le smart grid soulève les questions de scalabilité, de sécurité et de protection de la vie privée. Une manière de faire face à ces problèmes consiste à concevoir des solutions distribuées pour la planification de la demande. Dans (Samadi et al. 2010), un modèle multiobjectif est introduit pour contrôler les appareils de l’usager d’une manière optimale dans l’objectif de maximiser le confort et minimiser le coût. Le problème d’optimisation est modélisé sous la forme d’un problème concave qui peut être résolu par les techniques de programmation convexe. L’approche distribuée proposée pour la résolution de ce problème se base sur la décomposition duale et le gradient projeté ; en particulier, elle utilise la dualité de Lagrange. La solution proposée dans (Atzeni et al. 2013a) considère la génération distribuée d’énergie et l’optimisation de stockage. Le problème est formalisé sous forme d’un problème d’optimisation non-linéaire avec lequel les consommateurs déterminent leurs stratégies de génération/stockage qui leur permettent de minimiser le coût cumulatif agrégé. 3.4.6. Approches stochastiques pour les communautés de consommateurs Certains paramètres peuvent être affectés par les erreurs à cause des algorithmes de prévision. Tarasak (2011) a étendu l’approche proposée dans (Samadi et al. 2010) afin

100

Gestion du niveau de service

de considérer l’incertitude des données et a introduit trois modèles d’incertitude : modèle d’incertitude limitée, modèle gaussien et modèle de distribution inconnue. L’incertitude de la demande des consommateurs a été aussi abordée dans (Chang et al. 2013) où une approche temps réel a été proposée. Dans ce travail, les auteurs se sont focalisés sur les appareils planifiables ayant plusieurs modes de fonctionnement. Ils ont caractérisé chaque appareil par deux distributions de probabilité pour décrire la probabilité d’utiliser l’appareil dans une période future et la probabilité de choisir un mode de fonctionnement spécifique. Le problème de planification est formalisé sous forme d’un problème d’optimisation stochastique à plusieurs étapes dont l’objectif est de minimiser les coûts globaux du marché en temps réel. La dualité de Lagrange est utilisée pour obtenir un ensemble de sous-problèmes qui peuvent être résolus séparément et individuellement par chaque consommateur en se basant sur un processus de décision markovien. La dualité de Lagrange et l’algorithme de sousgradient sont aussi utilisés dans (Jiang et Low 2011) pour faire face à l’incertitude de l’approvisionnement en énergies renouvelables. L’objectif de l’approche proposée est de maximiser une fonction de protection sociale qui est définie comme étant le confort du consommateur moins le coût de la demande. La caractéristique distinctive du problème présenté dans ce papier est qu’elle cible la planification en avance ainsi que celle en temps réel afin d’améliorer les performances globales. Approche

Usager

Optimisation

(Ha et al. 2006)

Individuel

(Clastres et al. 2010)

Déterministe

(Goudarzi et al. 2011)

(Jacomino et Le 2012)

(Deng et al. 2014)

Stochastique

(Agnetis et al. 2013)

Objectif(s) Minimiser l’inconfort thermique Minimiser l’inconfort et le coût Optimiser le coût et la demande d’énergie renouvelable Optimiser le confort thermique, les préférences du consommateur et le coût Minimiser l’inconfort et le coût Optimiser le confort et le coût

Outils de résolution Bellman-Ford Branch-andBound



Recherche locale ; énumération exhaustive

– Décomposition duale

(Guo et al. 2012)

Usager Individuel

Approche

Optimisation

Objectif(s)

Outils de résolution

Optimiser le coût en présence d’énergie renouvelable

Méthode Lyapunov

(Barbato et al. 2011)

Déterministe

(Adika et Wang 2014)

(Atzeni et al. 2013a)

Communauté

(Samadi et al. 2010)

(Jiang et Low 2011)

Stochastique

(Tarasak 2011)

(Chang et al. 2013)

101

Stochastique

Environnement de type smart grid

Minimiser la facture totale Optimiser le système de stockage Optimiser le confort et le coût

Système linéaire

Décomposition duale ; gradient projeté

Optimiser la génération et le stockage d’énergie locale Optimiser le confort et le coût Minimiser les coûts globaux temps réel Maximiser le confort moins le coût

Méthode non-linéaire

Modèles d’incertitude Dualité de Lagrange ; processus de décision Markovien Dualité Lagrange ; sous-gradient

Tableau 3.1. Tableau récapitulatif des approches DSM

3.5. Techniques et méthodes de planification de la demande Pour résoudre le problème de la planification de la demande, les chercheurs ont opté pour différentes techniques et méthodes. Parmi ces dernières, trois techniques ont prouvé leur pertinence pour la gestion de la demande : la théorie des jeux, les systèmes multi-agents et l’apprentissage automatique. Souvent, les approches de planification utilisent ces trois techniques simultanément pour combiner leurs avantages et les exploiter au maximum.

102

Gestion du niveau de service

3.5.1. Théorie des jeux La théorie des jeux est l’une des techniques les plus exploitées dans le développement des approches de planification de la demande des consommateurs. Cette technique peut exprimer les interactions entre les usagers et la compétition/coopération entre eux pour mieux gérer leurs consommations. Dans (Soliman et Leon-Garcia 2014), les auteurs ont proposé une approche basée sur un jeu non-coopératif pour décrire la compétition entre les usagers afin de trouver la planification optimale de la demande qui minimise les coûts de la consommation. Des unités de stockage d’énergie sont aussi utilisées pour réduire la demande aux heures de pointe. Ainsi, les consommateurs peuvent charger les batteries en dehors de ces heures pour utiliser ou vendre cette énergie plus tard. Cependant, si plus d’usagers suivent cette technique, un nouveau pic de consommation peut se produire. Pour résoudre ce problème, les auteurs ont introduit un jeu de Stackelberg joué entre les consommateurs et le fournisseur dans lequel ce dernier peut agir sur le prix de l’électricité afin de réguler la demande. Le désavantage majeur de l’approche présentée est que les usagers doivent partager l’information sur leurs demandes horaires ce qui limite l’implémentation pratique de cette solution et soulève la question de la protection de la vie privée des consommateurs. Les auteurs de (Atzeni et al. 2013b) ont introduit un jeu non-coopératif pour représenter le problème de la gestion de la demande dans un smart grid avec des consommateurs traditionnels (passifs) ainsi que des consommateurs possédant des unités de stockage et/ou des sources distribuées de production d’énergie (consommateurs actifs). L’approche proposée vise à déterminer les stratégies optimales pour le stockage et la production d’énergie qui permettent d’optimiser la demande. La stratégie de chaque consommateur actif dépend de trois paramètres : ses appareils, les stratégies des autres consommateurs et la consommation totale des usagers passifs. Les auteurs ont prouvé que l’équilibre de Nash peut être atteint en se basant sur la décomposition proximale. Ibars et al. (2010) ont proposé une solution basée sur un jeu de congestion du réseau pour garantir que la solution locale de chaque consommateur égoïste est la solution du problème d’optimisation global. Les auteurs contrôlent la demande d’énergie aux heures de pointe à travers une stratégie de tarification dynamique. Dans (Mohsenian-Rad et al. 2010), les auteurs ont utilisé la théorie des jeux pour formaliser un jeu de planification de la demande entre les consommateurs. Ils ont proposé un système de gestion autonome et distribué en exploitant l’infrastructure de communication intégrée dans le microgrid. Dehghanpour et Nehrir (2017) ont modélisé le problème de la gestion de la demande comme étant un jeu de négociation entre différentes entités avec différents objectifs. Ils ont appliqué un algorithme de gradient distribué DGA (Distributed Gradient Algorithm) pour la résolution de ce problème en temps

Environnement de type smart grid

103

réel. Dans (Ininahazwe et al. 2018), les auteurs ont proposé une solution autonome distributive pour la gestion côté demande en se basant sur un jeu bayésien. Dans ce jeu, les charges planifiables de chaque consommateur sont modélisées comme un jeu avec trois joueurs où un usager joue contre l’unité de stockage et un opposant représentant tous les autres usagers. 3.5.2. Systèmes multi-agents Les systèmes multi-agents (SMA) sont un ensemble d’entités informatiques autonomes. Les agents de la figure 3.4 possèdent la capacité de percevoir les aspects de leur environnement et, dans de nombreux cas, d’agir sur cet environnement pour le modifier. Les agents peuvent avoir différents degrés d’intelligence selon leurs rôles dans l’architecture du SMA. Ils peuvent communiquer entre eux pour échanger des informations ou, dans des cas plus complexes, négocier ou coopérer pour atteindre un même objectif. Dans le contexte des smart grids, la technologie SMA peut être appliquée dans une vaste gamme d’applications. La gestion de la demande représente un service essentiel des smart grids où les SMA ont montré leur apport et leurs performances. Un SMA est capable de prendre des décisions intelligentes sans intervention humaine, ce qui rend les systèmes de gestion de la demande autonomes, flexibles, extensibles et tolérants aux pannes. Ainsi, de nombreux chercheurs ont opté pour les SMA pour développer des approches DSM performantes.

Figure 3.4. Architecture d’un agent intelligent

104

Gestion du niveau de service

Dans (Anvari-Moghaddam et al. 2017), un système multi-agents de gestion d’énergie, axé ontologie, a été proposé pour la surveillance et le contrôle optimal des bâtiments et des maisons dans un microgrid intégrant des ressources renouvelables et des charges contrôlables. Différents agents allant de ceux avec un simple réflexe à ceux intégrant l’apprentissage complexe sont conçus et mis en œuvre pour atteindre la stratégie de fonctionnement optimale. L’approche proposée basée sur les agents permet de résoudre le problème de gestion de la demande en utilisant la coopération et la communication entre les agents décisionnels. Klaimi et al. (2015a, 2015b, 2016) ont utilisé les SMA afin de minimiser les factures des consommateurs en optimisant la charge et la décharge du système intelligent de stockage d’énergie. Dans cette solution, les entités du système (producteur, consommateur, système de stockage) sont représentées par des agents qui communiquent entre eux. Ils ont intégré des ressources renouvelables et ont essayé de résoudre leur problème d’intermittence. Cependant, ces solutions ne prennent pas en considération les pertes d’énergie lors du transport. Ils ont étendu leurs travaux dans (Klaimi et al. 2018) afin de minimiser les pertes dues aux lignes de transport. Dans ce travail, les auteurs ont défini des algorithmes pour la négociation et la coopération entre les agents dans le but de maximiser le gain de chaque entité et d’équilibrer l’offre et la demande d’énergie. Les auteurs de (Chouikhi et al. 18a) ont proposé une approche distribuée pour la planification de la demande basée sur un prix d’énergie incitatif. Dans cette solution, les consommateurs du même bâtiment interagissent afin d’agréger leurs demandes avant de les transmettre au fournisseur d’énergie. Ce dernier voit donc ces consommateurs comme étant un seul consommateur. En plus, le prix de l’énergie dépend de la demande totale, ce qui encourage les usagers à coopérer. Le problème de la planification est modélisé sous forme d’un problème d’optimisation multiobjectif avec trois objectifs : i) minimiser le coût total de la consommation ; ii) réduire la demande aux heures de pointe ; iii) maximiser la consommation de l’énergie renouvelable. Un SMA est introduit dans lequel un agent intelligent est défini pour chaque consommateur et chaque bâtiment. Ces agents sont responsables de la planification de la demande sachant que la planification de la demande se fait à travers un jeu coopératif qui se déroule entre les agents consommateurs avec un minimum d’échanges d’informations afin de protéger la vie privée des usagers. Néanmoins, l’énergie est supposée suffisante pour satisfaire toutes les demandes, ce qui ne reflète pas la réalité. Ainsi, la solution a été étendue dans (Chouikhi et al. 2018b) où les auteurs ont ajouté une fonction d’utilité qui représente la satisfaction de chaque consommateur en se basant sur la disponibilité de l’énergie et les priorités des applications consommatrices. Ils ont aussi ajouté un réseau de capteurs/actionneurs sans fil pour la gestion et le contrôle de la consommation de certains appareils. Ce

Environnement de type smart grid

105

réseau optimise la consommation en permettant d’arrêter/démarrer ces appareils automatiquement selon plusieurs facteurs (par exemple la température ou la présence de l’usager dans l’appartement). De plus, un nouvel agent est ajouté pour représenter le microgrid. Cet agent permet d’isoler le microgrid et de le protéger en présence d’une perturbation dans le réseau électrique principal. 3.5.3. Apprentissage automatique L’apprentissage automatique se focalise sur la conception et le développement des algorithmes qui permettent aux systèmes de contrôle de prévoir les comportements des composants d’un microgrid à partir de données empiriques telles que les informations collectées par des capteurs. O’Neill et al. (2010) ont utilisé une application d’apprentissage en ligne pour évaluer implicitement l’impact des prix futurs de l’énergie et les décisions des consommateurs sur les coûts de l’énergie à long terme, et ainsi planifier l’utilisation des dispositifs électriques résidentiels. Fang et al. (2011) ont exploité l’apprentissage automatique en ligne pour analyser les stratégies d’utilisation des ressources d’énergie renouvelable dans un microgrid isolé. Plus spécifiquement, le consommateur essaie de décider quelle source doit être utilisée, parmi plusieurs, afin de maximiser son profit. Bien que le profil de la production d’énergie renouvelable ne soit pas connu à l’avance, les auteurs ont prouvé que l’écart entre le bénéfice obtenu en utilisant la source d’énergie renouvelable optimale et celui obtenu en suivant leur stratégie est relativement petit. Sheiki et al. (2016) ont proposé un système automatique de gestion de l’énergie basé sur un algorithme d’apprentissage par renforcement. Ils ont modélisé l’interaction entre les réseaux d’électricité et de gaz naturel. Leur but est de motiver les consommateurs résidentiels à participer aux programmes de gestion de la demande et réduire leur consommation d’électricité et de gaz naturel lors des heures de pointe. Dans (Kofins et al. 2018), les auteurs ont introduit un SMA coopératif pour le contrôle et la gestion d’énergie dans un microgrid autonome. Ce système apprend à contrôler les composants du microgrid à travers une méthode d’apprentissage par renforcement distributive et collaborative dans un espace d’actions-états continu. Les auteurs ont proposé l’utilisation des méthodes d’apprentissage Q-learning flou pour les agents représentant les composants du microgrid pour agir comme des apprenants indépendants qui partagent leurs états afin de coordonner leurs comportements. Les résultats ont montré l’efficacité des agents individuels dans le contrôle des composants, ainsi que l’efficacité du SMA à garantir l’approvisionnement en électricité et augmenter la fiabilité du microgrid.

106

Gestion du niveau de service

3.6. Conclusion La migration vers le smart grid permet l’intégration des technologies de l’information et de la communication dans les réseaux électriques afin de mieux gérer les ressources et améliorer les services fournis. Ce nouvel environnement offre une meilleure gestion de la production, de la distribution et de la consommation d’énergie. Cependant, de nouveaux défis surgissent et doivent être résolus. Ainsi, les chercheurs s’intéressent de plus en plus à la conception et au développement de mécanismes et d’approches qui permettent de profiter des fonctionnalités offertes. C’est dans ce contexte que nous avons essayé de nous focaliser sur la gestion de la demande d’énergie dans le smart grid. Ce service représente une solution prometteuse pour contrôler les ressources électriques des consommateurs, non seulement pour réduire leurs factures ou conserver l’énergie, mais aussi pour améliorer l’efficacité du réseau électrique. Les mécanismes de gestion de la demande utilisent des techniques de planification de la consommation, d’adaptation de la demande à la génération d’énergie renouvelable, ou la réponse aux conditions d’urgences. Dans ce travail, nous avons introduit tout d’abord l’environnement smart grid avec ses concepts fondamentaux. Ensuite, nous nous sommes intéressés à l’étude des approches de gestion de la demande en les classifiant selon différents critères. Enfin, nous avons présenté trois techniques et méthodes intéressantes utilisées dans la littérature pour la planification de la consommation d’énergie, à savoir la théorie des jeux, les systèmes multi-agents et l’apprentissage automatique. Vu l’importance des smart grids et les difficultés de mise en œuvre d’une solution scalable et adaptative, les chercheurs et industriels continuent à apporter de nouvelles contributions pour faire des avancées dans le domaine. 3.7. Bibliographie Aalami, H., Moghaddem, M.P., Yousefi, G. (2010). Demand response modeling considering interruptible/curtailable loads and capacity market programs. Applied Energy, 87(11), 243–250. Adika, C.O., Wang, L. (2014). Smart charging and appliance scheduling approaches to demand side management. International Journal of Electrical Power and Energy Systems, 57, 232–240. Agnetis, A., De Pascale, G., Detti, P., Vicino, A. (2013). Load scheduling for household energy consumption optimization. IEEE Transactions on Smart Grid, 4(14), 2364–2373. Akyildiz, I.F., Su, W., Sankarasubramaniam, Y., Cayerci, E. (2002). Wireless sensor networks: a survey. Computer Networks, 38(14), 393–422. Andrews, J.G., Ghosh, A., Muhamed, R. (2007). Fundamentals of WiMAX: Understanding Broadband Wireless Networking. Pearson Education, Upper Saddle River.

Environnement de type smart grid

107

Anvari-Moghaddam, A., Rahimi-Kian, A., Mirian, M.S., Guerrero, J.M. (2017). A multi-agent based energy management solution for integrated buildings and microgrid system. Applied Energy, 203, 41–56. Atzeni, I., Ordonez, L.G., Scutari, G., Palomar, D.P., Fonollosa, J.R. (2013a). Noncooperative and Cooperative Optimization of Distributed Energy Generation and Storage in the Demand-Side of the Smart Grid. IEEE Transactions on Signal Processing, 61(11), 2454–2472. Atzeni, I., Ordonez, L.G., Scutari, G., Palomar, D.P., Fonollosa, J.R. (2013b). Demand-Side Management via Distributed Energy Generation and Storage Optimization. IEEE Transactions on Smart Grid, 4(12), 866–876. Barbato, A., Capone, A., Carello, G., Delfanti, M., Merlo, M., Zaminga, A. (2011). House energy demand optimization in single and multi-user scenarios. Dans IEEE International Conference on Smart Grid Communications (SmartGrid Comm). IEEE, Bruxelles. Chang, T.H., Alizadeh, M., Scaglione, A. (2013). Real-time power balancing via decentralized coordinated home energy scheduling. IEEE Transactions on Smart Grid, 4(13), 1490–1504. Chouikhi, S., Merghem-Boulahia, L., Esseghir, M. (2018a). Energy Demand Scheduling Based on Game Theory for Microgrids. Dans IEEE International Conference on Communications (ICC). IEEE, Kansas City. Chouikhi, S., Merghem-Boulahia, L., Esseghir, M. (2018b). Multi-Level Energy Consumption Optimization for Smart Buildings. Dans IEEE Global Communications Conference (Globecom). IEEE, Abu Dhabi. Clastres, C., Ha Pham, T., Wurtz, F., Bacha, S. (2010). Ancillary services and optimal household energy management with photovoltaic production. Energy, 35, 55–64. Coelho, V., Coelho, I., Coelho, B. et al. (2016). Self‐adaptive evolutionary fuzzy model for load forecasting problems on smart grid environment. Applied Energy, 169, 567–584. Dehghanpour, K., Nehrir, H. (2017). Real-Time Multiobjective Microgrid Power Management Using Distributed Optimization in an Agent-Based Bargaining Framework. IEEE Transactions on Smart Grid, 6(9), 6318–6327. Deng, R., Yang, Z., Chan, J., Chow, M. (2014). Load scheduling with price uncertainty and temporally-coupled constraints in smart grids. IEEE Transactions on Power Systems, 29(16), 2823–2834. Fang, X., Yang, D., Xue, G. (2011). Online strategizing distributed renewable energy resource access in islanded microgrids. Dans IEEE Global Telecommunications Conference (GLOBECOM). IEEE, Houston.

108

Gestion du niveau de service

Fang, X., Misra, S., Xue, G., Yang, D. (2012). Smart Grid – The New and Improved Power Grid: A Survey. IEEE Communications Surveys & Tutorials, 14, 944– 980. Ghasemi, A., Shayeghi, H., Moradzadeh, M., Nooshyar, M. (2016). A novel hybrid algorithm for electricity price and load forecasting in smart grids with demand‐side management. Applied Energy, 177, 40–59. Goudarzi, H., Hatami, S., Pedram, M. (2011). Demand-side load scheduling incentivized by dynamic energy prices. Dans IEEE International Conference on Smart Grid Communications (SmartGridComm). IEEE, Bruxelles. Guo, Y., Pan, M., Fang, Y. (2012). Optimal power management of residential customers in the smart grid. IEEE Transactions on Parallel and Distributed Systems, 23(19), 1593–1606. Ha, D.L., Ploix, S., Zamai, E., Jacomino, M. (2006). A home automation system to improve household energy control. IFAC Proceedings Volumes, 39(13), 15–20. Hiertz, G.R., Denteneer, D., Stibo, L., Zang, Y., Costa, X.P.C., Walke, B. (2010). The IEEE 802.11 universe. IEEE Communications Magazine, 48(11), 62–70. Holyhead, J., Ramchurn, S., Rogers, A. (2015). Consumer targeting in residential demand response programmes. Dans ACM Sixth International Conference on Future Energy Systems. ACM, Bangalore. Ibars, C., Navarro, M., Giupponi, L. (2010). Distributed Demand Management in Smart Grid with a Congestion Game. Dans IEEE International Conference on Smart Grid Communications (SmartGridComm). IEEE, Gaithersburg. Ininahazwe, H., Muriithi, C.M., Kamau, S. (2018). Optimal demand-side management for smart micro grid with storage. Journal of Power and Energy Engineering, 6(12), 38–58. Jacomino, M., Le, M.H. (2012). Robust energy planning in buildings with energy and comfort costs. 4OR, 10, 81–103. Jiang, L., Low, S. (2011). Multi-period optimal energy procurement and demand response in smart grid with uncertain supply. Dans IEEE Conference on Decision and Control and European Control Conference (CDC-ECC). IEEE, Orlando. Kirby, B., Hirst, E. (1997). Ancillary service details : Voltage control. Rapport, Oak Ridge National Laboratory, Oak Ridge. Klaimi, J., Merghem-Boulahia, L., Rahim-Amoud, R., Jrad, A. (2015a). An energy management approach for smart-grids using intelligent storage systems. Dans International conference on digital information and communication technology and its applications (DICTAP). IEE, Beyrout.

Environnement de type smart grid

109

Klaimi, J., Rahim-Amoud, R., Merghem-Boulahia, L., Jrad, A. (2015b). An agentbased approach for energy management in smart-grids. Dans Highlights of practical applications of agents, multi-agent systems, and sustainability – The PAAMS collection, Bajo, J. et al. (dir.). Springer, Berlin, 225–236. Klaimi, J., Rahim-Amoud, R., Merghem-Boulahia, L., Jrad, A., Esseghir, M. (2016). An intelligent storage-based energy management approach for smart grids. Dans International Conference on Wireless and Mobile Computing, Networking and Communications (WiMob). IEEE, New York. Klaimi, J., Rahim-Amoud, R., Merghem-Boulahia, L., Jrad, A. (2018). A novel lossbased energy management approach for smart grids using multi-agent systems and intelligent storage systems. Sustainable Cities and Society, 39, 344–357. Kofins, P., Dounis, A., Vouros, G. (2018). Fuzzy Q-Learning for multi-agent decentralized energy management in microgrids. Applied Energy, 219, 53–67. Mohsenian-Rad, A.H., Wong, V.W., Jatskevich, J., Schober, R., Leon-Garcia, A. (2010). Autonomous demand-side management based on game theoric energy consumption scheduling for the future smart grid. IEEE Transactions on Smart Grid, 1(13), 320–331. O’Neill, D., Levorato, M., Goldsmith, A., Mitra, U. (2010). Residential Demand Response Using Reinforcement Learning. Dans IEEE International Conference on Smart Grid Communications. IEEE, Gaithersburg. Olsson, M., Sultana, S., Rommer, S., Frid, L., Mulligan, C. (2009). SAE and the Evolved Packet Core: Driving the Mobile Broadband Revolution. Elsevier, New York. Saebi, J., Taheri, H., Mohammadi, J., Nayer, S.S. (2010). Demand bidding/buyback modeling and its impact on market clearing price. Dans IEEE International Energy Conference and Exhibition (EnergyCon). IEEE, Manama. Sahebi, M.M., Duki, E.A., Kia, M., Soroudi, A., Ehsan, M. (2012). Simultaneous emergency demand response programming and unit commitment programming in comparison with interruptible load contracts. IET Generation Transmission & Distribution, 6(17), 605–611. Samadi, P., Mohsenian-Rad, A.-H., Schober, R., Wong, V.W.S., Jatskevich, J. (2010). Optimal real-time pricing algorithm based on utility maximization for smart grid. Dans IEEE International Conference on Smart Grid Communications (SmartGridComm). IEEE, Gaithersburg. Sesia, S., Toufik, I., Baker, M. (2011). LTE – The UMTS Long Term Evolution. Wiley Online Library, West Sussex. Sheikhi, A., Rayati, M., Ranjbar, A.M. (2016). Demand side management for a residential customer in multi-energy systems. Sustainable Cities and Society, 22, 63–77.

110

Gestion du niveau de service

Soliman, H.M., Leon-Garcia, A. (2014). Game-Theoretic Demand-Side Management with Storage Devices for the Future Smart Grid. IEEE Transactions on Smart Grid, 5(13), 1475–1485. Tarasak, P. (2011). Optimal real-time pricing under load uncertainty based on utility maximization for smart grid. Dans IEEE International Conference on Smart Grid Communications (SmartGridComm). IEEE, Bruxelles. Trehan, N. (2001). Ancillary services-reactive and voltage control. Dans IEEE Power Engineering Society Winter Meeting. IEEE, Columbus. Xi, F., Satyajayant, M., Guoliang, X., Dejun, Y. (2012). Smart Grid – The New and Improved Power Grid: A Survey. IEEE Communications Surveys & Tutorials, 14, 944–980. Zhu, L., Yan, Z., Lee, W.J., Yang, X., Fu, Y., Cao, W. (2015). Direct load control in microgrid to enhance the performance of integrated resources planning. IEEE Transactions on Industry Applications, 51(5), 3553–3560.

4

Gestion de la qualité de service et de la sécurité dans un environnement e-santé Mohamed-Aymen CHALOUF Université de Rennes 1, Lannion, France

4.1. Introduction Ces dernières années, nous avons assisté à l’explosion du nombre de personnes âgées et de patients avec une autonomie réduite ou des maladies chroniques. Par ailleurs, la prise en charge de ces personnes dans les maisons de retraite ou dans les hôpitaux est trop onéreuse. Pour toutes ces raisons, un bon nombre de projets nationaux et internationaux ont vu le jour ces dernières années. Ces projets ont un objectif commun, à savoir garder les personnes avec une autonomie réduite ou des maladies chroniques chez elles tout en leur garantissant l’aide nécessaire et les soins indispensables. Les solutions proposées dans le cadre des travaux réalisés dans ce domaine utilisent les technologies de l’information et de la communication afin de permettre aux professionnels de la santé comme les médecins et les infirmiers de suivre à distance l’état de santé des personnes ciblées. Ces solutions permettent également à ces personnes d’avoir accès à leurs données de santé comme les diagnostics et obtenir de l’aide en cas de besoin.

Gestion du niveau de service dans les environnements émergents, coordonné par Nader MBAREK. © ISTE Editions 2020.

112

Gestion du niveau de service

L’intégration des technologies de l’information et de la communication (TIC) dans le domaine médical a favorisé entre autres l’innovation dans le diagnostic et le suivi des patients et a donné naissance à l’e-santé. Ainsi, l’e-santé est définie comme étant l’utilisation des TIC pour fournir des services médicaux. Elle nécessite des technologies pluridisciplinaires, telles que l’instrumentation, l’informatique et les télécommunications pour la collecte, la transmission, le traitement et le stockage des informations médicales et la garantie de services médicaux à distance. L’e-santé désigne donc l’utilisation des TIC dans l’ensemble des activités de santé. Ainsi, ce concept intègre la télémédecine, la télésanté ainsi que d’autres solutions numériques pour la santé. La télémédecine couvre principalement quatre actes (Agence Française de la Santé Numérique 2010 ; Simon 2010) : – téléconsultation : elle permet de réaliser une consultation à distance avec un accès aux dossiers et données médicaux du patient. Dans ce cas, le patient est mis en contact avec un professionnel de santé de préférence avec une caméra (par exemple une webcam, une caméra d’un smartphone) afin de faciliter l’identification ; – téléexpertise : elle permet aux médecins d’échanger à distance leurs avis et expertises sur la base du dossier médical d’un patient. En effet, un médecin peut demander les avis des confrères sur la prise en charge d’un patient en leur transmettant des informations du dossier médical de ce dernier telles que des images (par exemple un scanner, une radiographie) ; – télésoins : ils permettent à un patient atteint d’une maladie chronique de faire le suivi de certains aspects de sa santé à domicile, et de partager facilement les informations médicales avec les professionnels de santé. Ainsi, ces derniers peuvent surveiller à distance les résultats du suivi et ajuster les traitements ; – télésurveillance : c’est un dispositif permettant le suivi médical à distance d’une personne atteinte d’une maladie chronique grave ou âgée et en perte d’autonomie. Elle facilite le suivi du patient en assurant un traitement plus efficace des données à distance. Les données sont obtenues en surveillant certaines constantes biologiques du patient comme l’oxymétrie et le rythme cardiaque. Selon le profil du patient, cette surveillance peut être continue ou discontinue. Un acte de télémédecine peut être réalisé d’une manière synchrone ou asynchrone. La télémédecine synchrone nécessite la présence des deux parties en même temps qui doivent interagir par le biais d’un lien de communication comme la vidéoconférence. Quant à la télémédecine asynchrone, elle ne nécessite pas la présence des deux parties en même temps. En effet, les données médicales d’un patient peuvent être transmises à un professionnel de santé (par exemple un médecin) qui les consultera plus tard. Si on prend l’exemple de la télésurveillance, alors cet acte de télémédecine peut être effectué

Gestion dans un environnement e-santé

113

en mode synchrone ou en mode asynchrone (Moulin et Simon 2016). La télésurveillance asynchrone concerne par exemple des patients atteints d’une maladie chronique stabilisée. Dans ce cas, le professionnel de santé a besoin d’informations sur les événements qui ont eu lieu sur une certaine période (par exemple quelques mois entre deux consultations). Ces informations concernent par exemple la stabilité du poids, le contrôle de la pression artérielle ou de la glycémie. La télésurveillance asynchrone est intéressante parce qu’elle permet de réduire les complications inhérentes à la maladie chronique (par exemple les accidents liés aux traitements en cours). Par ailleurs, la télésurveillance synchrone concerne les patients atteints d’une maladie sévère avec un risque de complications. Par exemple, un patient atteint d’une insuffisance cardiaque avancée avec risque de décompensation et d’hospitalisation en urgence doit bénéficier d’une télésurveillance synchrone (7j/7). Cela permettra d’avoir une réponse immédiate aux alertes afin d’éviter les complications et les hospitalisations. Pour résumer, la modalité de télésurveillance (synchrone ou asynchrone) doit être définie sur la base du profil du patient. Il est à noter que dans certains cas on peut alterner la télésurveillance asynchrone avec des périodes de télésurveillance synchrone. Dans la section 4.2 de ce chapitre, nous présentons les systèmes e-santé à travers quelques projets européens. Il s’agit des premiers projets européens qui se sont intéressés à des patients de profils différents (Hamdi et al. 2014). Comme le montrent plusieurs études, implémentations et simulations, les systèmes e-santé ont besoin de gérer la qualité de service et la sécurité afin de répondre aux exigences des services esanté fournis et de résister aux attaques malveillantes. Ainsi, nous nous intéressons à la gestion de la qualité et de la sécurité dans les sections 4.3 et 4.4 respectivement. La section 4.5 est réservée à la conclusion. 4.2. Les systèmes e-santé L’étude des projets de recherche européens les plus représentatifs des efforts réalisés dans le domaine de l’e-santé (Hamdi et al. 2014) permet d’identifier une architecture commune des systèmes e-santé et de ses principales caractéristiques. Les systèmes e-santé étudiés dans (Hamdi et al. 2014) s’intéressent essentiellement à la télésurveillance et permettent de fournir des services aux personnes surveillés : les personnes âgées (Rocha et al. 2011 ; SOPRANO project 2011), les handicapés (Navarro et al. 2011) et des patients atteints de maladies chroniques (Chronious project 2012 ; REACTION project 2014). Ces services couvrent essentiellement les services de sécurité comme la détection de gaz, incendie, ou intrusion ainsi que les services de santé tels que le rappel de médicaments, le diagnostic médical à distance et la détection des situations de danger. L’implémentation des services offerts est

114

Gestion du niveau de service

souvent basée sur l’OSGi (Open Services Gateway initiative) (SOPRANO project 2011) ou les ontologies (Chronious project 2012 ; REACTION project 2014). Nous notons également que l’implémentation des services de santé est souvent distribuée entre un équipement local (en général une passerelle se trouvant dans le domicile de la personne bénéficiant du suivi) et des équipements distants (en général des serveurs distants comme les serveurs Cloud). Ceci permet d’avoir des services « locaux » et de rendre les entités locales aussi autonomes que possible. 4.2.1. Architecture L’architecture « commune » est une architecture vers laquelle convergent les solutions e-santé proposées dans les différents projets étudiés. Elle est composée principalement de trois parties (voir figure 4.1) : – réseau de capteurs : constitué par un ensemble de capteurs hétérogènes (médicaux, environnementaux, contextuels, etc.) équipant le patient et son environnement. Chaque service fourni est basé sur un ensemble de capteurs. Par exemple, le diagnostic médical à distance nécessite l’utilisation de capteurs médicaux pour surveiller les paramètres physiologiques tels que la température corporelle et l’oxymétrie de pouls. Cependant, le service de détection de chute pourrait utiliser des capteurs de localisation et d’activité. Nous notons qu’un capteur peut être impliqué dans plusieurs services différents ; – passerelle : c’est un équipement intermédiaire qui se trouve entre le patient dans son environnement de suivi et le monde extérieur. Lorsque la personne surveillée à distance se trouve chez elle, la passerelle est une sorte de boîte médicale (medical box). Cependant, pour assurer la télésurveillance en continu, même quand le patient est en déplacement, un smartphone ou un PDA peut remplacer la boîte médicale. Par ailleurs, la passerelle est l’équipement sur lequel s’exécutent les services locaux et, d’une manière générale, les fonctionnalités locales d’un service (un service e-santé peut être composé de fonctionnalités locales et distantes) ; – serveurs distants : ces serveurs sont connectés à la passerelle qui doit leur transmettre des données concernant le patient et son environnement. Ils sont capables d’effectuer des calculs complexes et de stocker une grande quantité de données. Les serveurs distants sont donc utilisés pour exécuter les services distants et d’une manière générale les fonctionnalités distantes d’un service quelconque. Dans certains cas, ces serveurs peuvent décider d’informer ou alerter une tierce personne sur l’état de la personne surveillée à distance (par exemple en cas d’incident). Ainsi, les serveurs distants ont accès à une liste de contacts (par exemple un parent, un voisin, une infirmière, un médecin, les urgences, etc.).

Gestion dans un environnement e-santé

115

Figure 4.1. Architecture des systèmes e-santé (Hamdi et al. 2014)

Afin d’assurer les communications entre les capteurs et la passerelle, cette dernière doit supporter de nombreuses technologies de communication (par exemple Ethernet, Wi-Fi, Bluetooth, RF, etc.). Cela permettra à la passerelle de communiquer d’une part avec les serveurs distants et d’autre part avec les capteurs équipant le patient et son environnement et qui doivent lui transmettre des données. Cependant, les communications entre la passerelle et les serveurs distants sont souvent basées sur des services web afin de garantir l’interopérabilité (REACTION project 2014). 4.2.2. Caractéristiques Dans cette section, nous détaillons les principales caractéristiques d’un système e-santé. Nous distinguons trois aspects : les services qu’un système e-santé doit assurer afin de répondre aux besoins des utilisateurs (par exemple un patient, une personne âgée), les outils techniques et technologiques utilisés pour garantir ces services et les fonctionnalités supportées par l’architecture du système e-santé. Ensuite, nous présentons quelques problèmes techniques. 4.2.2.1. Services offerts Les principaux services pouvant être offerts aux utilisateurs de systèmes e-santé sont :

116

Gestion du niveau de service

– sécurité : le système doit assurer la sûreté et la sécurité de l’environnement de la personne surveillée en installant des capteurs assurant la détection des chutes, des incendies, etc. Ce qui permettra à l’utilisateur d’avoir non seulement une visibilité claire de ce qui se passe dans son environnement mais aussi de pouvoir le contrôler ; – localisation : le système doit pouvoir donner la position géographique et la localisation de l’utilisateur en cas de besoin. Ceci permettra, par exemple, de détecter des situations dangereuses ou d’envoyer les secours au bon endroit ; – interaction sociale : le système e-santé doit être capable d’assurer la communication, l’information, le maintien de contact et la participation active dans la société ; – alerte en temps réel : le système e-santé peut être en charge d’assurer la surveillance de l’état de santé d’une personne présentant de sérieux risques. Dans ce cas, le temps est crucial et en cas de détection d’un problème, le système doit être en mesure de réagir instantanément en transmettant des alertes en temps réel aux professionnels de santé concernés et éventuellement à d’autres contacts (par exemple un parent ou un voisin) ; – accompagnement et coaching : un système de télésurveillance doit permettre aux professionnels de la santé de rester en contact avec les utilisateurs et d’accéder aux données nécessaires à tout moment et de partout. Ceci permettra de garantir une supervision efficace. 4.2.2.2. Outils et technologies Les principaux outils et moyens techniques utilisés lors de la mise en place d’un système de télésurveillance sont (Hamdi et al. 2014) : – techniques de communication : comme le montre l’architecture présentée dans la section 4.2.1, il y a plusieurs types de communication au sein des systèmes e-santé. Les communications entre les capteurs, équipant le patient et son environnement, ainsi que les communications entre les capteurs et la passerelle. Ces deux types de communication peuvent être filaires ou sans fil (Wifi, Bluetooth, etc.). Ensuite, nous avons les communications entre la passerelle et les serveurs au cœur de la plateforme du système e-santé, qui sont généralement basées sur une connexion Internet via une connexion filaire (ADSL, câble, fibre) ou mobile (2G, 3G, UMTS, 4G). Enfin, nous avons les communications entre les serveurs de la plateforme du système e-santé et les terminaux des professionnels de santé ou encore les autres contacts associés à la personne suivie. Ces communications peuvent utiliser Internet ou encore le réseau mobile (par exemple une alerte par SMS) ; – calculs et traitements : les traitements et calculs effectués dans le cadre des services e-santé offrent un rendu différent d’un projet à un autre parce qu’ils sont fortement liés au profil des personnes concernées par le système e-santé. En revanche,

Gestion dans un environnement e-santé

117

nous avons identifié quelques critères qui permettent de distinguer les systèmes esanté. Le premier critère concerne la nature des traitements réalisés sur les données médicales : distribués ou centralisés. Un autre critère pouvant caractériser les systèmes e-santé est le degré de réactivité de ce dernier. En effet, dans la majorité des cas, les systèmes e-santé doivent être en mesure de réagir en temps réel lorsqu’un incident se produit ; – logiciels : un système e-santé doit implémenter une application logicielle permettant aux utilisateurs d’accéder facilement aux services proposés. Dans ce cas, une grande importance doit être accordée à l’interface qui permettra aux utilisateurs d’interagir avec le système e-santé ; – dossier médical personnel (DMP) : permet de stocker les données de santé ainsi que toute information intéressante à propos de l’utilisateur du système e-santé ; – profil utilisateur : souvent utilisé dans les systèmes e-santé, il regroupe des informations caractérisant l’utilisateur comme ses préférences. Ces informations sont prises en compte par les systèmes e-santé lors de l’exécution des services e-santé. Cela facilitera l’offre de services centrés sur l’utilisateur. 4.2.2.3. Critères spécifiques Les principaux critères caractérisant un système e-santé sont : – mobilité : les systèmes e-santé d’aujourd’hui visent à assurer des services comme la télésurveillance même lorsque la personne concernée se déplace à l’intérieur de son domicile ou à l’extérieur. Les avancées technologiques en matière d’appareils mobiles qui se dotent de capacités plus importantes (mémoire, calcul, batterie, etc.) ont facilité la mise en œuvre des services e-santé pour des utilisateurs mobiles ; – sécurité : les différentes composantes d’un système e-santé peuvent être concernées par le traitement, le stockage, la transmission et l’accès aux données médicales critiques. Ainsi, ces systèmes doivent être sécurisés afin de garantir la sécurité du stockage, de l’accès et des communications. Ceci permettra de résister aux attaques pouvant porter atteinte à la confidentialité, l’intégrité et la disponibilité des données ; – sensibilité au contexte : un système e-santé doit pouvoir tenir compte du contexte et de l’historique de la personne suivie. Ceci permettra d’ajuster certains paramètres afin d’être plus efficace dans ses actions et ses rapports destinés aux utilisateurs et professionnels de santé ; – interopérabilité : le système e-santé développé doit pouvoir fonctionner avec le matériel, les produits et les systèmes existants et futurs. Ainsi, il ne doit pas restreindre l’accès ou la mise en œuvre.

118

Gestion du niveau de service

Les premiers systèmes e-santé ont plus ou moins négligé la qualité et la sécurité. En effet, rares sont les projets qui ont considéré la qualité des transmissions et le maintien de la connectivité pour les communications nécessaires malgré l’importance de ces aspects dans la garantie d’un service e-santé continu et de qualité. En ce qui concerne la sécurité, il suffit qu’une alerte soit falsifiée ou non transmise pour avoir des conséquences néfastes sur l’état de santé de l’utilisateur qui peuvent aller jusqu’à lui causer la mort. Malgré son importance, la sécurité des systèmes e-santé a été largement négligée dans les premiers projets. Maintenant que les systèmes e-santé se sont bien développés et sont devenus une réalité, nous trouvons de plus en plus de travaux qui s’intéressent à ces aspects. Dans ce qui suit, nous décrivons les principaux efforts qui ont contribué à la gestion de la qualité et de la sécurité dans les systèmes e-santé. 4.3. La qualité de service des systèmes e-santé Après avoir introduit les systèmes e-santé en décrivant les services qu’ils peuvent offrir, leur architecture générale, leurs principales caractéristiques ainsi que les outils technologiques sur lesquels se base leur mise en œuvre, nous allons nous intéresser à la gestion de la qualité de service dans ces systèmes. La gestion de la qualité de service dans les systèmes e-santé est indispensable parce que nous avons des services e-santé qui ont des besoins différents en matière de ressources (par exemple la bande passante, le délai, la gigue, le taux de perte). De plus, les systèmes e-santé ont une architecture spéciale où on peut distinguer différents segments impliquant diverses technologies de communication. Ce qui peut rendre la mise en place de mécanismes de gestion de la qualité de service assez complexe. En effet, nous pouvons retrouver divers mécanismes adaptés aux différentes parties d’un système e-santé, mais il faut surtout pouvoir assurer une qualité suffisante pour les services e-santé offerts aux utilisateurs. Dans cette section, nous commençons par rappeler les besoins et les exigences des services e-santé en matière de qualité. Ensuite, nous décrivons les principaux mécanismes de gestion de cette qualité au niveau des différents réseaux d’un système e-santé. 4.3.1. Les services e-santé et la qualité de service Les services e-santé incluent un bon nombre de services ayant différentes exigences en matière de qualité de service (QoS : Quality of Service). Plus précisément, ces services ont des besoins différents en matière de délai, bande

Gestion dans un environnement e-santé

119

passante, taux de perte, etc. Par exemple, en matière de délai, les exigences d’un service e-santé peuvent aller de la transmission temps réel (par exemple la transmission d’une alerte urgente) à la transmission tolérant le retard (par exemple l’accès au DMP d’un patient). En termes de perte de paquets, un service e-santé peut être une conversation vocale et donc tolérer une certaine perte de paquets, ou encore une transmission d’images médicales et ne tolérer aucune perte. 4.3.1.1. Importance de la QoS pour les services e-santé Un bon nombre de travaux de recherche ont fourni une classification des services e-santé en fonction de leurs besoins tout en évaluant la capacité du réseau à satisfaire ces besoins. Par exemple, dans (Salehi et Mirhadi 2008), différents services e-santé ont été classés selon l’importance de certains paramètres de QoS. Par ailleurs, les services e-santé ont été classés selon les actes de télémédecine introduits auparavant (Perakis et Koutsouris 2009) : télédiagnostic, téléconsultation, télésurveillance, etc. Dans (Vouyioukas et al. 2007), une autre classification des services e-santé a été proposée. Cette classification est basée sur les exigences des services en matière de QoS et distingue deux principales catégories : les services temps-réel et les services quasi tempsréel. Cette classification a été ensuite améliorée en prenant en compte le contexte global du service e-santé (Skorin-Kapov et Matijasevic 2010). En effet, les besoins en QoS d’un même service e-santé (par exemple le télédiagnostic) peuvent dépendre du contexte global du patient. Par exemple, la télésurveillance d’un patient en situation d’urgence nécessite une transmission de données médicales en temps-réel, alors que pour une télésurveillance d’un patient dans une situation non urgente, la transmission des données médicales supporte le retard. Compte-tenu de l’importance des données contextuelles comme l’urgence de la situation du patient, la classification proposée dans (Vouyioukas et al. 2007) a été étendue en incluant la notion de sensibilité au contexte. Le tableau 4.1 (Skorin-Kapov et Matijasevic 2010) illustre cette classification nouvelle où la sensibilité au contexte fait référence au degré d’urgence du service e-santé. Ainsi, tous les services e-santé pouvant être utilisés dans une situation d’urgence sont marqués comme étant sensibles au contexte (Skorin-Kapov et Matijasevic 2010). Application

Bande passante

Faible délai

Faible gigue

Sensible au contexte

Télédiagnostic

Haute

Oui

Non

Oui

Téléconsultation

Haute

Oui

Oui

Oui

Télésurveillance

Faible

Non

Non

Oui

Accès au dossier

Haute/faible

Non

Non

Oui

Tableau 4.1. Importance de la QoS pour les actes/services e-santé (Skorin-Kapov et Matijasevic 2010)

120

Gestion du niveau de service

4.3.1.2. Besoins des services e-santé en matière de QoS Les services e-santé incluent la conférence multimédia, la transmission de paramètres physiologiques et de données médicales, le transfert d’images médicales, l’accès au DMP, etc. Ces services nécessitent le transport de divers types de données qui ont des besoins différents en matière de délai, bande passante et perte de paquets. Dans cette section, nous détaillons les besoins des principaux services e-santé en matière de QoS. 4.3.1.2.1. Conférence multimédia La conférence multimédia (audio-conférence ou visio-conférence) est utilisée dans les systèmes e-santé pour différents types de communication : entre un patient et son médecin, entre deux médecins ou encore entre deux patients. Elle implique la transmission de la voix et de la vidéo et peut tolérer la perte de paquets afin de respecter les exigences en matière de délai et avoir donc un service interactif tempsréel. Ces exigences peuvent dépendre du contexte de service e-santé (Skorin-Kapov et Matijasevic 2010). Par exemple, un service impliquant une conférence audio/vidéo entre un patient et un médecin pour un examen de routine peut être considéré comme « non critique » et tolérer une dégradation considérable en matière de délai (150 à 400 ms). En revanche, si ce même service est utilisé dans une situation d’urgence alors le réseau doit garantir une transmission temps-réel et le délai ne doit pas dépasser les 150 ms. En outre, dans (Vouyioukas et al. 2007) on voit une différence entre les besoins QoS de la transmission vidéo en temps réel, la transmission vidéo hors ligne, la conférence multimédia pour le télédiagnostic, etc. Dans ces travaux, la transmission vidéo en temps réel pour le télédiagnostic est considérée comme la plus exigeante en matière de QoS. Ensuite, on trouve la transmission audio en temps réel pour le télédiagnostic. Cette transmission audio peut inclure le son d’un stéthoscope ou encore le flux audio qui accompagne la vidéo du télédiagnostic. 4.3.1.2.2. Transfert/streaming d’images médicales Les images médicales fixes qui peuvent être transmises dans le cadre d’un service e-santé (par exemple la téléconsultation) couvrent essentiellement (Perakis et Koutsouris 2009) les radiographies, les images par résonance magnétique (IRM), les échographies, etc. La transmission de ces images en haute définition nécessite un taux de perte de paquets quasi nul. En effet, le transfert de ce type de données médicales nécessite une grande fiabilité parce qu’une perte de paquets peut avoir des conséquences négatives sur le diagnostic. En revanche, ce service e-santé n’a pas d’exigences spécifiques en matière de bande passante. Il faut juste noter qu’une faible bande passante entraîne des délais de transmission plus importants. La taille d’image et le débit nécessaires pour différents types d’équipements et dispositifs médicaux fournis dans (Vouyioukas et al. 2007) sont résumés dans le tableau 4.2.

Gestion dans un environnement e-santé

121

Équipement

Temps/espace (échantillons/sec)

Contraste/résolution (bits par échantillon)

Débit requis

Tensiomètre numérique

1

*10

t. Cela permet de diminuer la puissance de calcul utilisée par BATM comparé à une exécution à chaque période d’actualisation, potentiellement inutile si R(j, t1 , T ) ou Φ(j, i, t1 , T ) ne sont jamais accédés. De la même manière, l’estimateur du maximum de vraisemblance M L(ni → nj , t1 , T ) et l’indice de fiabilité I(ni → nj , t1 , T ) sont mis à jour lors du report d’un feedback via la fonction addFeedbackFrom(i) ou lors de l’accès à la réputation R(j, t1 , T ). Afin de sécuriser l’accès au contrat du nœud, les fonctions getR(), getPhiFor(i) et addFeedbackFrom(i) doivent vérifier l’identité de l’entité appelante. Un jeton généré par le contrat Chain Token, dont l’implémentation est hors du champ de ce chapitre, permet cette vérification.

L’authentification dans les réseaux décentralisés

201

Figure 6.5. Smart contracts calcul de confiance

En conclusion à cette section, le cœur de BATM est composé de 6 smart contracts pré-déployés sur la blockchain, chargés de la gestion des identités et de l’exécution de MLTE. Chaque entité possède deux smart contracts dédiés à la gestion de son identité et de ses clés cryptographiques d’une part, ainsi qu’à l’accès aux valeurs de confiance et de réputation et à l’enregistrement de feedback des nœuds demandeurs de service d’autre part. Afin de pouvoir retracer l’exécution de l’algorithme, les différentes fonction liées aux smart contracts d’authentification et de confiance émettent des transactions enregistrées sur la blockchain caractérisant l’événement reçu ou la mise à jour effectuée. Ces informations ne sont pas utilisées par les algorithmes le calcul, mais peuvent être utilisées par tout nœud désireux de contrôler le bon fonctionnement du système.

202

Gestion du niveau de service

6.3. Évaluation de BATM Dans la section suivante, nous présentons une évaluation de l’architecture BATM et des performances offertes par l’algorithme MLTE au travers de simulations sur un réseau de capteurs répondant aux contraintes de l’IdO. Nous avons choisi d’évaluer MLTE par simulation à l’aide du framework python SageMath (Sage 2018). Le but de cette évaluation est de caractériser les performances de l’algorithme sur un modèle simplifié de réseau afin de valider ses performances, puis d’évaluer sa résistance à la défaillance d’un nœud. Nous présentons tout d’abord notre plan de simulation ; puis nous exposons les résultats obtenus et interprétons ces derniers. 6.3.1. Plan de simulation Nous avons choisi 9 services, considérés indépendants et répartis aléatoirement sur un réseau composé de 30 nœuds dont la position est fixe et générée aléatoirement sur une zone géographique tridimensionelle de taille 30 × 30 × 30 mètres. Pour des raisons de simplicité, nous considérons que tous les nœuds peuvent communiquer directement entre eux et n’intégrons pas les aspects de routage dans notre simulation. Cependant l’intégration de telles contraintes est parfaitement possible et n’a pas d’influence significative sur le calcul des estimateurs proposés. Chaque nœud est fournisseur d’un ensemble de services et possède une probabilité de réussite utilisée pour le tirage des événements qu’il fournit. Des requêtes sont générées à chaque période d’actualisation sur le réseau, avec chacun des nœuds demandeurs d’un service. On à donc 30 demandes de service par période t. Ce choix représente une activité supérieure à ce qui est généralement constaté, mais il est pertinent dans l’objectif de réaliser une première évaluation de notre modèle, car on dispose d’un plus grand nombre d’événements. Au cours de chaque période t, la sélection de services par niveau de confiance détermine le fournisseur pour chaque demandeur. On considère pour cette évaluation que t est une unité atomique de temps. Les événements correspondant sont générés, et MLTE est exécuté sur le réseau pour mettre à jour les valeurs de réputation et de confiance. Nous avons simulé MLTE sur 1 000 périodes d’actualisation t de l’algorithme. Pour simplifier la compréhension de l’étude, les valeurs de M L(ni → nj , t1 , T ) et i(ni → nj , t1 , T ) présentées dans le tableau 6.2 sont des moyennes effectuées sur l’ensemble des nœuds demandeurs pour le nœud observé. La vérité de terrain est la probabilité de réussite du nœud considéré. Les paramètres globaux ont étés fixés (voir tableau 6.2) de manière à favoriser les échanges avec de multiples fournisseurs, d’où le choix de favoriser β par rapport à α. La taille de la fenêtre a été choisie pour obtenir le meilleur compromis possible entre stabilité et réactivité du système. Les valeurs

L’authentification dans les réseaux décentralisés

203

de τ et η n’étant pas cruciales pour l’évaluation générale de l’algorithme, elles sont choisies pour minimiser leur impact sur l’observation des résultats. Paramètre Valeur τ 0,5 η 0,1 α 0,4 β 0,6 S 300 Tableau 6.2. Paramètres de simulation de BATM

6.3.2. Résultats et interprétation Nous observons tout d’abord le comportement du système dans un réseau de capteurs simulé, et évaluons la performance de MLTE. Dans un second temps, nous caractérisons le comportement du système dans un scénario de défaillance d’un nœud. 6.3.2.1. Évaluation de MLTE dans des conditions idéales Nous évaluons le comportement du système opérant sous MLTE dans un scénario idéal, sans défaillance de nœuds. La figure 6.6 présente les estimations de MLTE pour un nœud j. Elle représente la moyenne des estimations M L(ni → nj ) (courbe orange), la moyenne des indices de fiabilité I(ni → nj , t1 , t2 ) (courbe jaune) et la réputation R(nj , t1 , t2 ) du nœud j (courbe verte) pour le déroulement de MLTE pendant la durée d’une fenêtre de calcul. La vérité de terrain (courbe bleue) est la probabilité de réussite du nœud. On observe les trois phases successives de la fenêtre. Durant les 100 premiers échantillonages, les estimations oscillent et sont imprécises. La deuxième phase montre l’affinage des valeurs entre t = 100 et t = 200, avec moins de 3 % d’erreur entre M L(ni → nj ) et la vérité de terrain à t = 150. Durant la phase d’utilisation, les valeurs sont stables et l’estimation M L(ni → nj ) reste à moins de 3 % d’erreur. Cela conforte notre choix de taille de fenêtre de traitement pour notre évaluation. On remarque également que l’évolution de l’indice de fiabilité moyen du nœud ainsi que sa réputation sont corrélées à l’absence d’événement sur une période t, ainsi qu’aux échecs générés par le nœud, ce qui conforte l’intérêt de notre système. Ces premiers tests montrent une erreur moyenne d’estimation du niveau de défaillance de 10,3 % avec une médiane à 5 %. Le niveau d’erreur moyen pour un nœud varie entre 0,3 % et 30 %. À noter que cette dernière valeur correspond à un nœud ayant une faible activité. Ayant 30 événements pour 30 nœuds à chaque période t, un nœud moyen doit comptabiliser environ 1 000 événements en moyenne sur 1 000 périodes d’échantillonnage. Or, ce dernier nœud n’a comptabilisé que 630 fois pour

204

Gestion du niveau de service

l’ensemble des pairs, ce qui explique le plus grand niveau d’erreur et l’écart entre la moyenne et la médiane des niveaux d’erreurs. L’indice de fiabilité moyen et de la valeur de réputation montrent quant à eux la stabilité de BATM au cours du temps.

Figure 6.6. Fenêtre de calcul complète

Nous avons également évalué la performance de la sélection des fournisseurs de service basée sur la confiance (évaluation non présentée ici). Pour cela, nous comparons le choix effectué par MLTE avec le nœud optimal déterminé par comparaison de la probabilité de réussite des nœuds. Nous observons que MLTE sélectionne le nœud optimal dans 76 % des cas, ce qui montre la fiabilité, et également la réactivité de notre solution pour la sélection du meilleur fournisseur possible. En effet, à chaque défaut d’un nœud, celui-ci voit sa probabilité d’être sélectionné diminuer, quand bien même il aurait une très forte probabilité de réussite. À l’inverse, un nœud habituellement peu fiable dont les derniers événements sont des succès voit sa probabilité de sélection augmenter. Ces deux facteurs expliquent le choix différent du nœud optimal dans 24 % des cas. 6.3.2.2. Comportement de MLTE en cas de défaillance de nœuds Dans un second temps, MLTE a été confronté à un scénario de défaillance d’un nœud. La probabilité de réussite d’un nœud à été fixée à 0,9 au démarrage du système. À la moitié du temps de simulation, celle-ci a été modifiée à 0,2 afin de simuler la défaillance du nœud, et ainsi observer la réaction de BATM vue de ce nœud, présentée

L’authentification dans les réseaux décentralisés

205

figure 6.7. Sur cette figure, nous observons les mêmes indicateurs que sur la figure précédente, plus la moyenne des M L(ni → nj ) par une méthode non fenêtrée (courbe bleu clair). Cette figure montre l’évolution des indicateurs M L(ni → nj , t1 , t2 ), I(ni → nj , t1 , t2 ) et R(nj , t1 , t2 ) pour le nœud j défaillant. La défaillance du nœud j est programmée à t = 500.

Figure 6.7. Simulation de défaillance d’un nœud

Nous observons premièrement l’intérêt du fenêtrage sur une méthode globale. Dans cette dernière, l’inertie induite par les événements survenus au début de la simulation stabilise l’estimation et empêche la réaction du système. Le système fenêtré en revanche permet de réagir rapidement. La chute du niveau de probabilité de 77 % entraîne une chute de la moyenne des M L de 24 % et 38 % sur les deux premières rotations de fenêtre, puis un alignement sur la nouvelle probabilité de réussite. La réputation chute elle de 19 % et 34 % sur les deux premières rotations de fenêtre. On observe ensuite un plus grande erreur dans l’estimation de la probabilité de réussite et un comportement périodique de la valeur de réputation du nœud autour de la valeur de τ . Ce comportement est dû à un faible nombre de nouveaux événements à partir de t = 600 environ. Le nœud ayant une faible réputation, il sera très peu sélectionné par ses pairs pour fournir un service. Cependant, la convergence vers la valeur de réputation de base fournit au nœud de nouvelles occasions de rétablir des valeurs de réputation et de confiance plus élevées. Ces résultats confirment la réactivité de BATM et MLTE aux changements brusques sur le réseau.

206

Gestion du niveau de service

6.4. Conclusion Ce chapitre présente le contexte et les travaux existants sur l’authentification et la gestion de confiance dans les réseaux sans-fil décentralisés. Nous avons proposé l’architecture BATM comme solution innovante aux problématiques soulevées. Les résultats du modèle de réputation et de confiance attestent l’intérêt de notre solution et de la blockchain pour l’enregistrement d’événements liés au réseau et au comportement des nœuds dans l’IdO. À notre connaissance, BATM est la seule solution à adresser à la fois les problématiques liées à l’authentification et à la gestion de confiance et utilisant la blockchain comme support de l’information. Les performances de BATM nous permettent de passer à l’étape suivante en réalisant une preuve de concept sur une des principales technologies blockchain supportant les smart contracts, par exemple Tezos, EOS ou Ethereum. Cette implémentation sera évaluée sur le réseau de caméras Wisenet utilisé au sein du laboratoire LE2I de l’université de Bourgogne. Un de nos prochains objectifs et de pouvoir authentifier les nœuds via BATM dès l’accès au réseau. En utilisant les mécanismes d’authentification de groupe, il est possible de créer un groupe correspondant au réseau local servant cet objectif. L’ajout d’un service d’authentification pour IEEE 802.1X sur ce principe permettrait son usage avec les normes IEEE 802.3 (Ethernet) et IEEE 802.11 (WiFi). Pour les réseaux sans-fil maillés 802.11s, nous étudions une possibilité basée sur les mécanismes prévus pour l’authentification par SAE (Simultaneous Authentication of Equals). L’accès au réseau nécessite alors qu’un nœud demandant une connexion dispose d’une identité BATM au préalable, ce qui pourrait être réalisé par une méthode d’enregistrement hors-bande, par exemple via RFID. Des mécanismes de sécurité supplémentaires devront être fournis pour mitiger les possibilités d’usurpation d’identité et de création de réseau captif par un attaquant. De même, l’algorithme MLTE devra être évalué dans des conditions différentes. Par exemple, une faible charge réseau, et donc un faible nombre d’événements, peuvent amener à la modification de certains paramètres. Son comportement en cas d’ajout ou de suppression de nœud, ainsi que sa réponse aux attaques devront également être évalués.

6.5. Bibliographie Akyildiz, I.F., Su, W., Sankarasubramaniam, Y., Cayirci, E. (2002). A survey on sensor networks. IEEE Communications Magazine, 40(8), 102–105. Atzori, L., Iera, A., Morabito, G. (2010). The Internet of Things: A survey. Computer Networks, 54(15), 2787–2805.

L’authentification dans les réseaux décentralisés

207

Callas, J., Donnerhacke, L., Finney, H., Shaw, D., Thayer, R. (2007). OpenPGP Message Format (RFC 4880) [En ligne]. Disponible à l’adresse : http://tools.ietf.org/ html/rfc4880. Chelouah, L., Semchedine, F., Bouallouche-Medjkoune, L. (2017). Localization protocols for mobile wireless sensor networks: A survey. Computers & Electrical Engineering, 59. Chen, R., Bao, F., Guo, J. (2016a). Trust-based service management for social internet of things systems. IEEE transactions on dependable and secure computing, 13(6), 684–696. Chen, R., Guo, J., Bao, F. (2016b). Trust management for SOA-based IoT and its application to service composition. IEEE Transactions on Services Computing, 9(3), 482–495. Chowdhury, T.J., Elkin, C., Devabhaktuni, V., Rawat, D.B., Oluoch, J. (2016). Advances on localization techniques for wireless sensor networks: A survey. Computer Networks, 110, 284–305. Deak, G., Curran, K., Condell, J. (2012). A survey of active and passive indoor localisation systems. Computer Communications, 35(16), 1939–1954. Dubois, J., Moinet, A., Bobbia, S., Marroquin, R., Heyrman, B., Bonazza, P., Darties, B., Nicolle, C., Benezeth, Y., Mitéran, J., Ginhac, D. (2016). WiseEye: A Platform to Manage and Experiment on Smart Camera Networks. Dans 5th Workshop on Architecture of Smart Cameras. WASC, Dijon. EOS.IO (2018). EOS.IO technical white paper v2 [En ligne]. Disponible à l’adresse : https://eoscollective.org/papers. Fang, W., Zhang, C., Shi, Z., Zhao, Q., Shan, L. (2016). BTRES : Beta-based Trust and Reputation Evaluation System for wireless sensor networks. Journal of Network and Computer Applications, 59, 88–94. Gambetta, D. et al. (2000). Can we trust trust. Trust: Making and breaking cooperative relations, 13, 213–237. Gartner (2017). Gartner Says 8.4 Billion Connected “Things” Will Be in Use in 2017, Up 31 Percent From 2016 [En ligne]. Disponible à l’adresse : https://www.gartner. com/newsroom/id/3598917. Giruka, V.C., Chakrabarti, S., Singhal, M. (2006). A distributed multi-party key agreement protocol for dynamic collaborative groups using ECC. Journal of Parallel and Distributed Computing, 66(7), 959–970. Goodman, L. (2014). Tezos, a self-amending crypto-ledger white paper [En ligne]. Disponible à l’adresse : https://tezos.com/static/papers/white_paper-2dc8c02267 a8fb86bd67a108199441bf.pdf. Granjal, J., Monteiro, E., Silva, J.S. (2015). Security for the internet of things: a survey of existing protocols and open research issues. IEEE Communications Surveys & Tutorials, 17(3), 1294–1312.

208

Gestion du niveau de service

Gubbi, J., Buyya, R., Marusic, S., Palaniswami, M. (2013). Internet of things (IoT): A vision, architectural elements, and future directions. Future generation computer systems, 29(7), 1645–1660. Guo, J., Chen, R. (2015). A classification of trust computation models for service oriented internet of things systems. Dans 2015 IEEE International Conference on Services Computing (SCC). IEEE, New York, 324–331. Gura, N., Patel, A., Wander, A., Eberle, H., Shantz, S.C. (2004). Comparing elliptic curve cryptography and RSA on 8-bit CPUs. Dans International workshop on cryptographic hardware and embedded systems. Springer, Berlin, 119–132. HP (2014). Communiqué de presse d’HP du 29 juillet 2014 [En ligne]. Disponible à l’adresse : http://www8.hp.com/us/en/hp-news/press-release.html ?id=1744676. Jøsang, A. (2001). A logic for uncertain probabilities. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 9(3), 279–311. Jøsang, A., Ismail, R. (2002). The beta reputation system. Dans Proceedings of the 15th bled electronic commerce conference. Bled eConference, Bled, 2502–2511. Karl, H., Willig, A. (2005). Protocols and Architectures for Wireless Sensor Networks. John Wiley & Sons, Hoboken. Mao, G., Fidan, B., Anderson, B.D. (2007). Wireless sensor network localization techniques. Computer networks, 51(10), 2529–2553. Marroquin, R., Dubois, J., Nicolle, C. (2016). WiseNET: smart camera network combined with ontological reasoning for smart building management. Dans 5th Workshop on Architecture of Smart Cameras. WASC, Dijon. Moinet, A., Darties, B., Baril, J.L. (2017). Blockchain based trust & authentication for decentralized sensor networks [En ligne]. Disponible à l’adresse : http://arxiv.org/pdf/1706.01730.pdf. Moinet, A., Darties, B., Baril, J. (2018). BATMAN : plate-forme blockchain pour l’authentification et la confiance dans les WSNs [En ligne]. Disponible à l’adresse http://arxiv.org/pdf/1804.00610.pdf. Nakamoto, S. (2008). Bitcoin: A peer-to-peer electronic cash system [En ligne]. Disponible à l’adresse : https://bitcoin.org/bitcoin.pdf. Nitti, M., Girau, R., Atzori, L., Iera, A., Morabito, G. (2012). A subjective model for trustworthiness evaluation in the social internet of things. Dans 2012 IEEE 23rd International Symposium on Personal Indoor and Mobile Radio Communications (PIMRC). IEEE, Sydney, 18–23. Sage (2018). SageMath, the Sage Mathematics Software System (Version 8.2) [En ligne]. Disponible à l’adresse : http://www.sagemath.org. Schwartz, D., Youngs, N., Britto, A. et al. (2014). The Ripple protocol consensus algorithm. Livre blanc, Ripple Labs Inc., 5.

L’authentification dans les réseaux décentralisés

209

Security Intelligence (2015). Linux Wifatch : The Router Virus That May Be Secretly Defending You From Other Malware [En ligne]. Disponible à l’adresse : https://securityintellingence.com/news/linux-wifatch-the-router-virus-that-may-besecretly-defending-you-from-other-malware/. Shafer, G. (1976). A mathematical theory of evidence. Princeton University Press, Princeton. Shah, S.H., Yaqoob, I. (2016). A survey: Internet of Things (IOT) technologies, applications and challenges. Dans 2016 IEEE Smart Energy Grid Engineering (SEGE). IEEE, Oshawa, 381–385. Sicari, S., Rizzardi, A., Grieco, L.A., Coen-Porisini, A. (2015). Security, privacy and trust in Internet of Things: The road ahead. Computer networks, 76, 146–164. Stankovic, J.A. (2014). Research directions for the internet of things. IEEE Internet of Things Journal, 1(c), 3–9. de Vries, A. (2018). Bitcoin’s Growing Energy Problem. Joule, 2(5), 801–805. Wander, A.S., Gura, N., Eberle, H., Gupta, V., Shantz, S.C. (2005). Energy analysis of public-key cryptography for wireless sensor networks. Dans Third IEEE International Conference on Pervasive Computing and Communications. IEEE, Kauai, 324–328. Zamfir, V. (2017). Casper the Friendly Ghost, a correct-by-construction blockchain consensus protocol. Youtube. Zhang, J., Varadharajan, V. (2010). Wireless sensor network key management survey and taxonomy. Journal of Network and Computer Applications, 33(2), 63–75. Zhang, Z.K., Cheng Yi Cho, M., Wang, C.W., Hsu, C.W., Chen, C.K., Shieh, S. (2014). IoT security: Ongoing challenges and research opportunities. Dans Proceedings - IEEE 7th International Conference on Service-Oriented Computing and Applications. IEEE, Matsure, 230–234.

7

L’apport de l’apprentissage automatique pour résoudre les contraintes liées à la mobilité dans le cadre des communications D2D Chérifa BOUCETTA1, Hassine MOUNGLA1 et Hossam AFIFI2 1

Université Paris Descartes, Paris, France Télécom SudParis, Institut Mines-Télécom, Évry, France

2

7.1. Introduction Les communications appareil-à-appareil ou Device-to-Device (D2D), telles qu’ introduites par le 3rd Generation Partnership Project (3GPP) dans la version 12, sont basées sur la proximité géographique. Les équipements d’un utilisateur (UE) sont capables de détecter et de communiquer avec d’autres UE situés dans leurs voisinages (Huo et al. 2017). Les communications D2D offrent plusieurs avantages, tels que l’optimisation de l’utilisation du spectre et l’amélioration du débit global et de la latence. Elles sont appliquées dans différents environnements pour une utilisation à la fois commerciale et publique. La norme 3GPP a défini plusieurs cas d’utilisation dans le domaine de la sécurité publique. En effet, il est nécessaire de maintenir les communications dans des environnements caractérisés par une absence ou une faible couverture, tels que dans les trains

Gestion du niveau de service dans les environnements émergents, coordonné par Nader MBAREK. © ISTE Editions 2020.

212

Gestion du niveau de service

souterrains, en cas de catastrophes naturelles à grande échelle ou bien en cas de coupures de courant. Ainsi, une capacité supplémentaire doit être fournie en cas de besoin et en particulier dans les grandes régions métropolitaines (Deng et al. 2015). La découverte directe D2D est l’un des services définis conjointement avec la communication D2D et la synchronisation D2D. Ce service permet aux UE d’identifier les utilisateurs et les applications qui se trouvent à proximité. Deux modèles de découverte ont été définis : – le modèle A est basé sur les « annonces » où les UE diffusent des informations ; – le modèle B est basé sur le principe requête/réponse et est utilisé lorsque l’UE a besoin d’une information spécifique. La station de base des réseaux mobiles basés sur les technologies Long Term Evolution (LTE), connue sous le nom eNB (evolved Node B), peut faire partie de la découverte directe D2D, que ce soit par la diffusion de la liste des ressources disponibles ou bien par la gestion de l’allocation des ressources (Luo et Li 2012). Ainsi, deux types d’allocation de ressources sont définis : le type A et le type B. Dans le type B, appelé planifié ou « Scheduled », les utilisateurs D2D sont connectés à l’eNB qui gère l’allocation des ressources. Tandis que dans le type A, appelé « UEselected », les paramètres sont préconfigurés dans les UE. Ces derniers sont autonomes et sélectionnent indépendamment les ressources pour échanger les différents messages afin de réaliser une découverte D2D dans des intervalles de temps discrets et ce, durant une durée fixe (appelée aussi période de découverte). Un troisième type d’allocation des ressources basé sur les deux types introduits précédemment peut être identifié : les UE récupèrent le pool des ressources disponibles de l’eNB et chacun d’entre eux sélectionne les ressources nécessaires en fonction de ses besoins et indépendamment de ses voisins (Deng et al. 2015). Dans la découverte D2D, et comme tout autre service de communication, la variation du nombre d’utilisateurs affecte les performances du réseau. En effet, les utilisateurs mobiles consomment les ressources d’une manière très différente selon leurs emplacements, le type d’application et les services réseaux offerts. Ceci entraîne des variations importantes des profils d’utilisation du réseau et des profils de densité des utilisateurs en fonction de chaque emplacement. Afin de prédire la densité des utilisateurs en temps réel et par la suite améliorer les performances du processus de découverte pour les environnements dynamiques, nous

Les communications D2D

213

vectorielle de support SVR (Basak et al. 2007). Dans la littérature, les problématiques de recherche des réseaux mobiles et d’apprentissage profond ont été étudiées de manière essentiellement indépendante. Ce n’est que récemment que des croisements entre les deux thématiques de recherche ont émergé. Généralement, la SVR est une approche d’apprentissage automatique (machine learning) utilisée dans le traitement de données volumineux des jeux parce qu’elle n’utilise que peu d’échantillons (appelés vecteurs de support) de l’ensemble de données d’apprentissage, ce qui réduit sensiblement le temps de traitement. En outre, la SVR ne se base que sur des exigences de calcul minimales, contrairement aux autres outils de régression, tels que les réseaux neuronaux artificiels (RNA), qui nécessitent plus de temps de traitement, une configuration plus complexe et un manque de généralité. Le modèle de prédiction proposé est basé sur des traces réelles fournies par « Orange Sénégal ». Dans une étude antérieure, nous avons défini trois classes de profil de densité d’UE des stations de base en fonction du modèle de fluctuation durant la journée. Chaque profil représente une utilisation spécifique des ressources. Ensuite, nous avons implémenté un générateur de trafic réaliste en nous basant sur les modèles de densité déjà définis. Enfin, ce générateur est utilisé afin de prévoir l’évolution de la densité de l’UE dans chaque zone et par la suite adapter la probabilité de transmission dans le processus de découverte des voisins. Dans ce chapitre, nous présentons dans la section 7.2 la communication D2D et les travaux sur les futurs réseaux mobiles. Ensuite, nous introduisons dans la section 7.3 les techniques d’apprentissage automatique et ses applications. Nous détaillons dans la section 7.4 l’approche proposée et nous enchaînons (section 7.5) avec les résultats expérimentaux. Une conclusion (section 7.6) clôture ce chapitre et illustre les travaux futurs. 7.2. La communication D2D et l’évolution des réseaux Deux phases sont distinguées dans le cadre d’une communication D2D : une phase de découverte, durant laquelle le périphérique D2D détecte les périphériques compatibles dans son voisinage. Alors que, dans la deuxième phase d’échange de données, les équipements configurent les liaisons D2D pour envoyer les données. Dans la littérature (Doppler et al. 2009 ; Fodor et al. 2012 ; Lei et al. 2012) et comme le montre la figure 7.1, deux modes D2D ont été proposés : le mode distribué où les UE communiquent directement entre eux et sont organisés de manière complètement distribuée, ainsi, le réseau est auto-organisé sans contrôle de l’infrastructure.

214

Gestion du niveau de service

Dans le deuxième mode, nommé le mode assisté, une infrastructure réseau est nécessaire pour la configuration de la communication D2D. Dans les sections 7.2.1 et 7.2.2, nous détaillons les deux phases de découverte et de communication de données qui peuvent être gérées selon l’un des deux modes : soit en utilisant une approche distribuée, soit une approche assistée par le réseau.

Figure 7.1. Communication appareil à appareil entre UE1 et UE2 en tant que sous-couche à un réseau cellulaire

7.2.1. La phase de découverte dans les communications D2D La phase de découverte peut être centralisée (basée sur l’infrastructure réseau) ou distribuée, appelée aussi directe. 7.2.1.1. L’approche directe Selon 3GPP ProSe (3GPP 2014), deux modèles de découverte directe ont été identifiés : le premier modèle (A), « Je suis là (I’m here) », se base sur une diffusion

Les communications D2D

215

inconditionnelle d’un message Hello. Tandis que le second modèle (B) s’appuie sur la méthode requête/réponse. En effet, un périphérique UE peut effectuer une découverte directe de son environnement en fonction de l’application et du rôle de la découverte : par exemple, dans la découverte en mode active, le périphérique annonce sa présence et le service qu’il propose alors que dans la découverte d’une application de surveillance, l’UE reste en mode passif et surveille uniquement les informations spécifiques dans les domaines d’intérêt annoncés autour de lui. L’approche de découverte directe présente plusieurs avantages tels que la flexibilité et l’évolutivité, parce qu’elle se base sur les positions des équipements et la radio locale. 7.2.1.2. L’approche centralisée Cette approche implique au moins une ou plusieurs entités réseau dans la procédure de découverte. Puisque le réseau d’opérateurs possède une vision plus large du trafic global et du contexte de mobilité UE, les approches de découverte centralisée visent à exploiter les ressources des réseaux d’opérateurs mobiles sur la micro et la macro mobilité afin de fournir des informations de détection plus précises. Il est à noter que cette approche de découverte n’est pas conforme à la définition de base de D2D en tant que communication sans infrastructure entre deux périphériques, mais elle est toujours considérée comme un modèle de découverte alternatif pour les services de proximité par la norme 3GPP. 7.2.2. La phase d’échange de données dans les communications D2D Après la phase de découverte du voisinage, les UE établissent des liens de communication pour l’échange de données. Ces liens diffèrent des liens des réseaux cellulaires classiques et peuvent être utilisés pour le déchargement. Comme le montre la figure 7.1, la transmission des données peut être effectuée soit directement entre les périphériques D2D (schéma de transmission direct), soit via un chemin optimisé contrôlé par l’opérateur en passant par l’eNB (système de transmission contrôlé). Sur la base de ces deux schémas, la communication entre les périphériques peut s’effectuer au mieux (pas de prise en charge de la QoS et liaisons sans connexion) ou avec la QoS (établissement de supports de données LTE dédiés) parce que l’opérateur fournit un traitement basé sur les services D2D, les flux de trafic de données, le nombre d’abonnés, etc. Dans une communication LTE classique (3GPP 2012 ; Jeong et al. 2013), les flux de données entre deux appareils sont mis en place via l’établissement de supports de données. Un support de données est composé d’un support radio entre le périphérique

216

Gestion du niveau de service

et l’eNB, un support EPC (Evolved Packet Core) entre l’eNB et le réseau Core et des filtres de paquets sur les périphériques. L’établissement d’un support de données consiste à configurer une connexion PDN (Packet Data Network) en spécifiant la passerelle PDN et à attribuer une adresse IP aux périphériques communicants. Dans le cas d’une communication D2D, il n’est pas nécessaire d’établir un support de données entre les périphériques lorsque le schéma de communication est un déchargement D2D direct. Ainsi, les données sont échangées directement sur la liaison radio entre les appareils et seul l’adressage physique est utilisé pour identifier la source et la destination. Alors que, dans le cas d’un système de déchargement contrôlé, un support D2D dédié avec des ressources radio spécifiques allouées par l’eNB doit être configuré. Dans ce dernier cas, le support dédié créé est composé uniquement d’un support radio, sans support EPC où les flux de données ne transitent qu’entre l’eNB et les périphériques qui utilisent la même adresse IP que celle attribuée pour leurs supports LTE créés lors de la première connexion au réseau. 7.2.3. Enquêtes sur les futurs réseaux mobiles Les nouvelles générations de réseaux mobiles émergents tel que la 5G et plus intègrent une foule de nouvelles techniques afin de pallier aux différentes limitations de performances des déploiements actuels, et ainsi répondre aux nouvelles exigences des techniques de communication. Les progrès réalisés à ce jour dans ce domaine ont été résumés dans plusieurs travaux d’état de l’art, tutoriaux et des articles de magazines, par exemple (Andrews et al. 2014 ; Gupta et Kumar Jha 2015 ; Agiwal et al. 2016 ; Panwar et al. 2016 ; Mao et al. 2017). Andrews et al. soulignent les différences entre la 5G et les architectures de réseaux mobiles antérieures, effectuent un examen complet des techniques de la 5G et discutent des problèmes de recherche auxquels font face les développements futurs (Andrews et al. 2014). Agiwal et al. passent en revue les nouvelles architectures des réseaux 5G, étudient les technologies sans fil émergentes et signalent les problèmes de recherche restant non résolus (Agiwal et al. 2016). Gupta et Kumar Jha examinent également les travaux existant sur les architectures de réseau cellulaire 5G, proposant ensuite un cadre qui intègre des ingrédients de mise en réseau tels que la communication D2D (Device-to-Device), les petites cellules, le Cloud informatique et l’Internet des objets (IdO) (Gupta et Kumar Jha 2015). Le réseautage mobile intelligent devient un domaine de recherche populaire et les travaux connexes ont été examinés dans la littérature, par exemple (Bkassiny et al. 2013 ; Abu Alsheikh et al. 2014 ; Buda et al. 2016 ; Keshavamurthy et Ashraf 2016 ;

Les communications D2D

217

Bui et al. 2017, Jiang et al. 2017). Les techniques d’apprentissage automatique pourraient apporter davantage de solutions. 7.3. Contexte de l’apprentissage automatique et profond L’apprentissage automatique (Machine Learning) apporte une valeur ajoutée dans de nombreux domaines d’application, à savoir : l’efficacité des systèmes/réseaux tels que l’énergie, la sécurité informatique (détection des spams, analyse des menaces, etc.) (Aono et al. 2018), la reconnaissance d’images (numériques, satellitaires, écritures manuscrites), la gestion de l’environnement, l’Internet des objets (Li et al. 2018), les voitures autonomes (Liu et al. 2017a), la reconnaissance de la voix, etc. (Chen et al. 2014 ; Huo et al. 2017 ; Wu et al. 2017). De ce fait, les techniques d’apprentissage automatique sont basées essentiellement sur les outils de l’intelligence artificielle (réseaux de neurones, arbres de décision, règles d’association), en vue d’aboutir à une analyse prédictive à partir d’une masse de données hétérogènes. De surcroît, ces techniques permettent de réaliser des corrélations entre les différents événements afin de générer des décisions. En d’autres termes, il s’agit de définir un modèle de données et d’effectuer des prédictions à partir de données en se basant sur des statistiques récoltées. Récemment, une catégorie de méthodes d’apprentissage automatique qui est basée sur les réseaux de neurones artificiels profonds s’est avérée être spécifiquement adaptée aux vastes quantités de données d’apprentissage et peut se révéler éminemment meilleure que les méthodes alternatives. Cette catégorie répond au nom « d’apprentissage profond » (« deep learning »). Ce dernier a réalisé différents exploits sur plusieurs domaines de l’intelligence artificielle (Hinton 2012 ; Xiaohui 2017). Le Deep Learning se base sur un réseau neuronal profond composé de dizaines, voire de centaines de couches de neurones, chacune recevant et interprétant les informations de la couche précédente et des séries de calculs propositionnels complexes. Les algorithmes d’apprentissage profond fonctionnent avec un apprentissage à plusieurs niveaux de détail. Ainsi, nous passons de paramètres de bas niveau à des paramètres de plus haut niveau à travers les différentes couches et les différents niveaux correspondant à différents niveaux d’abstraction des données. Une extension du réseau de neurones est la mémoire à long terme (LSTM). Elle a pour but de prédire l’état futur en fonction des états précédents. L’avantage de ce modèle est la différence entre le nombre d’entrées et de sorties. Il existe différents modèles d’apprentissage profonds dans la littérature, notamment « Deep Belief Network » (DBN) (Hinton et al. 2006 ; Le Roux et Bengio 2010),

218

Gestion du niveau de service

« Stacked AutoEncoder » (SAE) (Vincent et al. 2010) et « Convolutional Neural Networks » (CNN) (Lecun et al. 1998). Récemment, les CNN se sont avérés être une bonne alternative par rapport à d’autres modèles d’apprentissage profond orientés prédiction (Dieleman et al. 2015 ; Hosseini et al. 2017 ; Wang et al. 2017), orientés classification et orientés détection (Cao et al. 2018). L’apprentissage automatique utilise le réseau neuronal profond pour extraire des caractéristiques pertinentes à partir d’une masse de données comme le montre la figure 7.2. En effet, le réseau neuronal profond se situe à la dernière étape de l’apprentissage automatique, et la règle d’apprentissage présente l’algorithme qui génère le modèle à partir des données d’apprentissage. Ces algorithmes nécessitent des quantités croissantes de données pour augmenter l’efficacité des processus d’apprentissage. En d’autres termes, plus le volume de données est important (sources multimodales), plus ce processus devient efficace. Ainsi, ce processus est considéré comme robuste et performant au vu de sa précision très élevée dans l’optimisation et la prévision de décisions.

Données d’apprentissage

Règles d’apprentissage

Données d’entrée

Le réseau neuronal profond

Données de sortie

Figure 7.2. Processus d’apprentissage automatique

7.3.1. Aperçus de l’apprentissage profond et de ses applications L’ère des Big Data suscite un vif intérêt pour l’apprentissage profond dans différentes disciplines de la recherche (Chen et Lin 2014 ; Najafabadi et al. 2015 ; Gheisari et al. 2017 ; Hordri et al. 2017) ; ainsi, un nombre croissant d’état de l’art et de travaux de recherche font leur apparition, par exemple (Deng 2014).

Les communications D2D

219

Lecun et al. donnent un aperçu sur l’apprentissage profond, présentent plusieurs modèles populaires et examinent le potentiel des réseaux de neurones profonds (Lecun et al. 1998). Schmidhuber quant à lui entreprend une étude encyclopédique sur l’apprentissage profond, probablement la plus complète à ce jour, couvrant l’évolution, les méthodes, les applications et les problèmes de recherche ouverts (Schmidhuber 2015). Liu et al. résument les principes sous-jacents de plusieurs modèles d’apprentissage profonds et examinent les évolutions de l’apprentissage profond dans des applications, telles que le traitement de la parole, la reconnaissance de formes, et la vision par ordinateur (Liu et al. 2017). Zhang et al. étudient les développements de l’apprentissage profond pour les systèmes de recommandation (Zhang et al. 2017), qui pourrait jouer un rôle important dans de la publicité mobile. Comme l’apprentissage profond devient de plus en plus populaire, Goodfellow et al. fournissent un tutoriel complet sur l’apprentissage profond dans un livre qui couvre les connaissances préalables, les principes sous-jacents et les applications populaires (Goodfellow et al. 2016). Un autre domaine d’application de l’apprentissage profond est la communication dans les réseaux dans lequel se positionne notre approche proposée. Cette dernière exploite l’apprentissage automatique dans la découverte D2D. Ainsi, nous présentons dans ce qui suit les différentes techniques et applications de l’apprentissage automatique qui permettent de présenter l’approche consistant à adapter dynamiquement la probabilité de la transmission dans la communication D2D. 7.3.2. Types d’apprentissage automatique L’objectif principal de l’apprentissage automatique est de trouver un modèle à partir des données collectées. Il consiste à extrapoler une loi à partir d’un ensemble des faits expérimentaux avec une mesure de qualité. Pour cela, l’ensemble des données est divisé en deux catégories : – ensemble d’apprentissage : utilisé pour apprendre le modèle ; – ensemble de test : utilisé pour apprendre la qualité. Parmi les problèmes typiques adressés par l’apprentissage automatique : – la régression : prédire une valeur à partir d’autres valeurs ;

220

Gestion du niveau de service

– le clustering : mettre les choses/les gens dans des groupes naturels ; – le filtrage collaboratif : recommander des articles aux utilisateurs en fonction des comportements antérieurs. Les techniques de Machine Learning peuvent être classifiées en trois catégories selon la méthode d’apprentissage : – apprentissage supervisé : l’ensemble d’apprentissage contient la liste des entrées avec des sorties correctes {input, correct output} ; – apprentissage non supervisé : l’ensemble d’apprentissage contient uniquement des entrées sans les sorties correctes {input} ; – apprentissage par renforcement : se base sur un ensemble d’entrées, quelques outputs et la qualité du résultat. {Input, correct output, grade for this output}. L’apprentissage supervisé est très similaire au processus dans lequel un humain apprend des choses. 7.3.3. La régression linéaire et la classification Nous distinguons deux types d’application de l’apprentissage supervisé : la classification et la régression. La classification : elle se base sur la recherche littérale des classes auxquelles appartiennent les données d’apprentissage qui se présentent sous la forme suivante : {input, class}. Parmi les applications basées sur la classification, nous citons : – service de filtrage des spams → classification des e-mails spams ou non spam (régulier) ; – service de reconnaissance des nombres → classification des images de 0 à 9 ; – service de reconnaissance faciale → classification des images faciales. La régression linéaire : l’objectif principal de la régression linéaire est de prédire des valeurs à partir d’autres valeurs. Un exemple d’application est de prédire la taille des gens à partir de leurs données personnelles (compte bancaire, numéro de téléphone, adresse, etc.). Ainsi, plus on a des données d’entrée, plus on a de chance d’obtenir un modèle plus proche de la réalité.

Les communications D2D

221

La différence entre la classification et la régression est que la classification détermine à quel groupe les données d’entrée appartiennent. Ensuite, la sortie correcte de la classification est donnée en catégories. En revanche, la régression se base sur la prédiction et considère les valeurs pour la sortie correcte dans les données d’apprentissage. 7.3.3.1. La classification linéaire avec SVM Le SVM (Support Vector Machine) appartient à la catégorie des classificateurs linéaires (qui utilisent une séparation linéaire des données), et dispose de sa propre méthode pour trouver la frontière entre les catégories. En effet, il utilise des critères géométriques. Supposons que nous disposions d’un ensemble d’échantillons d’apprentissage qui contient des vecteurs dans un espace de d-dimensions : (xi Є ℞ d, i=1,2,…,N), avec l’étiquette d’une classe yi Є {-1,1}. Ainsi, le classificateur SVM (Hearst et al. 1998) est représenté par une fonction f (x, α) → y, avec α étant le paramètre du classificateur. D’une manière générale, l’approche SVM consiste à chercher un hyperplan qui maximise la distance entre les échantillons de l’apprentissage et l’hyperplan de séparation comme suit : – des échantillons étiquetés yi Є {-1,1} sont localisés de chaque côté de l’hyperplan ; – l’hyperplan doit maximiser la marge, c’est-à-dire la distance minimale entre les vecteurs d’entraînement et l’hyperplan. Ces vecteurs sont appelés vecteurs supports. L’hyperplan est défini par 𝑤 ⋅ 𝑥 + 𝑏 = 0 avec w et b qui sont les paramètres de l’hyperplan. Les vecteurs qui ne sont pas dans cet hyperplan sont déterminés par : 𝑤. 𝑥 + 𝑏 ≥ 0 d’où le SVM est défini comme suit : 𝑓(𝑥, 𝛼) = 𝑠𝑔𝑛(𝑤. 𝑥 + 𝑏) Afin de chercher un hyperplan, il faut estimer les paramètres b et w en se basant sur l’équation [7.1] : 𝑦 (𝑤. 𝑥 + 𝑏) > 0, 𝑎𝑣𝑒𝑐 𝑖 = 1,2, …, N

[7.1]

La distance entre l’échantillon d’entraînement le plus proche et l’hyperplan séparateur peut être égale à ‖ ‖, avec une simple remise à l’échelle des paramètres de l’hyperplan et b telle que : min(𝑦 (𝑤. 𝑥 + 𝑏)) ≥ 1, 𝑎𝑣𝑒𝑐 𝑖 = 1,2, …, N

[7.2]

222

Gestion du niveau de service

La marge géométrique entre les deux classes est donnée par la quantité. Par conséquent, la maximisation de la marge conduit à un problème d’optimisation sous la contrainte suivante : minimiser ∶ sujet de ∶

( .



+ )) ≥ 1,



= 1,2, … , N

[7.3]

7.3.3.2. La régression vectorielle de support (SVR) La régression vectorielle de support (SVR) utilise les mêmes principes que SVM pour la classification mais avec quelques différences. Comme son nom l’indique, SVR utilise des valeurs continues au lieu de classification dans SVM. Son principe est de trouver la règle de régression linéaire la plus « plate » possible, sous certaines contraintes. Cependant, l’idée principale est de minimiser l’erreur et individualiser l’hyperplan qui maximise la marge. Ainsi, une marge de tolérance (epsilon) est définie comme une approximation du SVM. 7.4. La découverte dynamique Dans cette section, nous décrivons une nouvelle approche basée sur les outils de l’apprentissage automatique, notamment SVM et SVR qui améliorent les performances du processus de découverte pour les environnements dynamiques. Nous considérons l’approche de découverte directe vu les avantages qu’elle présente par rapport à l’approche centralisée. Cependant, le principal défi pour la découverte D2D est l’augmentation de l’envoi de messages lors des procédures de découverte et de surveillance. En particulier, la découverte d’UE consommerait beaucoup d’énergie pour la transmission périodique permanente de messages de découverte. Ces algorithmes d’apprentissage automatique visent principalement à prédire la densité des utilisateurs dans les cellules afin de réduire le nombre de messages et l’énergie consommée. En effet, la solution donne aux UE la possibilité de modifier leurs probabilités de transmission au besoin afin de réduire le temps requis pour la découverte des autres UE. Ainsi, elle permet d’améliorer et de maintenir les performances réseaux, voire les améliorer durant la phase de découverte dans le cadre de scénarios en dehors des couvertures réseaux. 7.4.1. Prédiction temps réel de la densité des utilisateurs Nous définissons un modèle basé sur SVR pour la prédiction de la densité des utilisateurs au sein des cellules (Hammami 2018). Compte-tenu d’un échantillon de N séries temporelles (l’historique de la densité de l’UE des cellules concernées) noté e( , ) où SVR vise à trouver une fonction linéaire qui associe avec dans un

Les communications D2D

223

espace de fonctionnalité (avec une dimension plus élevée). Dans notre proposition, nous tirons profit de la fonction de base radiale (RBF : Radial Basis Function) comme fonction du noyau car pertinente avec les séries temporelles non linéaires (comme dans notre cas) à cause de sa capacité de généralisation et de sa capacité de cartographie non linéaire dans un espace infini de fonctionnalités. Les réseaux à fonctions de base radiales (RBF) sont des modèles connexionnistes simples à mettre en œuvre et assez intelligibles, et sont très utilisés pour la régression et la discrimination. Leurs propriétés théoriques et pratiques ont été étudiées en détail dans la littérature. Le tableau 7.1 décrit quelques exemples de fonctions du noyau utilisées dans la littérature. Les fonctions du noyau

Équation

Linear

𝐾 𝑥 ,𝑥

= < 𝑥 . 𝑥 > +𝑏

Polynomial

𝐾 𝑥 ,𝑥

= < 𝑥 .𝑥 > + 𝑏

Sigmoid RBF

𝐾 𝑥 ,𝑥 𝐾 𝑥 ,𝑥

= 𝑡𝑎𝑛𝑔(< 𝑥 . 𝑥 >) + 𝑏 = exp(−𝛾 𝑥 − 𝑥 )

Tableau 7.1. Exemples de fonctions du noyau SVR

La prédiction se déroule en deux temps : la première étape étant l’entraînement, dans laquelle nous analysons et utilisons l’historique de la densité des utilisateurs ; la seconde étant le test, dans laquelle les paramètres du modèle sont optimisés. L’efficience de la prédiction SVR est entérinée en utilisant des données de test extraites à l’avenant de l’ensemble de données d’« Orange Dakar ». L’efficacité de la prédiction basée sur la SVR est mesurée par deux indicateurs majeurs : le coefficient de corrélation au carré ainsi que la mesure de l’erreur quadratique moyenne (MSE). Au préalable de ce travail et dans le cadre d’une étude antérieure (Hammami et al. 2016), nous avons inféré et classé à partir d’une grande collection de données fournie par « Orange Sénégal », trois classes de profil de densité d’UE des stations de base qui ont été extraites. Chaque type de profil de station de base appartient à un modèle spécifique de fluctuation de charge et d’utilisation du réseau qui dépend de la nature de son emplacement. La classification de profil de la station de base installée dans la ville de Dakar est également prise en compte. Le profil « charge de nuit » représente les zones résidentielles, celui de « charge de jour » représente la plupart des secteurs d’activité et le profil « charge constante » est lié aux zones mixtes. Une collection de modèles de densité des UE est inférée des données Dakar afin d’être incorporée dans ns-3 dans le but d’implémenter un générateur de trafic réaliste. L’outil est utilisé afin

224

Gestion du niveau de service

de prédire l’évolution de la densité de l’UE dans chaque zone et ensuite utiliser les valeurs prédites pour l’algorithme de découverte directe. 7.4.2. La découverte dynamique : l’algorithme La découverte de voisinage direct dans les communication D2D souffre de flexibilité quant aux environnements ambiants de communication. Cette dernière repose sur des paramètres fixes prédéfinis, notamment la probabilité de transmission. La norme 3GPP stipule que le canal utilisé pour la découverte est mi-duplex et l’ensemble des UE utilisent la même probabilité de transmission préconfigurée et définie dans le pool de ressources de découverte pour le mode sélectionné par l’UE. Néanmoins, l’utilisation de valeurs de probabilité de transmission adaptatives sélectionnées en fonction de la taille du groupe en temps réel pourrait améliorer considérablement la performance de l’ensemble du processus. La probabilité de transmission optimale 1 =

est ainsi calculée (Ben Mosbah 2016) : Si

(

)

(

)

(

< )

(

)

[7.4]

Nous proposons un algorithme qui utilise les modèles de densité d’utilisateur prédits afin de déterminer la valeur de probabilité de transmission fournissant la meilleure performance de découverte. L’algorithme défini est exécuté toutes les heures et tient compte du nombre d’utilisateurs prédits pour cette zone pendant cette période de la journée. À l’aide de la formule [7.4], nous calculons la valeur optimale de la probabilité de transmission dans la découverte en temps réel. À chaque période (par exemple au début de chaque heure), l’algorithme tient en compte la zone géographique pour déterminer le type de trafic. L’algorithme consulte sa base de données réelle enregistrée de trafic similaire, lance le calcul de la moyenne et obtient le nombre d’utilisateurs prédits dans la zone pour cette heure et ce trafic spécifique. À noter que les profils de densité d’utilisateurs utilisés pendant ce processus sont extraits des traces réelles du réseau. Par conséquent, il donne une idée précise sur le nombre réel d’UE présents dans le réseau. Sur la base de cette information, la probabilité de transmission optimale θ est calculée périodiquement chaque heure (où le nombre prévu d’UE pourrait changer) afin d’obtenir les meilleures performances de découverte. Nous avons démontré l’efficacité de cette proposition à travers les performances énergétiques et la réduction des délais de découverte qui ont été considérablement améliorés.

Les communications D2D

225

7.5. Résultats expérimentaux Dans cette section, nous présentons les évaluations de la méthode d’apprentissage proposée utilisant des simulations sous ns-3 (Rouil et al. 2017). Nous utilisons un scénario extrait de l’étude des traces de l’opérateur « Orange Sénégal » (Hammami et al. 2016) que nous avons intégré dans ns-3 en tant que modèles de densité d’équipement utilisateur (UE) réalistes, afin d’étudier l’efficacité de l’approche proposée. 7.5.1. Les hypothèses générales Le tableau 7.2 récapitule la liste des paramètres réseau ainsi que leurs valeurs utilisées pour nos simulations. Des ensembles de modèles de densité UE sont extraits des données de Dakar pour être intégrés à ns-3 afin de mettre en œuvre un outil générateur de trafic réaliste. L’outil est ensuite utilisé pour générer un modèle réaliste dans l’optique de former le modèle SVR et prédire l’évolution de la densité des UE dans chaque zone (Ben Mosbah 2016). Ceci afin d’utiliser les valeurs prédites pour l’algorithme de découverte D2D directe. Paramètres

Valeurs

Puissance d’émission de l’UE

23 dBm

Modèle de propagation utilisé

Cost231 (Damasso 1999)

Bande passante disponible

50 RB

Fréquence porteuse

700 MHz

Période de découverte

0,32 s

Nombre de retransmission

0

Nombre de répétitions

1

Nombre de paires de blocs de ressources

4

Nombre de sous-cadres

5

Nombre total de ressources

20

Nombre total de Nœud B évolué (eNB)

3

Découverte début

2

Total des simulations par scénario

100

Tableau 7.2. Paramètres de simulation et valeurs

226

Gestion du niveau de service

Nous avons considéré deux scénarios à faible et à haute densité de profil « charge de jour ». Ils sont présentés dans les sections 7.5.2 et 7.5.3. 7.5.2. Trafic avec une faible densité d’utilisateurs Nous considérons un scénario de profil de densité d’utilisateurs du matin dans une zone caractérisée par des fluctuations d’utilisation dues à la présence d’établissements d’enseignement supérieur. En conséquence, un profil de trafic du matin est pris en compte. Dans des conditions normales, la zone serait desservie par trois eNB, mais dans ce scénario, elles ont été rendues inutilisables (en raison, par exemple, de pertes de connectivité de backhaul). Les équipements utilisateur sont déployés de manière aléatoire, comme illustré dans la figure 7.3. Le nombre maximal d’utilisateurs aux heures de pointe est de 50, 75 et 100.

Figure 7.3. Exemple de position des nœuds pour le scénario de trafic du matin avec une faible densité d’utilisateurs

7.5.3. Trafic avec une haute densité d’utilisateurs Contrairement au scénario décrit précédemment, nous considérons une zone géographique dense (plus précisément un quartier d’affaire de Dakar) couvert par treize eNB, comme indiqué sur la figure 7.4. Cette zone pourra accueillir un profil de trafic avec une concentration plus élevée d’UE déployés.

Les communications D D2D

227

F Figure 7.4. Exxemple de possition des nœu uds pour le sccénario de trafific du u matin avec une u haute densité d’utilisateurs

Les résultats r de la simulation sonnt illustrés dan ns les figures 7.4, 7 7.5 et 7.6.. Chacune d’elles inndique le nom mbre de messaages et le tem mps (mesuré en e périodes) jjusqu’à la découverrte de tous les UE de laa zone (ou ju usqu’à expirattion de la péériode de découverrte de 60 seconndes). Pour l’aalgorithme 3G GPP, la probabilité de transm mission est invariablle pendant toute la simulaation et peut être égale à 0,25, 0,5, 0,,75 ou 1. Toutefois, notre algoorithme utilise les inform mations relativves au nombbre prévu d’utilisatteurs pour ajuuster la probabbilité de transsmission correespondante dee manière dynamiqque. Les UE peuvent p calculler leur propree probabilité de d transmissioon dans le temps. Le L mécanismee de découveerte envisagé permet de réaliser r des ééconomies d’énergiee et d’éviter lees pertes de paaquets importaantes, grâce à la l réduction ddu nombre de messaages transmis. Nouss pouvons observer une auggmentation de l’activité du réseau r qui atteint un pic vers middi. Les courbees valident le fait que nouss simulons unn trafic du maatin. Nous pouvons également nooter que, penddant les heurees où le nom mbre d’UE est faible, il existe unn compromis direct entre lee temps requiis pour effectuuer la découvverte et le nombre de d messages envoyés. e Nous pouvons voirr comment nottre algorithme établit un équilibree entre les deuxx mesures.

228

Gestion du niveau de service

Number of periods needed for one UE to discover another UE

(a) Low density case

Number of periods needed for one UE to discover another UE

(b) High density case

Figure 7.5. Nombre de périodes nécessaires afin d’accomplir la découverte

En ce qui concerne les messages, seule la configuration avec une probabilité de transmission de 0,25 offre de meilleures performances à certains moments, et à ces moments-là, la métrique temporelle affiche de meilleurs résultats pour notre algorithme. Ce qui peut être plus important, notre algorithme montre un comportement plus prévisible (avec des valeurs plus cohérentes pour un certain nombre de messages et de temps requis) que les algorithmes 3GPP.

(a) Low density case

(b) High density case

Figure 7.6. Pourcentage d’énergie consommée pour les deux cas de figure : faible et haute densité

Les communications D2D

229

7.6. Conclusion Dans ce chapitre, un modèle basé sur l’apprentissage automatique a été proposé dans un contexte de communication D2D ayant pour objectif l’optimisation des ressources réseaux. Nous avons tenu compte de l’historique des densités d’utilisateurs de traces réelles d’opérateur visant à optimiser le processus de découverte en définissant une probabilité de transmission optimisée pour chaque configuration de découverte. Nous avons exploité les traces de réseaux réelles et avons proposé un algorithme proactif qui a prédit le nombre d’utilisateurs dans une zone spécifique et régulé pro-activement la probabilité de transmission afin d’optimiser les transmissions pour une meilleure efficacité. En premier lieu, les modèles de densité d’utilisateurs ont été extraits et synthétisés, variant entre différentes zones en fonction de leurs emplacements géographiques et de leurs types de trafic (c’est-à-dire, industriel, résidentiel et mixte). Ils ont été utilisés pour créer un historique du nombre d’utilisateurs situés autour de la zone pendant chaque heure de la journée. Ensuite, ces modèles de densité ont été intégrés dans notre algorithme afin de calculer la probabilité de transmission optimisée pour chaque période. Il s’avère que l’apprentissage automatique réalise les objectifs fixés et mentionnés ci-dessus avec davantage d’efficacité que les modèles/algorithmes classiques qui pourraient être limités en termes de précision. En outre, les communications entre périphériques (D2D) sont toujours en cours de standardisation. Les communications véhiculaires (V2X) en font partie et ont été introduites récemment (3GPP, version 14) dans le cadre des communications D2D afin de permettre aux véhicules de communiquer efficacement (par exemple de véhicule à véhicule, véhicule à infrastructure et piétons). Cela peut entraîner des exigences plus strictes en termes de retards et de pertes de transmission en raison de la forte mobilité liée aux réseaux véhiculaires. D’autre part, des algorithmes plus avancés peuvent être conçus à base d’apprentissage automatique avancé couplé à une grande analyse de données, de sorte à ce que l’algorithme lui-même évolue au fil du temps pour refléter les différents changements dans les comportements des utilisateurs, nous pensons en particulier à l’apprentissage profond à plusieurs couches. 7.7. Bibliographie 3GPP (2012). Feasibility study for evolved Universal Terrestrial Radio Access (UTRA) and Universal Terrestrial Radio Access Network (UTRAN). Rapport, 3GPP.

230

Gestion du niveau de service

3GPP (2014). Architecture enhancements to Support Proximity Services (ProSe). Rapport, 3GPP. Abu Alsheikh, M., Lin, S., Niyato, D., Tan, H.P. (2014). Machine learning in wireless sensor networks: Algorithms, strategies, and applications. IEEE Communications Surveys & Tutorials, 16(4), 1996–2018. Agiwal, M., Roy, A., Navrati Saxena, N. (2016). Next generation 5G wireless networks: A comprehensive survey. IEEE Communications Surveys & Tutorials, 18(3), 1617–1655. Andrews, G.F., Buzzi, S., Choi, W., Hanly, S.V., Lozano, A., Soong, A., Zhang, J.C. (2014). What will 5G be?. IEEE Journal on selected areas in communications, 32(6), 1065–1082. Aono, Y., Hayashi, T., Wang, L., Moriai, S. et al. (2018). Privacy-preserving deep learning via additively homomorphic encryption. IEEE Transactions on Information Forensics and Security, 13(5), 1333–1345. Basak, D., Pal, S., Patranbis, D.C. (2007). Support vector regression. Neural Information Processing-Letters and Reviews, 11(10), 203–224. Ben Mosbah, A. (2016). Context-aware mechanisms for device discovery optimization. Thèse de doctorat, Télécom SudParis et Université Pierre et Marie Curie, Paris, 1279–1284. Bkassiny, M., Li, Y., Jayaweera, S.K. (2013). A survey on machine-learning techniques in cognitive radios. IEEE Communications Surveys & Tutorials, 15(3), 1136–1159. Buda, T.S., Assem, H., Xu, L., Raz, D., Margolin, U., Rosensweig, E., Lopez, D.R., Corici, M.I., Smirnov, M., Mullins, R. (2016). Can machine learning aid in delivering new use cases and scenarios in 5G?. Dans Network Operations and Management Symposium (NOMS). IEEE/IFIP, Instanbul, 1279–1284. Bui, N., Cesana, M., Hosseini, S.A., Liao, Q., Malanchini, I., Widmer, J. (2017). A survey of anticipatory mobile networking: Context-based classification, prediction methodologies, and optimization techniques. IEEE Communications Surveys & Tutorials, 1790–1821. Cao, X., Zhou, F., Xu, L., Meng, D., Xu, Z., Paisley, J. (2018). Hyperspectral image classification with Markov random fields and a convolutional neural network. IEEE Transactions on Image Processing, 27(5), 2354–2367. Chen, X., Lin, X. (2014). Big data deep learning: challenges and perspectives. IEEE access, 2, 514–525. Chen, Y., Lin, Z., Zhao, X., Wang, G., Gu, Y. (2014). Deep learning-based classification of hyperspectral data. IEEE Journal of Selected topics in applied earth observations and remote sensing, 7(6), 2094–2107. Damasso, E. (1999). Digital mobile radio towards future generation systems: COST action 231. Rapport, Commission Européenne, Bruxelles.

Les communications D2D

231

Deng, L. (2014). A tutorial survey of architectures, algorithms, and applications for deep learning. APSIPA Transactions on Signal and Information Processing, 3. Deng, L., Zhang, Y., Chen, M., Li, Z., Lee, J.Y., Zhang, Y.J., Song, L. (2015). Device-to-device load balancing for cellular networks. Dans IEEE 12th International Conference on Mobile Ad Hoc and Sensor Systems (MASS). IEEE, Dallas, 19–27. Dieleman, S., Willet, K.W., Dambre, J. (2015). Rotation-invariant convolutional neural networks for galaxy morphology prediction. Monthly notices of the Royal Astronomical Society, 450(2), 1441–1459. Doppler, K., Rinne, M., Wijting, C., Ribeiro, C.B., Hugl, K. (2009). Device-todevice communication as an underlay to LTE-advanced networks. IEEE Communications Magazine, 47(12). Fodor, G., Dahlman, E., Mildh, G., Parkvall, S., Reider, N., Miklos, G., Turanyi, Z. (2012). Design Aspects of Network Assisted Device-to-Device Communications. IEEE Communications Magazine, 50, 170–177. Gheisari, M., Wang, G., Bhuiyan, M.Z.A. (2017). A survey on deep learning in big data. Dans IEEE International Conference on Computational Science and Engineering (CSE) and Embedded and Ubiquitous Computing (EUC). IEEE, Canton, 2, 173–180. Goodfellow, I., Bengio, Y., Courville, A. (2016). Deep learning. MIT Press, Cambridge. Gupta, A., Kumar Jha, R. (2015). A survey of 5G network: Architecture and emerging technologies. IEEE Access, 3, 1206–1232. Hammami, S.E. (2018). Dynamic network resources optimization based on machine learning and cellular data mining. Thèse de doctorat, Télécom Sud, Paris. Hammami, S.E., Afifi, H., Marot, M., Gauthier, V. (2016). Network planning tool based on network classification and load prediction. Dans Wireless Communications and Networking Conference (WCNC) 2016. IEEE, Doha, 1–6. Hearst, M.A., Dumais, S.T., Osuna, E., Platt J., Scholkopf, B. (1998). Support vector machines. IEEE Intelligent Systems and their applications, 13(4), 18–28. Hinton, G.E., Krizhevsky, A., Sutskever, I. (2012). Imagenet classification with deep convolutional neural networks. Dans NIPS'12 Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1. Lake Tahoe, 1097–1105. Hinton, G.E., Osindero, S., Teh, Y.-W. (2006). A fast learning algorithm for deep belief nets. Neural computation, 18(7), 1527–1554. Hordri, N., Samar, N., Yuhaniz, S., Shamsuddin, S.M. (2017). A systematic literature review on features of deep learning in big data analytics. International Journal of Advances in Soft Computing & Its Applications, 9(1).

232

Gestion du niveau de service

Hosseini, M.-P., Pompilli, D., Elisevich, K., Soltanian-Zadeh, H. (2017). Optimized deep learning for EEG big data and seizure prediction BCI via internet of things. IEEE Transactions on Big Data, 3(4), 392–404. Huo, Y., Dong, X., Xu, W. (2017). 5G cellular user equipment: From theory to practical hardware design. IEEE Access, 5, 13992–14010. Jeong, Y., Soon, Y.L., Jun Park, H., Park, N.H. (2013). Solving the data overload: device-to-device bearer control architecture for cellular data offloading. IEEE Vehicular Technology Magazine. Jiang, C., Zhang, H., Ren, Y., Han, Z., Chen, K.C., Hanzo, L. (2017). Machine learning paradigms for next generation wireless networks. IEEE Wireless Communications, 24(2), 98–105. Keshavamurthy, B., Ashraf, M. (2016). Conceptual design of proactive SONs based on the big data framework for 5G cellular networks: A novel machine learning perspective facilitating a shift in the son paradigm. Dans System Modeling & Advancement in Research Trends (SMART), International Conference. IEEE, Moradabad, 298–304. Le Roux, N., Bengio, Y. (2010). Deep belief networks are compact universal approximators. Neural computation, 22(8), 2192–2207. Lecun, Y., Bottou, L., Bengio, Y., Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324. Lei, L., Zhong, Z., Lin, C., Shen, X. (2012). Operator Controlled Device-to-Device Communications in LTE-Advanced Networks. IEEE Wireless Communications, 19, 96–104. Li, H., Ota, K., Dong, M. (2018). Learning IoT in edge: deep learning for the internet of things with edge computing. IEEE Network, 32(1), 96–101. Liu, S., Tang, J., Wang, C., Wang, Q., Gaudiot, J.-L. (2017a). A Unified Cloud Platform for Autonomous Driving. Computer, 50(12), 42–49. Liu, W., Wang, Z., Liu, X., Zeng, N., Liu, Y., Ealsaadi, F. (2017b). A survey of deep neural network architectures and their applications. Neurocomputing, 234, 11–26. Luo, J., Li, X. (2012). Physical Downlink Control Channel format selection of evolved node B in Long Term Evolution system. Dans 5th International Conference on Biomedical Engineering and Informatics (BMEI). IEEE, Chongqing, 1494–1498. Mao, Y., You, C., Zhang, J., Huang, K., Letaief, K.B. (2017). A survey on mobile edge computing : The communication perspective. IEEE Communications Surveys & Tutorials. Najafabadi, M., Villanustre, F., Khoshgoftaar, T., Seliya, N., Wald, R., Muharemagic, E. (2015). Deep learning applications and challenges in big data analytics. Journal of Big Data, 2(1), 1.

Les communications D2D

233

Panwar, N., Sharma, S., Kumar Singh, A. (2016). A survey on 5G: The next generation of mobile communication. Physical Communication, 18, 64–84. Rouil, R., Cintron, F.J., Benmosbah, A., Gamboa, S. (2017). Implementation and Validation of an LTE D2D Model for ns-3. Dans Proceedings of the Workshop on ns-3. ACM, Porto, 55–62. Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks, 61, 85–117. Vincent, P., Larochelle, H., Lajoie, I., Bengio, Y., Manzagol, P.-A. (2010). Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion. Journal of Machine Learning Research, 11, 3371– 3408. Xiaohui, L., Liu, W., Wang, Z., Zeng, N., Liu, Y., Alsaadi, F.E. (2017). A survey of deep neural network architectures and their applications. Neurocomputing, 234, 11–26. Wang, L., Zhang, L., Yi, Z. (2017). Trajectory predictor by using recurrent neural networks in visual tracking. IEEE Transactions on Cybernetics, 47(10), 3172– 3183. Wu, B., Li, K., Ge, F., Huang, Z., Yang, M., Siniscalchi, S.M., Lee, C.H. (2017). An End-to-End Deep Learning Approach to Simultaneous Speech Dereverberation and Acoustic Modeling for Robust Speech Recognition. IEEE Journal of Selected Topics in Signal Processing, 11(8), 1289–1300. Zhang, S., Yao, L., Sun, A. (2017). Deep learning based recommender system: A survey and new perspectives [En ligne]. Disponible à l’adresse: http://arxiv. org/abs/1707.07435.

8

Impact de la radio cognitive sur le green networking : approche par apprentissage par renforcement Mohammed Salih BENDELLA et Badr BENMAMMAR Université Abou Bekr Belkaid, Tlemcen, Algérie

8.1. Introduction Il faut dire qu’actuellement, les TIC (technologies de l’information et de la communication) sont extrêmement avancés. Se servir d’elles fait appel à un coût important de consommation d’énergie fossile, chose qui nous pousse à nous soucier de l’impact nuisant à l’environnement, engendré par les émissions de gaz CO2 de ces technologies. La pollution dans le domaine des communications peut être structurée selon ces trois axes principaux : la dissipation d’énergie, la radiation électromagnétique et les déchets. L’impact d’énergie des TIC est évalué à 2 % d’émissions de gaz participant à l’effet de serre (équivalentes à celle de toute l’aviation dans le monde) (TC Group 2008). Les industries justifient leur intérêt pour la réduction de la consommation d’énergie pour des raisons économiques, voire pour le marketing. De multiples secteurs traitant maints domaines se ruent sur cette cause tels que les concepteurs d’électronique, le secteur de la technologie de l’information et de la communication, et par-dessus tout le domaine du réseautage. Les centres de données et l’infrastructure des réseaux, à titre

Gestion du niveau de service dans les environnements émergents, coordonné par Nader MBAREK. © ISTE Editions 2020.

236

Gestion du niveau de service

d’exemple, impliquent une performance et une disponibilité élevées des machines. Ils puisent leur énergie à partir d’appareils puissants, qui nécessitent une climatisation consommatrice d’énergie pour soutenir leur opération, et qui sont organisées dans une architecture redondante. Ces derniers temps, des efforts ainsi que des travaux fructueux ont été réalisés sur la réduction d’énergie dépensée inutilement, qui est habituellement surnommée comme une écologisation des technologies et des protocoles de réseautage qui ont permis au concept green networking de voir le jour. Ce dernier sera capable, en somme, de métamorphoser les processus de communication et les TIC. Le green networking est un concept moderne et novice faisant référence aux processus utilisés pour optimiser un réseau dans le but de le rendre plus efficace en consommation énergétique. Ainsi, il recouvre les dispositifs qui autorisent une réduction de la consommation d’énergie, ce qui va provoquer la minimisation du volume de gaz CO2 émis par les infrastructures de télécommunication participant à l’effet de serre. 8.2. Le green networking 8.2.1. Pourquoi économiser de l’énergie ? La terre subit un phénomène dangereux dont l’Homme prend conscience progressivement. Il s’agit des problèmes environnementaux liés au phénomène de gaz à effet de serre (GES). Le taux de ces gaz s’est vu s’accroître au cours des dernières années. De bouche à oreille, ce phénomène néfaste résonne encore, cause de maintes études traitant de l’effet dévastateur des émissions massives de GES et de leurs conséquences sur le changement climatique. Selon un rapport publié par l’Union européenne (ETNO et WWF 2007), une diminution des émissions d’un volume de 15 % à 30 % est requis avant l’an 2020 pour une augmentation de la température globale inférieure à 2 °C. Cependant, et en s’appuyant sur des recherches tirées de plusieurs études, les TIC demeurent une source importante de consommation d’énergie et d’émissions de GES. Il semble y avoir comme innovation claire la possibilité de rendre les périphériques réseau et les protocoles conscients de l’énergie qu’ils consomment, afin qu’ils puissent être efficaces en termes de consommation d’énergie. 8.2.2. Où économiser de l’énergie ? Avant de tenter de réduire la consommation d’énergie, ou saisir par quels moyens une telle réduction peut être possible, il est nécessaire d’identifier où les plus grandes améliorations pourraient avoir lieu.

Impact de la radio cognitive sur le green networking

237

En 2002, Roth et al. (2002) ont étudié la consommation d’énergie de différentes catégories d’équipements dans l’Internet mondial. Ces chiffres, exposés sur la figure 8.1, indiquent que les réseaux locaux, via des concentrateurs et des commutateurs, sont responsables d’environ 80 % de la consommation totale d’Internet à ce moment précis. Routeurs (17.9%) WAN commutateurs (2.4%) LAN commutateurs (53.7%) Hubs (26.0%)

Figure 8.1. Contribution des différents types d’appareils à la consommation d’énergie du réseau en 2002 (Roth et al. 2002)

En 2005, Nordman et Christensen (2005) font le compte de la contribution des cartes d’interface réseau (NIC) et tous les autres éléments du réseau puis déduisent que les NIC sont responsables de près de la moitié de la consommation totale d’énergie. Évidemment, dans le domaine des TIC, la progression se fait à une grande vitesse, ce qui pourrait engendrer une estimation inexacte des chiffres. C’est pourquoi une évaluation constante de cette consommation doit se faire pour mettre à jour les cibles les plus pertinentes pour les économies d’énergie potentielles. 8.2.3. Définition et objectifs du green networking Le green networking est un concept nouveau faisant appel aux processus servant à optimiser un réseau afin de le rendre plus efficace en consommation énergétique. Alors, il englobe les procédures qui concèdent à réduire la consommation d’énergie, ce qui va engendrer la réduction du volume de gaz CO2 émis par les infrastructures de télécommunication participant à l’effet de serre. D’un point de vue technique, il est primordial de préserver le même niveau de performance tout en réalisant une tâche donnée, pour ce faire, une mise en place d’un réseau vert est nécessaire. D’un point de vue purement environnemental, la visée d’un réseau vert est de mettre en avant la minimisation des émissions des GES. Pour mener à bien cette mission, il faudra

238

Gestion du niveau de service

appliquer autant que possible l’utilisation des énergies renouvelables dans les TIC. Une autre piste écologique est d’élaborer des composants de faible puissance, aptes à offrir le même niveau de performance. Or, ce n’est pas la seule piste : revoir l’architecture d’un réseau elle-même, en délocalisant l’équipement d’un réseau vers des emplacements stratégiques, peut également entraîner des économies. Par exemple, d’imminentes entreprises des TIC telle que Google, ont déplacé leurs serveurs sur les rives du fleuve Columbia afin de profiter de l’énergie offerte par l’hydroélectricité des centrales à proximité. La quantité et le débit d’eau fournis par la rivière peuvent être par ailleurs utilisés dans les systèmes de refroidissement, expérimentés par Google (Katz 2009). 8.3. Les stratégies du green Traditionnellement, les systèmes de réseau ainsi que les réseaux eux-mêmes sont façonnés et dimensionnés selon des principes qui sont intrinsèquement en opposition avec des objectifs de réseau vert : à savoir, le sur-approvisionnement, la redondance et la tolérance aux pannes. Le travail des périphériques ajouté à l’infrastructure est de prendre la relève quand un autre dispositif tombe en panne, ce qui s’ajoute à la consommation d’énergie globale. Bianzino et al. (2012), démontrent des paradigmes clés que l’infrastructure du réseau peut exploiter pour atteindre les objectifs verts formalisés ci-dessus. Ils différencient quatre classes de solution, à savoir consolidation des ressources, virtualisation, connectivité sélective et calcul proportionnel. Ces quatre catégories représentent quatre chemins de recherche pour l’amélioration de la conception de périphériques et de protocoles. 8.3.1. Consolidation des ressources Cela comprend toutes les stratégies de dimensionnement pour minimiser la consommation mondiale due aux appareils sous-utilisés à un moment donné. Étant donné que le niveau de trafic d’un réseau donné, suit approximativement un quotidien bien connu et un comportement hebdomadaire (Qureshi et al. 2009), il y a une occasion opportune d’adapter le niveau de sur-approvisionnement actif aux conditions du réseau actuel. Autrement dit, le niveau de performance requis sera toujours garanti, mais en se servant d’une quantité de ressources qui est dimensionnée pour la demande actuelle du trafic réseau plutôt que pour la demande au moment des heures de pointe. Cela peut être possible en éteignant certains routeurs légèrement chargés et en déroutant le trafic sur un plus petit nombre d’équipements de réseau actifs. La

Impact de la radio cognitive sur le green networking

239

consolidation des ressources est déjà une approche populaire dans d’autres domaines, en particulier les centres de données. 8.3.2. Connectivité sélective Appliquant le même concept, la connectivité sélective des dispositifs, conformément à (Christensen et al. 2004 ; Allman et al. 2007), consiste en mécanismes distribués qui autorisent à une seule pièce d’équipement de se mettre en veille pendant quelque temps, d’une manière aussi transparente que possible au reste des procédés administrés en réseau. Si le principe de consolidation s’applique aux ressources qui sont partagées dans l’infrastructure réseau, la connectivité sélective permet de stopper les ressources non utilisées sur le réseau. Prenons les nœuds périphériques à titre d’exemple, ils sont capables de rester inactifs afin d’éviter de supporter des tâches de connectivité réseau (par exemple, envoyer des pulsations périodiques, recevoir des trafics de radiodiffusion, etc.). Ces tâches peuvent être prises en charge par d’autres nœuds, feignant momentanément l’identité des dispositifs inactifs, de façon à ce qu’aucun changement fondamental ne soit requis dans les protocoles réseau. 8.3.3. Virtualisation La virtualisation regroupe un lot de mécanismes permettant à plus d’un service d’opérer sur le même morceau de matériel, de ce fait améliorant son utilisation. Elle a comme résultat une consommation d’énergie basse, tant qu’une machine simple sous la charge élevée consomme moins que plusieurs légèrement chargées, ce qui est dans la majorité du temps le cas. La virtualisation peut être appliquée à de multiples ressources, y compris des liens de réseau, des procédés de stockage, des ressources de logiciel, etc. Un exemple typique de virtualisation consiste à partager des serveurs des centres de traitement des données, tout en réduisant les coûts de matériel, en améliorant la gestion de l’énergie et en minimisant l’énergie et les coûts de refroidissement, réduisant finalement l’empreinte carbone du centre de traitement des données. Un projet a déjà été fait, la virtualisation fut déployée avec succès : par exemple, le service postal des États-Unis a virtualisé 791 de ses 895 serveurs physiques (EPA 2007). Étant donné que la virtualisation est un champ plus mûr de recherches, le lecteur intéressé peut se référer à (Nanda et Chiueh 2005) pour un aperçu détaillé et précis des techniques de virtualisation en termes d’architecture informatique, et à (Chowdhury et Boutaba 2008) en termes de gestion de réseau. En même temps, il convient de concevoir qu’une solution de virtualisation conçue explicitement pour réduire la consommation d’énergie de réseau est encore attendue.

240

Ge estion du niveau u de service

8.3.4. Calcul C propo ortionnel Il a été implanté (B Barroso et Holzzle 2007) en étant é adapté, il peut être applliqué à un système dans son enssemble, aux protocoles p de réseaux, ainsii qu’à des apppareils et composaants individueels. Pour illusstrer ce princiipe, la figuree 8.2 représennte divers profils dee consommatiion d’énergie (ou de coût) qu’un q appareill peut avoir enn fonction de son niiveau d’utilisaation (ou de la demande).

Figure 8.2. Consommatiion d’énergie en fonction de e l’utilisation (Barrroso et Holzle 2007)

Les métriques m d’uttilisation et d’’énergie ont été é normaliséees et l’axe va de 0 à 1. Ces mulltiples profils offrent plusiieurs opportun nités d’optimiisation. Les ddispositifs agnostiquues à énergie, pour lesquels la consommattion d’énergie est constante,, indépendammentt de leur utiliisation, représsentent le piree cas : ces apppareils sont aallumés et consomm ment le maxim mum d’énergie, ou bien étein nts et inopérantts. Mais les appareils particulièremeent sensibles à l’énergie sonnt dotés d’unee consomd propportionnelle à leur niveau d’utilisation. Concernant ces deux mation d’énergie situations extrêmes, il subsiste un noombre infini dee profils interm médiaires posssibles, par exemple les cas en unee seule étape et e en plusieurss étapes, représentés sur la ffigure 8.2, pour lesquels la conssommation d’énergie s’adaapte grossièrem ment à la chaarge. Les dispositiffs à une seuule étape ont deux modess de fonctionnnement alorss que les dispositiffs à plusieurs étapes é ont diffférents seuils de d performancce.

Im mpact de la radio o cognitive sur le e green networkking

241

La mise m à l’échellee dynamique de d la tension (Dynamic ( Volttage Scaling) et le taux de liaisoon adaptatif (Adaptive Linnk Rate) son nt des modèlees typiques dde calcul proportioonnel. La misse à l’échellee dynamique de la tensionn (Weiser et al. 1994) minimisee l’état énergéétique du CPU U en fonction de la charge du d système, E En prenant en compte la charge du d lien, le tauxx de liaison ad daptatif appliquue un conceptt similaire aux interrfaces réseau, réduisant r leur capacité, et do onc leur consoommation. Il coonvient de savvoir qu’un dééfi supplémen ntaire demeurre dans la séllection et l’applicaation des chaarges cibles sur une architecture disttribuée, parcee que la consomm mation globalee d’énergie déépend du niveaau d’utilisationn auquel tout dispositif sensible à l’énergie fonnctionne. Par exemple, la figure fi 8.3 repréésente deux em mpreintes différentes en plus dee la proportioonnelle. L’unee d’entre elless est plus adaaptée aux périphériiques/protocolles fonctionnannt normalemen nt sous des nivveaux d’utilisaation plus hauts, et l’autre est pllus efficace poour les points opérationnelss inférieurs. C Ce dernier modèle de d conception peut être motiivé grâce au faait que, de mannière plutôt tyypique, les centres de d données et e les dorsalees du réseau sont estiméss la plupart ddu temps fonctionnner à de faiblees niveaux d’utilisation. En n revanche, d’’après le princcipe de la consolidaation des resssources, les syystèmes futurrs seront incitéés à fonctionnner à des charges probablement p plus élevées. Une telle intteraction ajoutte une autre ddimension intéressaante à prendree en compte : nous ne conccevrons pas seeulement des systèmes adaptatiffs basés sur divvers niveaux d’utilisation d mais m nous seronns aptes à conccevoir des systèmess optimisés pouur le niveau d’utilisation le plus p probable..

Fig gure 8.3. Empreinte optimisée pour des points p opératio onnels spécifiq ques anzino et al. 2012) 2 (Bia

242

Gestion du niveau de service

8.4. Green dans les réseaux sans fil Nous pouvons définir un réseau sans fil comme étant un réseau dans lequel au moins deux terminaux sont capables de communiquer entre eux grâce à des signaux radioélectriques. En général, une connexion sans fil est recherchée par commodité (plus besoin de connexion physique), par économie (coût du lien physique) mais également pour s’affranchir des contraintes physiques (implantation dans des milieux dangereux, dans des lieux difficiles d’accès, au sein du corps humain, etc.). Plusieurs secteurs sont obligés de traiter l’impact de leur activité sur le réchauffement global dont on peut remarquer deux principaux impacts : – radiation électromagnétique : due au rayonnement émis par le matériel de communication radio et surtout lorsque la portée est grande ; – les émissions de gaz CO2 : dues à l’énorme consommation d’énergie par les dispositifs radio. Le secteur des télécommunications a intégré ce besoin pour réduire sa consommation d’énergie. À l’intérieur d’une liaison de données sans fil, la gestion de l’énergie devient problématique. Certes, il faut pouvoir alimenter les équipements et transmettre l’information selon une puissance de transmission donnée. Cette puissance n’est qu’une énergie développée par le dispositif radio pour transmettre ses données, d’où l’impact sur la consommation d’énergie car si on avait le désir d’augmenter l’énergie développée (puissance de transmission), on aurait besoin d’une grosse énergie de base (charge d’alimentation). Aussi et avec l’essor d’équipements de plus en plus miniaturisés et/ou difficilement rechargeables, il est nécessaire de réduire la consommation énergétique et donc le coût énergétique de ces liaisons qui vont être de plus en plus déployées. Modèles de la consommation d’énergie : – en mettant en avant l’hypothèse que l’ensemble des nœuds mobiles des réseaux sans fil soient équipés d’une carte réseau IEEE 802.11, dont un taux des données de 54 Mbit/s, l’énergie nécessaire pour transmettre un paquet p de nœud i est : (p, n) = i * v *

(Joules)

où i est le courant (en Ampère), v le voltage (en Volt), et transmettre le paquet p (en secondes) (Hedna 2011) ;

le temps pris pour

Impact de la radio cognitive sur le green networking

243

– en se basant sur la théorie vue dans (Bloem et al. 2007), démontrant que la longévité d’une batterie est inversement proportionnelle à la puissance de transmission, Grace et al. (2009) expriment la consommation d’énergie par rapport à la durée de vie d’une batterie : =



(Heures)

est le voltage de la batterie, la puissance de transmission et K une où constante, qui représente la puissance requise pour le traitement des signaux. 8.4.1. Efficacité énergétique dans les réseaux sans fil La question de l’efficacité énergétique dans les réseaux sans fil fut durement étudiée. En réalité, la durée de vie des nombreux équipements des réseaux sans fil et de multi-alimentation, a été pointée du doigt. Un aperçu non négligeable a été fourni par Jones (Jones et al. 2001) au sujet des protocoles de réseau sur l’efficacité énergétique pour les réseaux sans fil en 2001, or la ligne de recherche demeure toujours très active (Jiang et al. 2011). Les auteurs proposent une démarche, lors d’un travail présenté dans (Hedna 2011), pouvant modifier le protocole de routage OLSR de façon à ce qu’il soit en mesure d’endurer la notion d’économie d’énergie. Cette amélioration est basée sur l’interaction entre le protocole de routage OLSR et un mécanisme d’amélioration du protocole MAC, appelé Power-Aware Alternation (PAA) qui se base sur la suppression de toute activité réseau d’un nœud pendant certaines périodes afin de conserver son énergie. Durant son inactivité, les messages à sa destination seront repris par un ou plusieurs nœuds nommés supporteurs. Ces supporteurs sont choisis à partir de l’ensemble des MPR (Multi-PointRelays) du protocole OLSR, en tenant compte de la contrainte de leurs niveaux d’énergie. Ainsi, avec cette adaptation, les nœuds ayant une énergie basse sont écartés du routage afin de conserver un bon niveau d’énergie pour tous les nœuds mobiles. Karray, dans (Karray 2010), dérive les modèles analytiques pour l’efficacité spectrale et l’efficacité énergétique des réseaux utilisant OFDMA (Orthogonal Frequency-Division Multiple Access). Les modèles permettent d’étudier l’efficacité en fonction de divers paramètres tels que l’exposant de propagation et le rayon de cellules. En revanche, dans (Ouni et al. 2013), les auteurs ont mis en œuvre deux algorithmes d’ordonnancement et de gestion d’endormissement de réseau LTE-Advanced de type relais. Ces algorithmes permettent, d’abord, l’affectation de ressources aux nœuds

244

Gestion du niveau de service

relais et, ensuite, la gestion de leurs activités selon leurs états (transmission, réception ou endormissement) afin de réduire la consommation énergétique. Cette heuristique permet de calculer un ordonnancement des RN et leur endormissement partiel selon deux stratégies différentes, en s’appuyant sur le temps d’activation des nœuds. La première stratégie, appelée LAFS (the Least Active, the First Served), commence par ordonner les RN les moins actifs afin de réduire le nombre de changements d’états et donc minimiser le coût total de réveil. La deuxième stratégie, appelée MAFS (the Most Active, the First Served), commence par ordonner les nœuds les plus actifs dans le but de garantir que ces nœuds puissent passer en mode endormissement partiel. Dans le contexte des systèmes cellulaires, le fait de diminuer la puissance a longtemps été considéré par les concepteurs et les opérateurs de ces réseaux. Cependant, à mesure que la pression pour des économies d’énergie et des réductions des émissions de gaz participant à l’effet de serre s’accroît, le concept des réseaux cellulaires verts s’intensifie. La plupart des techniques employées pour réduire au minimum la consommation d’énergie dans le cadre des systèmes sans fil verts essayent d’optimiser la puissance de transmission des stations d’émission réception (Krief 2012). 8.4.2. Le contrôle de la puissance de transmission Dans les réseaux ad hoc existe un problème de contrôle de la puissance, celui du choix de la puissance de transmission de chaque paquet de manière distribuée. Le problème est complexe du moment que le choix du niveau de puissance influence bon nombre d’aspects du fonctionnement du réseau : – le niveau de la puissance de transmission indique la qualité du signal reçu au niveau du récepteur ; – il détermine la portée d’une transmission ; – il délimite avec précision la magnitude de l’interférence qu’il crée pour les autres récepteurs. En conclusion, le contrôle de la puissance de transmission est considérable dans les réseaux ad hoc, pour au moins trois raisons (Narayanaswamy et al. 2002) : – il a un impact sur la durée de vie de la batterie ; – il a un impact sur la capacité du réseau en termes de trafic du transport ; – il peut réduire les interférences des ondes radio et ainsi amplifier la réutilisation spatiale de la bande passante.

Impact de la radio cognitive sur le green networking

245

Selon (Krunz et al. 2004), la puissance de transmission détermine la portée sur laquelle le signal peut être reçu d’une façon harmonieuse, et par conséquent c’est un paramètre critique pour déterminer la performance du réseau (débit, délai et consommation d’énergie). La sélection de la « meilleure » portée de transmission a été travaillée en détail dans la littérature. En effet, (Gupta et Kumar 2000) montre que plus la portée des nœuds est grande, plus la puissance nécessaire à la transmission l’est davantage. De plus, la portée d’un nœud influe directement sur la zone d’interférence. Augmenter la portée, engage également d’augmenter la probabilité d’interférence, le taux de collision et le taux de perte et baisse la capacité de transmission des nœuds. Le contrôle de puissance consiste à adapter les portées et les puissances de transmission des nœuds afin d’assurer une consommation minimale d’énergie tout en préservant la connectivité du réseau. Il s’agit de trouver une portée de transmission optimale pour les nœuds du réseau, pouvant être commune ou pas, permettant d’optimiser l’énergie consommée pendant les communications (Narayanaswamy et al. 2002 ; Liu et al. 2008). Le mécanisme soumis dans (Ramanathan et Rosales-Hain 2000) permet de combiner la puissance d’un nœud jusqu’à ce qu’il ait un nombre de voisins limité. Ceci n’assure pas dans tous les cas la connectivité du réseau. Parfois, les nœuds peuvent se retrouver dans des îlots séparés avec quelques voisins directs. Ainsi Ramanathan et Rosales-Hain (2000) ont présenté deux algorithmes centralisés « CONNECT et BICONN-AUGMENT (Biconnectivity Augmentation) » pour réduire au minimum la puissance maximum utilisée par un nœud tout en maintenant la connectivité ou la bi-connectivité du réseau. Les auteurs nomment un réseau biconnecté si la perte d’un seul nœud ne découpe pas le réseau. L’algorithme CONNECT est un algorithme itératif simple qui associe pas mal de composants jusqu’à ce qu’il n’en reste plus qu’un seul. Initialement, chaque nœud est son propre composant. Les paires de nœuds sont choisies dans un ordre non-décroissant de leurs distances mutuelles. Si les nœuds sont dans des composants différents, alors la puissance de transmission de chacun est élevée pour être apte à atteindre l’autre. Cela est fait jusqu’à ce que le réseau soit connecté. Passer d’un réseau connecté à un réseau bi-connecté se fait par l’algorithme BICONN-AUGMENT, qui utilise la même idée que CONNECT pour la construction itérative du réseau bi-connecté. Sauf qu’en plus, une phase du post-traitement peut être adaptée pour assurer la distribution minimum par nœud des puissances de transmission par la cessation des connexions redondantes. Le protocole COMPOW (Narayanaswamy et al. 2002) a pour but d’ajuster la puissance des nœuds conformément à une valeur commune. Ce niveau de puissance est le niveau minimal permettant d’assurer la connectivité du réseau. Ce protocole met en évidence l’importance des liens bidirectionnels puisqu’une destination directe ne

246

Gestion du niveau de service

peut répondre à une source que si sa puissance de transmission est au moins égale à celle de la source. De ce fait, assurer une puissance commune permet d’assurer des liens bidirectionnels. Ce protocole sert aussi à augmenter la capacité de transmission du réseau avec le plus petit niveau d’énergie ou de portée possible tout en sauvegardant la connectivité du réseau. Ces derniers challenges posent le problème de la recherche d’une excellente couverture de réseau et du contrôle de partitionnement. Donc, on peut dire que COMPOW fonctionne bien si les nœuds sont distribués de manière homogène dans l’espace, même si un seul nœud éloigné puisse obliger chaque nœud à utiliser un niveau élevé de puissance. Enfin, le rôle du green networking dans les réseaux sans fil tend à gérer le conflit entre la puissance du signal et l’économie d’énergie, c’est-à-dire diriger les paramètres de la radio de façon automatique et adaptative en fonction du besoin. D’où le besoin des services de la radio cognitive. 8.5. L’apport de la radio cognitive au green networking La radio cognitive ou radio intelligente est un jeune paradigme de communication qui attise l’attention des utilisateurs mobiles, des opérateurs réseaux et des fournisseurs de service. Le terme radio cognitive (RC) est employé pour décrire un système possédant la capacité de détecter et de reconnaître son cadre d’utilisation, ceci dans le but de lui permettre d’ajuster ses paramètres de fonctionnement radio de façon dynamique et autonome et d’apprendre des résultats de ses actions et de son cadre environnemental d’exploitation. Elle est donc capable de percevoir et de comprendre son environnement tout en s’y adaptant automatiquement. Il s’agit d’une classe de radio reprogrammable et reconfigurable (Stevenson et al. 2009). 8.5.1. Principe de la radio cognitive La radio cognitive est une technologie qui fait appel à l’intelligence des réseaux et des terminaux pour : – détecter les besoins de communication des utilisateurs en fonction de l’utilisation ; – octroyer des ressources radio et des services sans fil les plus appropriés à ces besoins. Afin d’y arriver, la radio cognitive doit disposer de trois principales capacités (Akyildiz et al. 2006) :

Impact de la radio cognitive sur le green networking

247

- conscience : c’est l’aptitude à prendre conscience de son environnement. Un terminal radio cognitive unira donc environnement spatial, spectral et comportement des usagers pour une meilleure prise de conscience du provisionnement en ressources et un excellent service ; - adaptation : c’est la capacité à s’adapter soit à l’environnement (spectral ou technologique), soit à l’utilisateur (besoins et sécurité) ; - cognition : la cognition regroupe les divers processus mentaux allant de l’analyse perceptive de l’environnement à la commande motrice (en passant par la mémorisation, le raisonnement, les émotions, le langage, etc.). Cette description dépasse donc l’unique cadre de la cognition humaine ou animale. La radio cognitive est donc un système qui peut percevoir son environnement, l’analyser, le mémoriser et agir en conséquence. 8.5.2. Cycle de cognition La composante cognitive de l’architecture de la RC regroupe une organisation temporelle, des flux d’inférences et des états de contrôle. Ce cycle reconstitue cette composante de manière évidente. Les stimuli s’introduisent dans la radio cognitive comme des interruptions sensorielles envoyées sur le cycle de la cognition (voir figure 8.4) pour une réponse. Une telle radio cognitive analyse l’environnement, s’oriente, crée des plans, décide, et puis opère (Ben Dhaou 2011). Orient Observe Urgent

Act

Immediate

Plan

Learn

Decide

Figure 8.4. Cycle de cognition de Mitola (Mitola 1998)

248

Gestion du niveau de service

8.5.2.1. Phase d’observation (détecter et percevoir) La RC conçoit son environnement à travers l’analyse du flux de stimuli auquel il a accès. Dans la phase d’observation, la RC associe par exemple l’emplacement, la température, le niveau de lumière des capteurs et ainsi de suite pour en déduire le contexte de communication. 8.5.2.2. Phase d’orientation La phase d’orientation détermine l’intérêt et la portée d’une observation en liant celle-ci à une série connue de stimuli. Cette phase fonctionne à l’intérieur des structures de données qui sont analogues à la mémoire à court terme que les individus utilisent pour s’engager dans un dialogue sans forcément se souvenir de tout à long terme. La reconnaissance des stimuli se produit quand il y a une correspondance exacte entre un stimulus courant et une expérience antérieure. La réaction peut être appropriée ou dans l’erreur. Chaque stimulus se trouve dans un contexte plus large, incluant d’autres stimuli et les états internes, y compris le temps. Souvent, la phase d’orientation engendre une action qui sera lancée immédiatement, comme un comportement réactif « stimulusréponse ». Une panne d’électricité, par exemple, peut aussitôt invoquer un acte qui préserve les données (le chemin « immédiat » de la phase action sur la figure 8.4). Une perte de signal sur un réseau peut invoquer une réaffectation de ressources. Cela peut être accompli via la voie marquée « urgent » dans la figure 8.4. 8.5.2.3. Phase de planification Un message entrant du réseau serait normalement traité par la génération d’un plan (dans la phase de plan, la voie normale). Le plan devrait également comporter la phase de raisonnement dans le temps. 8.5.2.4. Phase de décision La phase de décision sélectionne un plan parmi les plans candidats. La radio peut avertir l’utilisateur d’un message entrant ou reporter l’interruption à plus tard selon des niveaux de QoI (Quality of Information) statués dans cette phase. 8.5.2.5. Phase d’action Cette phase lance les processus choisis qui utilisent les effecteurs sélectionnés qui accèdent au monde extérieur ou aux états internes de la RC. Une action va agir sur

Impact de la radio cognitive sur le green networking

249

l’environnement en effectuant, par exemple, des changements au niveau de la fréquence radio. 8.5.2.6. Phase d’apprentissage L’apprentissage dépend de la perception, il n’y a pas l’un sans l’autre. Des observations, des décisions et des actions. L’apprentissage initial est conditionné à travers la phase d’observation dans laquelle toutes les perceptions sensorielles sont comparées à l’ensemble de l’expérience antérieure pour prendre en compte les événements et garder en mémoire le temps écoulé depuis l’ultime événement. 8.5.3. Green networking dans les réseaux radio cognitive Le green networking peut jouir du large paradigme de la radio cognitive. Haykin (2005) a étayé avec précision l’équipement RC tel un émetteur radioélectrique cognitif qui apprendra de l’environnement et adaptera ses états internes aux variations statistiques des stimuli présents de la radiofréquence. Pour ce faire, il faut ajuster les paramètres de transmission (par exemple, la bande de fréquence, le mode de modulation et la puissance de transmission) en temps réel. À cela s’ajoutent les possibilités cognitives afin de détecter le spectre disponible ainsi que la capacité de reconfiguration pour accéder dynamiquement à ce spectre. Le système de communication intelligent de radio cognitive augmente l’agilité de spectre et l’efficacité énergétique (Mitola 1998). Dans la littérature, il y a peu de travaux portant sur la santé de l’utilisateur de la technologie « green » dans la radio cognitive. En particulier ici, nous souhaitons citer les travaux de Palicot (Palicot 2009 ; Michael et al. 2010) qui mettent l’accent sur l’effet nocif de l’utilisation des antennes omnidirectionnelles dans des bornes sans fil. Ceci expose le corps et en particulier la tête à des quantités élevées de rayonnement électromagnétique. Les idées et les suggestions proposées dans ce document pour réduire l’exposition au rayonnement comportent notamment l’utilisation d’antennes directionnelles. En effet, un besoin de configuration dynamique des antennes apparaît, ainsi que des puissances de transmission et d’autres paramètres physiques liés aux signaux émis. Cependant, il peut être très difficile de mettre en application de telles adaptations, bien que techniquement faisables avec la radio cognitive dans le cas d’un utilisateur mobile et/ou de propriétés changeantes des canaux de transmission. En revanche, de nombreux travaux de recherche ont été menés dans le but de réduire la consommation d’énergie, en particulier pendant l’étape de détection. Ainsi,

250

Gestion du niveau de service

dans (Maleki et al. 2011), les auteurs proposent un système de sommeil et de censure combinés pour améliorer l’efficacité énergétique lors de la détection du spectre dans un réseau de capteurs cognitifs. Ils ont analysé la performance de détection de ce système en dérivant théoriquement les probabilités globales de détection et de fausses alarmes. Leur objectif est de minimiser la consommation d’énergie nécessaire à une détection distribuée (distributed sensing), étant donné les contraintes pesant sur les probabilités globales de détection et de fausse alarme, en désignant de manière optimale un taux de sommeil et un seuil de censure. Dans (Elmachkour et al. 2014) les auteurs ont étudié la conservation de l’énergie et la performance du système d’allocation des ressources décentralisées dans les réseaux radio cognitive fondés sur des utilisateurs secondaires compétitifs. Dans l’approche qu’ils ont proposée, ils appliquent le jeu de la minorité (minority game) à la phase la plus importante de l’accès opportuniste au spectre qui est la phase de détection. Les auteurs ont essayé de réaliser une coopération dans un environnement non coopératif sans échange d’informations. Ils ont étudié la solution d’équilibre de Nash pour des stratégies pures et totalement mixtes, en se servant des algorithmes d’apprentissage distribués qui permettent aux utilisateurs cognitifs d’apprendre l’équilibre de Nash. Pour conclure, ils fournissent des résultats numériques pour les approches proposées. En outre, une minimisation importante de la consommation d’énergie peut être effectuée par une action directe sur les infrastructures de communication. En effet, on peut réduire la consommation d’énergie des équipements en optimisant leur mode de fonctionnement ou même en les arrêtant, cela augmente leur durée de vie et prolonge leur cycle de recharge. En particulier, la radio cognitive offre le contrôle de la puissance de transmission sur chacune des longueurs d’onde élues. Il est clair que plus la puissance de transmission sera faible, plus il en sera de même pour la consommation d’énergie. Mais si nous diminuons la puissance de transmission, le débit et le rayon de couverture sont impactés, ce qui peut poser des difficultés. En choisissant la bande de fréquence juste, la radio cognitive peut optimiser ces trois paramètres dans le but d’améliorer la consommation d’énergie. Dans (Grace et al. 2009), la déduction est spécifique, les auteurs démontrent une relation directe entre la durée de vie de la borne mobile, la largeur de bande et le débit. Par ailleurs, ces chercheurs ont montré que la puissance de transmission d’une station émetteur-récepteur peut avoir un impact négatif sur la consommation d’énergie des bornes sur une cellule voisine. Ainsi, plus la puissance de transmission du point d’accès est élevée, plus l’interférence avec des non-destinataires se produira, et plus les bornes sur les cellules voisines devront augmenter leur puissance de transmission afin

Impact de la radio cognitive sur le green networking

251

de maintenir le même rapport signal/bruit, ce qui va restreindre leur durée de vie. La radio cognitive, en exploitant différentes bandes de fréquence dans les cellules, est capable de détourner cet effet. Dans le but de minimiser la consommation d’énergie, la radio cognitive doit tenir compte de la relation entre la largeur de bande, la puissance de transmission et la capacité (le débit). Clairement, si la puissance de transmission est réduite, le débit de la communication le sera aussi. Bien que ceci puisse être compensé (légèrement) par l’accroissement de la largeur de bande du canal, sur la majorité des bandes de fréquences utilisées, il n’est pas possible de le faire. En outre, il est mentionné que des transmissions sur des canaux de basse fréquence recouvrent de grandes distances en raison de leur résistance à l’atténuation et à l’interférence. Autrement dit, si deux nœuds placés loin l’un de l’autre ne sont pas à portée de l’autre en utilisant une fréquence donnée, il est possible en employant une fréquence inférieure, et avec la même puissance de transmission, que ces deux nœuds puissent communiquer. Cependant, le débit de cette communication sera certainement plus faible. En effet, en transmettant sur une fréquence inférieure, la largeur de bande est également réduite (Krief 2012).

Puissance de transmission

Débit

Fréquences A utilise F1

B transmet sur F2

Figure 8.5. Compromis : largeur de bande, puissance de transmission, distance et débit (Krief 2012)

En guise de conclusion, il est possible de parfaire des communications « green » en utilisant la radio cognitive, une technologie apte à adapter dynamiquement tous les paramètres impliqués dans une transmission. Les différents paramètres sont représentés sur la figure 8.5.

252

Gestion du niveau de service

Le schéma montre qu’un nœud radio cognitive A, en choisissant une fréquence basse F1 et avec une faible puissance de transmission, peut effectuer une communication à travers des distances équivalentes à un autre nœud B qui transmet à une puissance plus élevée sur la fréquence F2. Ceci illustre le fait que la radio cognitive, en sélectionnant dynamiquement les bandes inférieures, peut accroître la durée de vie des équipements et optimiser l’efficacité énergétique des réseaux. Cependant, ce gain de durée de vie intervient aux dépens du débit obtenu. Cette contrainte n’est pas un obstacle lorsque la bande de fréquence plus basse qui a été choisie assure un débit satisfaisant pour la communication. En revanche, dans certains cas, le débit demandé par la communication ne peut être offert en se servant de basses fréquences. C’est pourquoi nous sommes obligés d’augmenter la bande de fréquences et la puissance de transmission. 8.6. Apprentissage par renforcement pour la prise en compte de l’efficacité énergétique lors de l’accès opportuniste au spectre L’apprentissage est défini comme une notion englobant toute méthode permettant de construire un modèle de la réalité à partir de données. L’apprentissage par renforcement est un domaine de l’apprentissage automatique (machine learning en anglais) permettant de résoudre des problèmes de décisions séquentielles dans l’incertain. Nous considérons un agent (ou encore, sujet, acteur, décideur) et un environnement (ou encore système). L’agent est confronté à une suite de prises de décisions. L’environnement, quant à lui, est caractérisé par un état qui évolue dans le temps de manière aléatoire en fonction des décisions prises par l’agent. Une prise de décision consiste en un choix d’action. Ce choix dépend lui-même de l’état actuel de l’environnement. Ainsi, la décision prise à chaque instant induit un changement d’état et, par conséquent, influence la prise de décision suivante. Le déroulement dans le temps de ces événements successifs caractérise l’interaction entre l’agent et l’environnement. Cette dénomination d’apprentissage par renforcement trouve son origine dans le fait qu’à chaque instant l’agent reçoit des récompenses (ou encore bénéfices, gains) selon l’état de l’environnement et l’action qu’il a choisie. Ces récompenses le guident dans ses prises de décisions. Ainsi, le but de l’agent est de choisir ses actions de manière à maximiser les récompenses reçues. En général, l’agent a pour objectif de maximiser, non pas les récompenses reçues à chaque instant, mais celles reçues sur le long terme. L’action

Impact de la radio cognitive sur le green networking

253

permettant de maximiser la récompense immédiate étant donné l’état de l’environnement est a priori différente de celle aboutissant à un grand bénéfice à long terme. En effet, la récompense reçue par l’agent dépendant à la fois de l’action choisie et de l’état de l’environnement, il peut être nécessaire de choisir des actions peu rentables à court terme afin d’atteindre un état dans lequel la récompense est très grande. Dans ce contexte, un travail a déjà été réalisé par l’équipe de « Centrale Supélec » (Modi et al. 2016). Les auteurs proposent un algorithme d’apprentissage pour le scénario d’accès opportuniste au spectre (OSA) modélisé comme un problème de bandit multi-armé de Markov (MAB). L’algorithme proposé sélectionne un canal pour la transmission qui est optimal non seulement en termes de débit de données, mais également en termes de qualité, c’est-à-dire de rapport signal sur bruit (SNR). Il permet aux utilisateurs secondaires (SU) de donner un poids approprié à leur critère souhaité, comme la qualité du canal, qui conduit à une transmission fiable avec une puissance plus faible, et le débit, en sélectionnant deux coefficients d’exploration distincts. Le cœur du problème OSA étant d’apprendre quels canaux sont les meilleurs en termes de critères choisis, par exemple disponibilité et qualité, des travaux récents ont modélisé le processus d’apprentissage du spectre avec un cadre de bandit multi-armé (MAB) (Jouini et al. 2010 ; Liu et al. 2013 ; Modi et al. 2015). L’efficacité énergétique est tout aussi dépendante des conditions de propagation des canaux que l’efficacité spectrale et donc est nécessaire pour adapter le système à l’environnement changeant. La figure 8.6 illustre le fait que certains canaux sont plus disponibles que d’autres, en raison de la charge de trafic des utilisateurs primaires, et certains d’entre eux offrent une meilleure qualité pour une transmission sans fil en termes de rapport signal sur bruit (SNR), en raison des conditions de propagation, et peuvent donc potentiellement supporter une transmission fiable avec une puissance d’émission plus faible.

Figure 8.6. État et condition du canal pour le SU

254

Ge estion du niveau u de service

La figure 8.7 préseente l’algorithhme qui est spécifiquement conçu pour réésoudre le problèmee d’apprentissaage du spectrre avec une rééduction signiificative de laa consommation d’énergie d d’un SU. Comme tous t les schém mas d’apprentisssage par renfo forcement, la politiqque proposée observe la dissponibilité du canal par déttection, qui peeut être la sortie duu détecteur d’énnergie en cas de d RC.

Figure 8.7. Nouvel algorithme a d’ap pprentissage machine m

Mais comme déjà montré auparaavant, la réducction de la puiissance de trannsmission conduit à une réductioon de débit, doonc cette prob blématique est toujours préssente dans le cas d’uune communiccation exigeannte en termes de d débit. Nouss souhaiteronss améliorer ceette approche en récompennsant ou pénaalisant un canal sellon des critèress applicatifs enn effectuant un n apprentissagge par renforceement. La base de connaissance c c constituée perrmettra de fairee un choix de canal selon lees besoins de l’utilisateur. Notre proposition p coonsiste à soum mettre l’ajout d’un d mécanism me dans le contexte de la radio cognitive qui permettra p de gérer g le cas oùù la communiication de l’utilisateeur nécessite un u débit imporrtant. L’appren ntissage par reenforcement daans ce cas sera utiliisé pour constiituer une basee de connaissaance qui sera utilisée u pour sttocker les informations qui vontt aider le term minal radio cognitive c danss ses futures prises de décisionss. 8.6.1. Formulation F du problèm me Danss le cas généraal de la RC, les utilisateurs cognitifs c comm muniquent viaa un canal en tenannt compte seuulement de saa disponibilitéé. L’étude de l’équipe de « Central

Impact de la radio cognitive sur le green networking

255

Supelec » a proposé d’ajouter une contrainte en plus de la disponibilité qui est la puissance de transmission pour minimiser la consommation d’énergie, mais un problème se pose lorsque l’on minimise la puissance de transmission car le débit sera affecté. Notre approche vise à améliorer l’efficacité énergétique en sélectionnant des canaux avec une faible puissance de transmission et un débit satisfaisant pour la communication, en adoptant un algorithme d’apprentissage par renforcement qui est le « Q_learning ». Chaque canal peut être considéré comme un état (S) ; se déplacer d’un canal à un autre est considéré comme une action (A). Supposons initialement que tous les canaux sont disponibles et qu’un débit minimal pour satisfaire la communication est connu. L’algorithme aura besoin d’une matrice de récompense R et produira une matrice de quantité Q. La matrice R contient pour chaque état (canal) une ligne avec les codages suivants : – 1 : (Pénalité) pour les transitions impossibles (dans le cas où le débit n’est pas satisfaisant) ; – 0 : les transitions possibles (dans le cas où le débit est satisfaisant) ; – 100 : (Récompense) pour l’état final (parmi les transitions possibles quel est le canal qui a la puissance la plus faible). Maintenant, la matrice Q est complétée par l’algorithme suivant : Pour chaque cycle : Sélectionnez un état initial aléatoire. Tant que l’état final n’a pas été atteint Faire. Sélectionnez l’une parmi toutes les actions possibles pour l’état actuel. En utilisant cette action possible, pensez à passer à l’état suivant. Obtenez la valeur Q maximale pour cet état suivant en fonction de toutes les actions possibles. Calculer Q : Q (état, action) = Q (état, action) + alpha * (R (état, action) + gamma * Max (état suivant, toutes les actions) - Q (état, action)). Définissez l’état suivant comme état actuel.

256

Gestion du niveau de service

Fin tant que Fin pour Vous avez peut-être remarqué deux facteurs alpha et gamma. – Alpha est le taux d’apprentissage. Le taux d’apprentissage détermine dans quelle mesure les informations nouvellement acquises remplaceront les anciennes informations. Un facteur de 0 fera que l’agent n’apprendra rien, tandis qu’un facteur de 1 fera que l’agent ne considérera que les informations les plus récentes. Dans notre étude, nous utiliserons un taux d’apprentissage constant de 0,8. – Gamma est le facteur de réduction et détermine l’importance des récompenses futures. Un facteur de 0 rendra l’agent « myope » en ne considérant que les récompenses actuelles, tandis qu’un facteur approchant 1 lui permettra d’obtenir une récompense élevée à long terme. Dans notre étude, nous utiliserons un facteur de réduction de 0,2. Après avoir construit la matrice Q, nous pouvons prévoir un canal avec une puissance faible et qui satisfait la communication comme suit : Partir d’un état initial donné, à partir de cet état, sélectionner l’action avec la valeur Q la plus élevée, dans le cas d’un canal occupé pondéré vers la valeur la moins élevée. 8.6.2. Comparaison entre RC et RC avec Q_learning Nous avons voulu comparer le rendement et l’efficacité énergétique dans la RC avec et sans Q_learning. Pour ce faire, nous supposons un environnement RC stable, deux utilisateurs souhaitant communiquer avec une exigence de débit important. Nous supposons aussi l’existence de 100 canaux initialement tous disponibles pour les utilisateurs. En revanche, nous avons effectué un découpage par rapport au débit : – découpage 1 : 70 canaux satisferont la communication et 30 sont insatisfaisants ; – découpage 2 : 50 canaux satisferont la communication et 50 sont insatisfaisants ; – découpage 3 : 30 canaux satisferont la communication et 70 sont insatisfaisants. Les utilisateurs, à l’aide des principes de la RC, détectent la puissance de transmission sur chaque canal ainsi que le débit qu’il propose. Dans le cas général de la RC, l’utilisateur effectuera des sauts d’un canal vers un autre de manière aléatoire jusqu’à ce qu’il trouve un canal satisfaisant en termes de débit. L’algorithme que nous

Impact de la radio cognitive sur le green networking

257

proposons permet d’évaluer les canaux selon le débit et la puissance de transmission pour choisir un canal qui satisfait la communication et proposer la puissance la moins faible en s’appuyant sur le principe du Q_learning, à l’aide de sa matrice de quantité qui constituera une base de connaissance pour les prochaines utilisations. La figure 8.8 représente une comparaison par rapport à la consommation d’énergie dans les deux cas sur une moyenne de 100 exécutions.

Figure 8.8. RC versus RC avec Q_learning

Nous remarquons clairement une différence dans la consommation d’énergie due au temps que prend l’utilisateur, dans le cas d’une RC basique, pour trouver le canal qui satisfait ses besoins et aussi le fait de choisir un canal aléatoirement ce qui augmente la possibilité de tomber sur un canal avec une puissance de transmission importante. En revanche, dans le cas où nous utilisons le Q_learning et grâce à son apprentissage, l’utilisateur transmet sur le canal adéquat avec une faible puissance. 8.7. Conclusion Au commencement, la radio cognitive fut présentée tel un nouveau paradigme pour la communication sans fil, survenue dans le but d’atténuer le manque de ressources radio. Ceci est rendu possible en raison de l’attribution dynamique des fréquences. Or, grâce à son agilité et sa capacité d’adapter intelligemment les paramètres de

258

Gestion du niveau de service

communication, la radio cognitive nous permet de minimiser la consommation d’énergie et d’orienter les réseaux sans fil vers des réseaux « green ». Nous avons proposé un mécanisme afin de rendre les communications sans fil plus efficaces énergétiquement. Dès lors, nos solutions impliquent d’employer les propriétés de reconfiguration et d’adaptation qu’octroie la radio cognitive et la collecte d’informations sur les bandes à utiliser. Ce dernier point est rendu possible grâce à l’apprentissage par renforcement pour augmenter la durée de vie d’un réseau et réduire son empreinte énergétique. Les contraintes auxquelles sont confrontées les TIC sont non négligeables. Cependant, afin que de telles approches puissent voir le jour, il est préférable qu’il y ait une collaboration entre les utilisateurs. En effet, ces derniers doivent interagir pour se coordonner et coopérer afin, par exemple, de sélectionner des débits inférieurs. Clairement, la radio cognitive est une technologie très prometteuse, mais un effort est primordial de la part de tous les acteurs pour s’en emparer. 8.8. Bibliographie Akyildiz, I.F. et al. (2006). Next generation/dynamic spectrum access/cognitive radio wireless networks: A survey. Computer Networks, 50(13), 2127–2159. Allman, M., Christensen, K., Nordman, B., Paxson, V. (2007). Enabling an EnergyEfficient Future Internet Through Selectively Connected EndSystems. Dans Proceedings of the Sixth ACM Workshop on Hot Topics in Networks (HotNetsVI). ACM, Atlanta. Barroso, L.A., Holzle, U. (2007). The Case for Energy-Proportional Computing. IEEE Computer, 40, 33–37. Ben Dhaou, A. (2011). Allocation dynamique des bandes spectrales dans les réseaux sans-fil à radio cognitive. Mémoire, Université du Québec, Montréal. Bianzino, A.P., Chaudet, C., Rossi, D. (2012). A survey of green networking research. IEEE Communications Surveys & Tutorials, 14(1), 3–20. Bloem, M., Alpcan, T., Basar, T. (2007). A Stackelberg Game for Power Control and Channel Allocation in Cognitive Radio Networks. Dans Workshop on Game theory for Communication networks 2007. GameComm, Nantes. Chowdhury, N.M.K., Boutaba, R. (2008). A Survey of Network Virtualization. Rapport, Université de Waterloo, Waterloo. Christensen, K.J., Gunaratne, C., Nordman, B., George, A.D. (2004). The Next Frontier for Communications Networks: Power Management. Computer Communications, 27, 1758–1770.

Impact de la radio cognitive sur le green networking

259

Elmachkour, M. et al. (2014). Green opportunistic access for cognitive radio networks: A minority game approach. Dans 2014 IEEE International Conference on Communications (ICC). IEEE, Sydney. EPA (2007). Report to Congress on Server and Data Center Energy Efficiency Public Law 109-431. Rapport, U.S. Environmental Protection Agency, Washington. ETNO, WWF (2007). Light–First Roadmap for Reduced CO2 Emissions in the EU and Beyond. World Wildlife Fund/European Telecommunications Network Operators’ Association, Bruxelles. Grace, D., Chen, J., Jiang, T., Mitchell, P.D. (2009). Using cognitive radio to deliver “green” communications. Dans 4th International Conference on Cognitive Radio Oriented Wireless Networks and Communications. IEEE, Hanover, 1–6. Gupta, P., Kumar, P.R. (2000). The capacity of wireless networks. Actes des transactions IEEE sur l’informatique théorique, 46(2), 388–404. Haykin, S. (2005). Cognitive radio: brain-empowered wireless communications. IEEE Journal on Selected Areas in Communications, 23(2), 201–220. Hedna, S. (2011). Gestion de l’économie d’énergie dans les réseaux sans fil 802.11 Ad Hoc. Thèse de doctorat, Université de Batna 2, Fesdis. Jiang, C., Shi, Y., Hou, Y.T., Kompella, S. (2011). On optimal throughput-energy curve for multi-hop wireless networks. Dans INFOCOM 2011. The 30th Conference on Computer Communications. IEEE, Shanghai. Jones, C.E., Sivalingam, K.M., Agrawal, P., Chen, J.C. (2001). A survey of energy efficient network protocols for wireless networks. Wireless Networks, 7(4), 343–358. Jouini, W., Ernst, D., Moy, C., Palicot, J. (2010). Upper confidence bound based decision making strategies and dynamic spectrum access. Dans International Conference on Communications, ICC’10. IEEE, Le Cap. Karray, M.K. (2010). Spectral and energy efficiencies of OFDMA wireless cellular networks. Dans WirelessDays 2010. IFIP, Venise, 1–5. Katz, R.H. (2009). Tech Titans Building Boom. IEEE Spectrum, 46, 40–54. Krief, F. (dir.) (2012). Green Networking. ISTE Ltd, Londres et Wiley, New York. Krunz, M., Muqattash, A., Lee, S.J. (2004). Transmission Power Control in Wireless Ad Hoc Networks: Challenges, Solutions, and Open Issues. IEEE Network, 18(5), 8–14. Liu, H., Liu, K., Zhao, Q. (2013). Learning in a changing world: Restless multiarmed bandit with unknown dynamics. IEEE Transactions on Information Theory, 59(3), 1902–1916.

260

Gestion du niveau de service

Liu, Y., Guo, L., Ma, H., Jiang, T. (2008). Energy Efficient on–demand Multipath Routing Protocol for Multi-hop Ad Hoc Networks. Dans IEEE 10th International Symposium on Spread Spectrum Techniques and Applications. IEEE, Bologne, 572–576. Maleki, S., Pandharipande, A., Leus, G. (2011). Energy-Efficient Distributed Spectrum Sensing for Cognitive Sensor Networks. IEEE SENSORS, 11(3), 565–573. Michael, N., Moy, C., Vinod, A.P., Palicot, J. (2010). Area-power trade-offs for flexible filtering in green radios. Journal of Communications and Networks, 12(2), 158–167. Mitola, J. (1998). Cognitive Radio. Thèse de doctorat, Université de Stockholm, Stochholm. Modi, N., Mary, P., Moy, C. (2015). QoS driven channel selection algorithm for opportunistic spectrum access. Dans IEEE Globecom 2015 Workshop on Advances in Software Defined Radio Access Networks and Context-aware Cognitive Networks. IEEE, San Diego. Modi, N., Moy, C., Mary, P. (2016). Machine Learning for Opportunistic Spectrum Access with Energy Consumption Constraint. Dans Journées scientifiques de l’URSI, Énergie et Radiosciences. URSI, Rennes. Nanda, S., Chiueh, T.-C. (2005). A Survey on Virtualization Technologies. Rapport, Department of Computer Science, SUNY, StonyBrook. Narayanaswamy, S., Kawadia, V., Sreenivas, R.S., Kumar, P.R. (2002). Power control in Ad-hoc Networks: Theory, Architecture, Algorithm and Implementation of the COMPOW Protocol. Dans European Wireless Conference. European Wireless, Florence. Nordman, B., Christensen, K. (2005). Reducing the Energy Consumption of Network Devices. Tutoriel, Universités de Berkeley et de South Florida, San Francisco. Ouni, A., Rivano, H., Valois, F. (2013). Réduction de la consommation d’énergie des réseaux cellulaires hétérogènes. Dans 15es Rencontres Francophones sur les Aspects Algorithmiques des Télécommunications. AlgoTel, Pornic, 1–4. Palicot, J. (2009). Cognitive radio: an enabling technology for the green radio communications concept. Dans Proceedings of the 2009 International Conference on Wireless Communications and Mobile Computing: Connecting the World Wirelessly. IWCMC, Leipzig, 489–494. Qureshi, A., Weber, R., Balakrishnan, H., Guttag, J., Maggs, B. (2009). Cutting the Electric Bill for Internet-Scale Systems. Dans Proceedings of the ACM Conference on Applications, Technologies, Architectures, and Protocols for Computer Communications (SIGCOMM 2009). ACM, Barcelone.

Impact de la radio cognitive sur le green networking

261

Ramanathan, R., Rosales-Hain, R. (2000). Topology control of multihop wireless networks using transmit power adjustment. Dans Proceedings of INFOCOM 2000. IEEE, Tel Aviv, 404–413. Roth, K.W., Goldstein, F., Kleinman, J. (2002). Energy Consumption by Office and Telecommunications Equipment in Commercial Buildings Volume I: Energy Consumption Baseline. Rapport, National Technical Information Service (NTIS), US Department of Commerce, Springfield. Stevenson, C.R., Chouinard, G., Lei, Z., Hu, W., Shellhammer, S.J., Caldwell, W. (2009). IEEE 802.22: The first cognitive radio wireless regional area network standard. IEEE communications magazine, 47(1), 130–138. TC Group (2008). SMART 2020: Enabling the low carbon economy in the information age – Global e-Sustainibility Initiative [En ligne]. Disponible à l'adresse : http://www.gesi.org. Weiser, M., Welch, B., Demers, A., Shenker, S. (1994). Scheduling for Reduced CPU Energy. Dans Proceedings of the 1st USENIX Conference on Operating Systems Design and Implementation (OSDI 1994). USENIX, Monterey.

Liste des auteurs Hossam AFIFI

Mohamed-Aymen CHALOUF

Télécom SudParis Institut Mines-Télécom Évry

IRISA Université de Rennes 1 Lannion

Hajer BARGAOUI

Samira CHOUIKHI

LIB Université de Bourgogne Franche-Comté Dijon

ICD Université de Technologie de Troyes

Benoît DARTIES Mohammed Salih BENDELLA STIC Université Abou Bekr Belkaid Tlemcen Algérie

LIRMM Université de Montpellier

Moez ESSEGHIR ICD Université de Technologie de Troyes

Badr BENMAMMAR LTT Université Abou Bekr Belkaid Tlemcen Algérie

Ahmad KHALIL

Chérifa BOUCETTA

Nader MBAREK

LIPADE Université Paris Descartes

LIB Université de Bourgogne Franche-Comté Dijon

LIB Université de Bourgogne Franche-Comté Dijon

264

Gestion du niveau de service

Leila MERGHEM-BOULAHIA

Hassine MOUNGLA

ICD Université de Technologie de Troyes

LIPADE Université Paris Descartes

Axel MOINET

Olivier TOGNI

LIB Université de Bourgogne Franche-Comté Dijon

LIB Université de Bourgogne Franche-Comté Dijon

Index 5G, 216

C

A

chiffrement, 182-186, 188, 189, 192 asymétrique, 182-184, 186

accès opportuniste, 250, 252, 253 apprentissage, 235, 249, 250, 252258 automatique, 211, 213, 217-219, 222, 229 profond, 213, 217-219, 229 approche, 213-215, 219, 221, 222, 225 authentification, 7, 8, 12-17, 21, 25

B Bitcoin, 185, 187 blockchain, 179, 180, 185-190, 193, 200, 201, 206 Blockchain Authentication and Trust Module (BATM), 180, 181, 188190, 193-195, 198, 200, 202, 203, 205, 206

symétrique, 182, 183, 185 classe de service, 153, 164-166 classification, 96, 98 Cloud Service Provider (CSP), 50, 51, 53, 5564, 66-69, 71, 72, 74, 75, 78, 80 User (CSU), 50, 51, 53, 55-62, 64, 66-69, 71, 72, 74-76, 78-80 communication, 144, 146, 149, 150 confiance, 12, 15, 16, 22-25, 28, 44, 179-182, 184-189, 193, 194, 196, 198-206 confidentialité, 13, 14, 17, 18, 22-24 connectivité, 238, 239, 245, 246 consommation d’énergie, 235-240, 242-245, 249-251, 255, 257, 258 contrôle d’accès, 12-18, 21, 23, 32

266

Gestion du niveau de service

D

I

Data Center (DC), 69 découverte, 212-214, 215, 219, 222, 224, 225, 227-229 directe, 212-215, 222, 224 dynamique, 222, 224 Demand -Response, 91, 93 -Side Management (DSM), 91, 92, 94-96, 98, 99, 101, 103 densité, 212, 213, 222-229 Device-to-Device (appareil-à -appareil), 211, 216 disponibilité, 18, 21-23, 31, 32, 35, 36 dossier médical personnel (DMP), 117, 122

IEEE 802.15.4, 29, 36-38, 41, 42, 44 indice de fiabilité, 196-198, 200, 203, 204 Infrastructure as a Service (IaaS), 51, 53, 54, 56, 58-60, 63, 67-69, 71, 72, 74, 75, 78-80 intégrité, 8, 13, 19-21, 25 inter-Cloud, 50, 55-58, 60, 63, 68, 80 Inter-Mesh Infrastructure Proactive Routing (IMPR), 164-167, 170, 172 Internet des objets (IdO ou IoT), 5-8, 10-13, 16-19, 21-33, 36, 43, 44 Intra-Mesh Infrastructure Reactive Routing (IMRR), 164-166, 168170, 172

E

L, M, N

e-santé, 10, 21, 24, 44 économie d’énergie, 243, 246 efficacité, 243, 249, 250, 252, 253, 255, 256 énergétique, 243, 249, 250, 252, 253, 255, 256 spectrale, 243, 253 Energy Management Unit (EMU), 91, 95, 96

Long Term Evolution (LTE), 212, 215, 216 Maximum Likelihood Trust Evaluation (MLTE), 189, 193-197, 200-206 mesh, 144-149, 151, 152, 154-156, 158-168, 170 métrique de routage, 156-158, 160162, 169 microgrid, 89, 90, 93, 102, 104, 105 Network as a Service (NaaS), 53-57, 5961, 64, 68, 69, 71, 72, 74, 75, 78-80 Service Execution (NSE), 188 non-répudiation, 20, 21

G, H gestion de la demande, 87, 88, 91, 96, 99, 101-106 green, 235-238, 242, 246, 249, 251, 258 networking, 235-237, 246, 249 Hybrid QoS Mesh Routing (HQMR), 144, 162-168, 170, 172

Index

267

O, P

S

optimisation, 88, 90, 92, 94, 96-102, 104, 211, 218, 222, 229 optimiser, 236, 237, 244, 245, 250, 252 performance(s) de découverte, 224 énergétiques, 224 planification, 88, 93-102, 104, 106 Platform as a Service (PaaS), 51, 53, 54, 58-60 puissance de transmission, 242-246, 249-252, 254-257

sécurité, 111, 113, 116-118, 129-136 service e-santé, 114, 118-122, 127, 130, 133, 136 smart contract, 187-190, 192-194, 200, 201, 206 grid, 87-91, 95, 99, 102, 103, 106 Software as a Service (SaaS), 51, 54, 56, 58-60, 67 système e-santé, 115-118, 121-124, 127-132, 134, 136

T Q Q_learning, 255-257 QBAIdO, 33, 36, 37, 39-44 qualité de service (QoS), 5, 6, 26, 27, 29, 32, 118-128, 136

R radio cognitive, 235, 246, 247, 249252, 254, 257, 258 réseaux sans fil, 242, 243, 246, 258 véhiculaires, 10, 11 routage, 144, 147, 151, 153, 155-168, 170, 171 à base d’arbre, 166 basé sur la QoS, 144, 162, 163, 171 hybride, 162, 163

téléconsultation, 112, 119, 120, 123 télédiagnostic, 119, 120, 126 télésoins, 112

U, V, W utilité, 89, 96, 104 vie privée, 5-7, 12, 13, 22-25, 44, 129-131, 133-136 villes intelligentes, 11 Wisenet, 188, 189, 193, 200, 206

Mbarek.qxp_Mise en page 1 25/02/2020 13:59 Page 1

Cet ouvrage présente différentes approches pour permettre la gestion d’un ou plusieurs composants du niveau de service dans différents environnements émergents tels que l’Internet des objets, le Cloud, les smart grids, la e-santé, les réseaux radio maillés, le D2D, les villes intelligentes ou encore le green networking. Il permet ainsi une meilleure compréhension des défis et enjeux importants relatifs à la gestion de la qualité de service, la sécurité et la mobilité dans ce type d’environnements.

Le coordonnateur Maître de conférences à l’école d’ingénieurs ESIREM de l’Université de Bourgogne, Nader Mbarek est responsable du thème Réseaux de l’équipe CombNet au sein du Laboratoire d’informatique de Bourgogne (LIB). Il est titulaire d’une thèse en informatique de l’Université de Bordeaux.

editions

Z(7ib7iJ-EIAACD(

sous la direction de Nader Mbarek

Le réseau devient embarqué dans notre vie quotidienne grâce à des composants de plus en plus petits, peu coûteux, puissants, rapides et de plus en plus connectés entre eux. Parallèlement à cette explosion quantitative des réseaux de communication, les technologies se complexifient. Cette évolution s’accompagne de challenges en termes de gestion et de contrôle, et il devient nécessaire de gérer le niveau de service demandé par le client et sur lequel s’engage le fournisseur de services.

RÉSEAUX ET COMMUNICATIONS

Gestion du niveau de service dans les environnements émergents

SCIENCES

Gestion du niveau de service dans les environnements émergents

editions

Gestion et contrôle des réseaux

sous la direction de Nader Mbarek