Professional Documents
Culture Documents
Rapport Cloud Computing
Rapport Cloud Computing
SOMMAIRE
SOMMAIRE .............................................................................................................................................. 2
INTRODUCTION ....................................................................................................................................... 3
I. GENERALITE SUR LE CLOUD............................................................................................................. 4
II. ARCHITECTURE CLOUD DE NOTRE PROJET ..................................................................................... 4
III. ASPECT BIGDATA DU PROJET ET BASE DE DONNE ...................................................................... 5
1) Etude de quelques plateformes de Big Data ............................................................................... 5
1.1) Apache Hadoop ................................................................................................................... 6
1.2) Open Stack........................................................................................................................... 6
1.3) Google App Engine .............................................................................................................. 6
2) Installation de Apache Hadoop ................................................................................................... 7
3) Les bases de données NoSQL .................................................................................................... 17
3.1) Installation de Cassandra ....................................................................................................... 18
4) Quelques avantages et inconvénients des meilleurs stockages en ligne .................................. 25
5) Data Mining ............................................................................................................................... 26
CONCLUSION ......................................................................................................................................... 27
WEBOGRAPHIE ...................................................................................................................................... 28
20 janvier 2023 2
RAPPORT DE CLOUD COMPUTING
INTRODUCTION
Le paradigme selon lequel les données doivent être stockés de manière structurée et de manière
fortement typés relève du modèle mathématique implémentant les bases de données
relationnelles avec la mise en place d’un langage de requête appelé le SQL. Ceci étant, cette
façon de penser qui sépare totalement les données des traitements ne résous pas les problèmes
posés avec les nouvelles architectures et les problèmes un peu plus complexes. C’est donc ainsi
qu’est né un ensemble de SGBD qui s’éloigne du paradigme No SQL « pas seulement le SQL
ou Not Only SQL en Anglais ». La raison principale de l'émergence et de l'adoption des SGBD
NoSQL serait le développement des centres de données et la nécessité de posséder un
paradigme de bases de données adapté à ce modèle d'infrastructure matérielle3.
20 janvier 2023 3
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 4
RAPPORT DE CLOUD COMPUTING
Associer avec notre projet cela donne donc l’architechture suivante que l’on souhaite pour
notre projet.
En ce qui concerne l’aspect BigData de notre projet nous allons utiliser une base de donner qui
va offrir la possibilité de stocker les donnes de grand volume et de nature différente d’où on va
faire recoure aux bases de donne No SQL qui est une base de donner qui vas nous permettre
d’effectuer tous ce que nous voulons effectuer.
Dans notre cas nous avons concentrer nos recherches sur trois plateforme No SQL que nous
avons trouvé suffisant pour gérer les donner de notre système, ces trois plateformes sont entre
autres : APACHE HADOOP, OPEN STACK, GOOGLE APP ENGINE.
20 janvier 2023 5
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 6
RAPPORT DE CLOUD COMPUTING
Dans le cadre de notre projet intitulé SMART DRIVE, nous avons opter pour utiliser la
plateforme Apache Hadoop. Il est annoté qu’Apache Hadoop va nous servir ici à stocker toutes
les données relatives à la zone géographique (c’est-à-dire la longitude et la latitude), les
différentes vitesses.
20 janvier 2023 7
RAPPORT DE CLOUD COMPUTING
machine virtuelle configuré avec Cent OS7. Les packages tels que Java SDK 1.8 et Runtime
Systems requis pour exécuter Hadoop ont été téléchargés, et la variable d’environnement Java
Résultat de la tache 1 : Une nouvelle machine virtuelle avec une image cenOS7 a été
configurée pour exécuter Apache Hadoop. La figure 1 montre comment l’image CenOS 7 a
20 janvier 2023 8
RAPPORT DE CLOUD COMPUTING
Tâche 2 : Le package Hadoop Release 2.7.4 a été téléchargé à partir du site Web Apache et a
été extrait dans le dossier opt. Qui a ensuite été renommé Hadoop pour un accès facile.
Résultat de la tache 2 : La figure illustre la tâche effectuée pour extraire le package Hadoop
Figure 3
20 janvier 2023 9
RAPPORT DE CLOUD COMPUTING
Tâche 3 : Une fois les packages Hadoop extraits, l’étape suivante comprenait la configuration
fichiers XML de nœud Hadoop. Dans cette étape, NameNode a été configuré dans core-
pour l’utilisateur Hadoop, la figure montre la configuration des fichiers XML requis pour la
configuration Hadoop.
20 janvier 2023 10
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 11
RAPPORT DE CLOUD COMPUTING
Tâche 4 : Le pare-feu a été désactivé afin de démarrer YARN et DFS. La commande JPS a
été utilisée pour vérifier si les démons pertinents s’exécutent en arrière-plan. Le numéro de
Résultat de la tache 4 : La figure montre l’utilisation de la commande jps pour vérifier que
Tâche 5 : Les étapes suivantes ont été utilisées pour vérifier et tester Hadoop. Pour cela, nous
20 janvier 2023 12
RAPPORT DE CLOUD COMPUTING
utilisé pour compter le nombre de mots dans le fichier. Enfin, les résultats ont été évalués sur
l’hôte local et les journaux de la demande soumise ont été analysés. Toutes les applications
MapReduce soumises peuvent être consultées sur l’interface en ligne, le numéro de port par
wordcount, qui compte le nombre de mots dans le fichier. Les deux figures suivantes affichent
20 janvier 2023 13
RAPPORT DE CLOUD COMPUTING
Tâche 6 : Nous allons introduire quelques commandes de base du système de fichiers Hadoop
et vérifier leurs utilisations dans la tâche finale. Nous allons voir comment un répertoire peut
20 janvier 2023 14
RAPPORT DE CLOUD COMPUTING
être créé dans le système de fichiers Hadoop pour lister le contenu d’un répertoire, sa taille en
octets. Nous verrons plus loin comment supprimer un répertoire et un fichier spécifiques.
Résultat de la tache 6 :
La figure montre comment créer un répertoire dans le système de fichiers Hadoop et effectuer
Montre comment placer un fichier sur le système de fichiers distribué Hadoop et la figure 6.2
20 janvier 2023 15
RAPPORT DE CLOUD COMPUTING
Les quelques figures suivantes montrent comment lister le contenu de répertoires particuliers :
20 janvier 2023 16
RAPPORT DE CLOUD COMPUTING
La suppression d’un répertoire ou d’un fichier peut être facilement effectuée par la commande
-rm.
Les bases de données NoSQL sont désignées indifféremment comme « non relationnelles » ou
« non SQL » pour souligner le fait qu'elles peuvent gérer d'importants volumes de données non
structurées et évoluant rapidement, et de manière différente par rapport à une base de données
relationnelle (SQL) avec lignes et tables. Sur les types de base de données NoSQL, ce qui attire plus
mon attention est le magasin de document et base de données objets car celui des bases de données
objets ressemble un peu à un diagramme de classe et le magasin de document est enregistré sous
format JSON.
Propriétés du NO-SQL
Famille de NO-SQL
20 janvier 2023 17
RAPPORT DE CLOUD COMPUTING
Le kit de développement Java contient tous les outils et logiciels dont vous avez besoin pour exécuter
des applications écrites en Java. C’est une condition préalable aux solutions logicielles telles
qu’Apache Cassandra.
Faites défiler vers le bas et localisez le lien de téléchargement Java SE Development Kit 8u251for
Windows x64. Le téléchargement de Java 8 démarre automatiquement après l’inscription.
20 janvier 2023 18
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 19
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 20
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 21
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 22
RAPPORT DE CLOUD COMPUTING
6. Accédez à ce PC > disque local C : > Program Files > Java > jdk1.8.0_251et
sélectionnez OK.
7. Une fois que le chemin d’accès correct au dossier d’installation JDK 8 a été ajouté à la
variable système JAVA_HOME, cliquez sur OK.
8. Vous avez ajouté avec succès la variable système JAVA_HOME avec le chemin JDK
8 correct à la liste des variables. Sélectionnez OK dans la fenêtreprincipale Variables
d’environnement pour terminer le processus.
20 janvier 2023 23
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 24
RAPPORT DE CLOUD COMPUTING
20 janvier 2023 25
RAPPORT DE CLOUD COMPUTING
✓ Fonctionnalités de ✓ Collaboration
partage ; limitée ;
✓ Applications ✓ Vitesse de
mobiles ; téléchargement ;
✓ Chat anonyme ✓ Tarifs assez élevés
5) Data Mining
Le Data Mining désigne le processus d'analyse de volumes massifs de données et du Big
Data sous différents angles afin d'identifier des relations entre les data et de les transformer en
informations exploitables.
Comment faire du Data Mining : Pour y parvenir, le Data Mining s'appuie sur la
masse de données laissées par vos prospects et clients dans votre environnement digital. Cette
stratégie, appartenant au Big Data, se concentre essentiellement sur les données marketing.
Un outil de Data Mining est capable de : Catégoriser les renseignements obtenus. Pour cela il
existe deux catégories : Classification (chercher de nouvelles patterns, quitte à changer la
façon dont les données sont organisées), Clustering (trouver et documenter visuellement des
groupes de faits précédemment inconnus).
20 janvier 2023 26
RAPPORT DE CLOUD COMPUTING
CONCLUSION
Le Big Data a joué un rôle très important dans le façonnement du marché mondial
d’aujourd’hui. Le framework Hadoop facilite la vie des analystes de données lorsqu’ils
travaillent sur des jeux de données volumineux. La configuration d’Apache Hadoop était assez
simple et l’interface utilisateur en ligne offrait à l’utilisateur de multiples options pour régler et
gérer l’application. Hadoop a été massivement utilisé dans les organisations pour le stockage
de données, l’analyse de l’apprentissage automatique et la sauvegarde des données. La gestion
d’une grande quantité de données a été très pratique grâce à l’environnement distribué Hadoop
et à MapReduce. Le développement Hadoop était assez étonnant par rapport aux bases de
données relationnelles car elles manquent d’options de réglage et de performances. Apache
Hadoop est une solution conviviale et peu coûteuse pour gérer et stocker efficacement le Big
Data. HDFS contribue également grandement au stockage des données.
20 janvier 2023 27
RAPPORT DE CLOUD COMPUTING
WEBOGRAPHIE
➢ Installez Cassandra sur Windows 10: tutoriel avec des étapes simples (phoenixnap.com)
20 janvier 2023 28