@@ -548,6 +548,48 @@ Les commandes pour tout mettre en place, en dehors de ce qui concerne l'interfac
## 6. Google Cloud
En parallèle de la démarche faite sur apache superset, nous avons tentés de faire una analyse des données via les service google : Big Query et Google Looker. Ces deux outils permettent de visualiser des données ainsi que d'effectuer des requêtes sur celles-ci. Il y aun fort esprit d'automatisation, cet outil est donc adapté au grand public, mais pas très pratique quand les données ne ont pas formatées exactement comme il le faut. Comme ce n'est pas un outil opensource mais bien un service payant, vous ne pourrez pas retracer les démarches (même si elles sont simplissimes).
Le plus compliué est surtout la compréhension des outils et des API liées, il y a énormément de ressources sur google cloud. Après avoir déterminer que j'allais utiliser BigQuery et Looker, il faut paramétrer une BD.
On commence ici, sur la [console du cloud](https://console.cloud.google.com/welcome)
### Chargement des données
Voici un [document avec toutes les screens de la démarche](https://docs.google.com/document/d/1VwRcHFEMhJao8cAhm8eDmFfIVcHG8Pdy4r915r_Xc6A/edit?usp=sharing)
1: On crée un nouveau projet, qu'on appelle ipbd00
2: On sélectionne BigQuery dans le volet lattéral gauche une fois qu'on a bien sélectionné le bon projet
3: Une fois sur la console de bigQuery, on sélectionne "+Ajouter"
4: On importe les données qu'on a localement
5: On définit la table (fichier correspondant et projet). Il faut aussi définir un ensemble de données pour le projet.
6: On appelle notre ensemble de données "data_originelle", et on sélectionne une région proche et peu consommatrice (vive l'environnement). On ne sélectionne pas d'autres options.
7: on définit le nom de la table et on active la détection automatique de la table (promis ça fonctionne plutôt bien dans notre cas)
8: On coche les ptions "Nouvelles lignes entre guillemets" pour gérer les sauts de lignes; et "Lignes irrégulières" puisque c'est le cas. On ne coche rien d'autre
9: On réitère les étapes 3 à 8 pour définir la table users
10: On répète l'étape 3 pour la table score, mais au lieu de sélectionner un fichier local, on va importer les données d'abord sur google cloud storage
11: On parcoure nos buckets. On en a pas : il faut en créer un.
12: On va sur la console du service Google Cloud Storge
13: On crée un bucket
14: On l'appelle scoreaaa parce qu'il faut qu'il soit unique.
15: On sélectionne région, et on choisit Paris
16: On choisit la classe standard, parce que cela correspond à nos besoins
17: On sélectionne un accès aux données uniforme
18: On a des options de protection des données, ici peu importe (je les décoche)
19: On a un bucket ! Il faut maintenant mettre des données dedans
20: On importe les données
21: On crée une table de la même façon que pour les autres, mais avec les fichiers d'origine du cloud (ceux qu'on vient d'ajouter)
22: On retourne sur la console BigQuery et on clique sur "Canevas de données"
23: On active le canevas
24: On autorise les API
25: On a un canevas de données où on peut ajouter des requêtes SQl, qui sont ensuite visualisables
26: Tada!
On peut voir également qu'il y a plein de services ajoutables, ce qui a l'air vraiment prometteur