diff --git a/rapport/rapport.md b/rapport/rapport.md
index 4f0013091ab2d03d6fdcb72c664e79bce91f9ea6..2854439e687236b6d9bdfa52ba9630392e1f84ad 100644
--- a/rapport/rapport.md
+++ b/rapport/rapport.md
@@ -13,10 +13,10 @@ toc-depth: 3
 titlepage: true
 papersize: a4paper
 ---
+\newpage
+
 # Analyse des tendances sur les animés
 
-```toc
-```
 
 ## 1. Objectifs et mise en place
 
@@ -88,10 +88,9 @@ Afin de téléchargé les données sur kaggle, on a obtenu une commande `wget` p
 
 Cette commande est dans le script `download_dataset.sh` :
 ```shell
-wget --header="Host: storage.googleapis.com" --header="User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124.0.0.0 Safari/537.36" --header="Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,/;q=0.8,application/signed-exchange;v=b3;q=0.7" --header="Accept-Language: fr-FR,fr;q=0.9,en-US;q=0.8,en;q=0.7,zh-TW;q=0.6,zh-CN;q=0.5,zh;q=0.4" --header="Referer: https://www.kaggle.com/" "https://storage.googleapis.com/kaggle-data-sets/3384322/6207733/bundle/archive.zip?X-Goog-Algorithm=GOOG4-RSA-SHA256&X-Goog-Credential=gcp-kaggle-com%40kaggle-161607.iam.gserviceaccount.com%2F20240519%2Fauto%2Fstorage%2Fgoog4_request&X-Goog-Date=20240519T145233Z&X-Goog-Expires=259200&X-Goog-SignedHeaders=host&X-Goog-Signature=1ac8f9216a239f62f3aa19666ce2b09c188d1d34d5199cf254a3677292e1b893eb10d0e2280baf0cbfb1f21d38a2b99f55e3e080beaa4a376d07326750503e15f35e123e2efd21c2c300a82c5bc06c787528bbe5e0d6b7be5a31bc0e6fb458b9a59456233fb852c658827d1dd547ca683890de508dd88940526568357bdd28611409ed5db0e479abf7b6f98855cd942d0cebfae55d463f288640c594bce7e11cd9f460e941cec80a7713e7faa54e69e3e9c4e9e3cd87b11bc35aa74439f96f80c2d592c6a97519353ca099d62e7276bec190a99e9327aee45ab9531d86f8f6be65fb3931148dbd4342712849494a71adcfe0b4eb54051582393fe8a98ebf68bc" -c -O 'dataset.zip'
+wget --header="Host: storage.googleapis.com" --header="User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124.0.0.0 Safari/537.36" --header="Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,/;q=0.8,application/signed-exchange;v=b3;q=0.7" --header="Accept-Language: fr-FR,fr;q=0.9,en-US;q=0.8,en;q=0.7,zh-TW;q=0.6,zh-CN;q=0.5,zh;q=0.4" --header="Referer: https://www.kaggle.com/" "https://storage.googleapis.com/kaggle-data-sets/3384322/6207733/bundle/archive.zip?X-Goog-Algorithm=GOOG4-RSA-SHA256&X-Goog-Credential=gcp-kaggle-com%40kaggle-161607.iam.gserviceaccount.com%2F20240522%2Fauto%2Fstorage%2Fgoog4_request&X-Goog-Date=20240522T203759Z&X-Goog-Expires=259200&X-Goog-SignedHeaders=host&X-Goog-Signature=453dbfb399d0714269c8ea5f7707f893443249dc297dd21a32d408dbfb38eb2bced6c0e361d1ab57b8ad8554ea2f813a96347a68892b3d3bd9de02e1a81c77822bd5130f0966133859b331f355a223fbf2325ddcfbbac9626de8ca6be001165a4508e4523d3c82c0625a635719e779ccb35fa574b9f647727c34f65d36e95a24d099a714c088a51ead5620fa695093d5c35380276284f5d56fd6e13df688865e1567622adcc8f2fc31c341b5c45763f056596bc119216b52ea086205c3745260237af2422144c636ee31a3d396ce8b8473223edd76b4d15d3c5fde1cb33287977620762439136892e45dd8dd86adc7c0947737c6f79eee364510483354984acb" -c -O 'dataset.zip'
 ```
-Les scripts en questions sont disponibles sur le git.
-
+Les scripts en questions sont disponibles sur le git. Cette requête wget dépend d'une données d'authentification qui n'est pas permanente et ne fonctionnera donc pas indéfiniment. Il faudrait faire usage du git contenant les scripts de récupération des données directement si on souhaite une méthode intemporelle.
 
 On télécharge l'archive des données avec la requête wget puis on l'extrait :
 ```shell
@@ -531,19 +530,16 @@ On clique ensuite sur "Connect", la db est créée sur Superset bien qu'une erre
 
 ## 5. Pour aller plus loin
 
-Superset est actuellement toujours configuré en mode développement. Mettre en place un environnement de production digne de ce nom selon les indications de la documentation nécessite un certain nombre de changement.
-
-On a également essayé de créer des dashboards à partir de nos datasets, mais l'import des données depuis hive a été mal géré par superset (conversion en VARCHAR des STRING). Il faudrait réessayer en compressant les données au préalable.
-
-https://superset.apache.org/docs/configuration/configuring-superset/#setting-up-a-production-metadata-database
-https://superset.apache.org/docs/installation/docker-compose
-https://minikube.sigs.k8s.io/docs/start/
-minikube : kubernetes pour une seul host (VM).
+On a également essayé de créer des dashboards à partir de nos datasets, mais l'import des données depuis hive a été mal géré par superset (conversion en VARCHAR de tous les types de données). Il faudrait réessayer en important les données de la table externe dans une table géré directement par Hive (format orc par exemple). Il faut également faire usage du prétraitement, et donc modifier les requêtes SQL afin de correspondre aux changements.
 
+Superset est actuellement toujours configuré en mode développement. Mettre en place un environnement de production digne de ce nom selon les indications de la documentation nécessite un certain nombre de changement.
 
-## TL;DR
+La documentation utile pour cela :
+- https://superset.apache.org/docs/configuration/configuring-superset/#setting-up-a-production-metadata-database
+- https://superset.apache.org/docs/installation/docker-compose
+- https://minikube.sigs.k8s.io/docs/start/
 
-Les commandes pour tout mettre en place, en dehors de ce qui concerne l'interface Superset et la création des dashboard (via l'UI).
+Le logiciel minikube est un kubernetes pour un seul host (VM).
 
 
 ## 6. Google Cloud
@@ -553,36 +549,37 @@ En parallèle de la démarche faite sur apache superset, nous avons tentés de f
 Le plus compliué est surtout la compréhension des outils et des API liées, il y a énormément de ressources sur google cloud. Après avoir déterminer que j'allais utiliser BigQuery et Looker, il faut paramétrer une BD.
 
 On commence ici, sur la [console du cloud](https://console.cloud.google.com/welcome)
+
 ### Chargement des données
 
-Voici un [document avec toutes les screens de la démarche](https://docs.google.com/document/d/1VwRcHFEMhJao8cAhm8eDmFfIVcHG8Pdy4r915r_Xc6A/edit?usp=sharing)
-
-1: On crée un nouveau projet, qu'on appelle ipbd00
-2: On sélectionne BigQuery dans le volet lattéral gauche une fois qu'on a bien sélectionné le bon projet
-3: Une fois sur la console de bigQuery, on sélectionne "+Ajouter"
-4: On importe les données qu'on a localement 
-5: On définit la table (fichier correspondant et projet). Il faut aussi définir un ensemble de données pour le projet.
-6: On appelle notre ensemble de données "data_originelle", et on sélectionne une région proche et peu consommatrice (vive l'environnement). On ne sélectionne pas d'autres options.
-7: on définit le nom de la table et on active la détection automatique de la table (promis ça fonctionne plutôt bien dans notre cas)
-8: On coche les ptions "Nouvelles lignes entre guillemets" pour gérer les sauts de lignes; et "Lignes irrégulières" puisque c'est le cas. On ne coche rien d'autre
-9: On réitère les étapes 3 à 8 pour définir la table users
-10: On répète l'étape 3 pour la table score, mais au lieu de sélectionner un fichier local, on va importer les données d'abord sur google cloud storage
-11: On parcoure nos buckets. On en a pas : il faut en créer un.
-12: On va sur la console du service Google Cloud Storge
-13: On crée un bucket
-14: On l'appelle scoreaaa parce qu'il faut qu'il soit unique.
-15: On sélectionne région, et on choisit Paris
-16: On choisit la classe standard, parce que cela correspond à nos besoins
-17: On sélectionne un accès aux données uniforme
-18: On a des options de protection des données, ici peu importe (je les décoche)
-19: On a un bucket ! Il faut maintenant mettre des données dedans
-20: On importe les données
-21: On crée une table de la même façon que pour les autres, mais avec les fichiers d'origine du cloud (ceux qu'on vient d'ajouter)
-22: On retourne sur la console BigQuery et on clique sur "Canevas de données"
-23: On active le canevas 
-24: On autorise les API
-25: On a un canevas de données où on peut ajouter des requêtes SQl, qui sont ensuite visualisables
-26: Tada!
+Voici un [document avec tous les screens de la démarche](https://docs.google.com/document/d/1VwRcHFEMhJao8cAhm8eDmFfIVcHG8Pdy4r915r_Xc6A/edit?usp=sharing)
+
+1. On crée un nouveau projet, qu'on appelle ipbd00
+2. On sélectionne BigQuery dans le volet lattéral gauche une fois qu'on a bien sélectionné le bon projet
+3. Une fois sur la console de bigQuery, on sélectionne "+Ajouter"
+4. On importe les données qu'on a localement 
+5. On définit la table (fichier correspondant et projet). Il faut aussi définir un ensemble de données pour le projet.
+6. On appelle notre ensemble de données "data_originelle", et on sélectionne une région proche et peu consommatrice (vive l'environnement). On ne sélectionne pas d'autres options.
+7. on définit le nom de la table et on active la détection automatique de la table (promis ça fonctionne plutôt bien dans notre cas)
+8. On coche les ptions "Nouvelles lignes entre guillemets" pour gérer les sauts de lignes; et "Lignes irrégulières" puisque c'est le cas. On ne coche rien d'autre
+9. On réitère les étapes 3 à 8 pour définir la table users
+10. On répète l'étape 3 pour la table score, mais au lieu de sélectionner un fichier local, on va importer les données d'abord sur google cloud storage
+11. On parcoure nos buckets. On en a pas : il faut en créer un.
+12. On va sur la console du service Google Cloud Storge
+13. On crée un bucket
+14. On l'appelle scoreaaa parce qu'il faut qu'il soit unique.
+15. On sélectionne région, et on choisit Paris
+16. On choisit la classe standard, parce que cela correspond à nos besoins
+17. On sélectionne un accès aux données uniforme
+18. On a des options de protection des données, ici peu importe (je les décoche)
+19. On a un bucket ! Il faut maintenant mettre des données dedans
+20. On importe les données
+21. On crée une table de la même façon que pour les autres, mais avec les fichiers d'origine du cloud (ceux qu'on vient d'ajouter)
+22. On retourne sur la console BigQuery et on clique sur "Canevas de données"
+23. On active le canevas 
+24. On autorise les API
+25. On a un canevas de données où on peut ajouter des requêtes SQl, qui sont ensuite visualisables
+26. Tada!
 
 On peut voir également qu'il y a plein de services ajoutables, ce qui a l'air vraiment prometteur