diff --git a/TP1 log.txt b/TP1 log.txt
index a999c88f1892c47f519d096ed4cb7f526552b0fc..a0616e81a9973f607e0f4da52e267e6f662596ab 100644
--- a/TP1 log.txt	
+++ b/TP1 log.txt	
@@ -15,7 +15,7 @@ lsof/netstat/wget/netcat
 Sécurisation des instances
 1. test d'envoi/reception de fichier via la commande netcat (https://doc.fedora-fr.org/wiki/Netcat,_connexion_client/serveur_en_bash)
 1.1 sur machine serveur #sudo nc -l 8080 < fichierEnvoye
-1.2 sur machine client #nc addrIp 8080 > fichierRecu
+1.2 sur machine client #nc addrIp 8080 > fichierReçu
 2. installer wireshark (tshark pour la version de wireshark en ligne de commande) sur la mach. virt. puis sauvegarder la surveillance dans un fichier pour ensuite le rediriger via netcat vers la machine client
 2.1 recupérer le nom de la carte réseau => 'ens3'
 2.1 créer le fichier capture-output.pcap et lui donner les droits d'écriture #touch capture-output.pcap #chmod a+w capture-output.pcap
diff --git a/TP5 log.txt b/TP5 log.txt
index 6a5fc5f7838b602393e2cec3d17e25eecb62689f..36c7092478b608993f97e94bb2da47ac4aa4eabe 100644
--- a/TP5 log.txt	
+++ b/TP5 log.txt	
@@ -63,14 +63,14 @@ Pour construire l'image "go_server":
 #dockebuild -t go_server .
 Pour construire le container de l'image "go_server", 
 le rendre accessible depuis le port 8080 sur la mach. hôte et y insérer une variable d'environnement HOSTNAME:
-#dockebuild -t go_server .
+#docker build -t go_server .
 #docker run --rm -ti -p 8080:80 -e HOSTNAME=$(hostname) go_server
 
 Au final l'image contenant le fichier compilé "main" aura une taille de 4.55MB.
 
 
 Déploiement de l'image:
-J'utilise l'outil Ansible pour déploier l'image sur mes 4 instances d'openstack
+J'utilise l'outil Ansible pour déployer l'image sur mes 4 instances d'openstack
 Commande pour exécuter le playbook ansible:
 #ansible-playbook -i hosts.yml serveur_go.yml -e hostname=$(hostname) --private-key ssh-private-key.txt
 
diff --git a/TP5_06.11.20/ansible/Gofiles/main.go b/TP5_06.11.20/ansible/Gofiles/main.go
index d8f475894660887cb5c98ebddf2a82538133b352..18d1c2469f2df69e380f7b1ad7662436de9137ea 100644
--- a/TP5_06.11.20/ansible/Gofiles/main.go
+++ b/TP5_06.11.20/ansible/Gofiles/main.go
@@ -7,9 +7,14 @@ import(
 )
 
 func main(){
+	// pour faire tourner le CPU, utile pour vérifier la charge réseau
+	sum := 0
+	for i := 1; i < 10000; i++ {
+		sum += i
+	}
 	http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request){
 		r.Header.Set("Content-type", "text/html")
-		fmt.Fprintf(w, "<h1>Hello hostname: %s</h1>", os.Getenv("HOSTNAME"))
+		fmt.Fprintf(w, "<h1>Hello hostname: %s</h1><br/><h3>counter: %d</h3>", os.Getenv("HOSTNAME"), sum)
 	})
 
 	http.ListenAndServe(":80", nil)
diff --git a/TP5_06.11.20/ansible/nginx_loadbalencing/serveur_go_different_hostname_for_ip.yml b/TP5_06.11.20/ansible/nginx_loadbalencing/serveur_go_different_hostname_for_ip.yml
index e90368176ed8a8463a2c80ba02cd3123707866e9..502384ef3bf6828e96a82355efe3d58fbf29e4e7 100644
--- a/TP5_06.11.20/ansible/nginx_loadbalencing/serveur_go_different_hostname_for_ip.yml
+++ b/TP5_06.11.20/ansible/nginx_loadbalencing/serveur_go_different_hostname_for_ip.yml
@@ -30,11 +30,6 @@
 
     #remove containers and images part
     # supprimer le container et l'image si ils existent déjà
-    - name: stop and remove contgo_server
-      docker_container:
-        name: contgo_server
-        state: absent
-
     - name: stop and remove contnginx_reverse_proxy
       docker_container:
         name: contnginx_reverse_proxy
@@ -42,6 +37,13 @@
       when: 
         - ansible_default_ipv4.address == "172.28.100.111"
 
+    - name: stop and remove contgo_server
+      docker_container:
+        name: contgo_server
+        state: absent
+
+    
+
 
 
     - name: stop and remove go_serverimg on every worker
diff --git a/TP5_06.11.20/ansible/nginx_loadbalencing/worker_go_server_files/main.go b/TP5_06.11.20/ansible/nginx_loadbalencing/worker_go_server_files/main.go
index d8f475894660887cb5c98ebddf2a82538133b352..13914403a3c406eaf245afdba96da818b72169e4 100644
--- a/TP5_06.11.20/ansible/nginx_loadbalencing/worker_go_server_files/main.go
+++ b/TP5_06.11.20/ansible/nginx_loadbalencing/worker_go_server_files/main.go
@@ -7,9 +7,15 @@ import(
 )
 
 func main(){
+	
 	http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request){
+		// pour faire tourner le CPU, utile pour vérifier la charge réseau
+		sum := 0
+		for i := 1; i < 1000; i++ {
+			sum += i
+		}
 		r.Header.Set("Content-type", "text/html")
-		fmt.Fprintf(w, "<h1>Hello hostname: %s</h1>", os.Getenv("HOSTNAME"))
+		fmt.Fprintf(w, "<h1>Hello hostname: %s</h1><br/><h3>counter: %d</h3>", os.Getenv("HOSTNAME"), sum)
 	})
 
 	http.ListenAndServe(":80", nil)
diff --git a/TP5_06.11.20/main.go b/TP5_06.11.20/main.go
index d8f475894660887cb5c98ebddf2a82538133b352..18d1c2469f2df69e380f7b1ad7662436de9137ea 100644
--- a/TP5_06.11.20/main.go
+++ b/TP5_06.11.20/main.go
@@ -7,9 +7,14 @@ import(
 )
 
 func main(){
+	// pour faire tourner le CPU, utile pour vérifier la charge réseau
+	sum := 0
+	for i := 1; i < 10000; i++ {
+		sum += i
+	}
 	http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request){
 		r.Header.Set("Content-type", "text/html")
-		fmt.Fprintf(w, "<h1>Hello hostname: %s</h1>", os.Getenv("HOSTNAME"))
+		fmt.Fprintf(w, "<h1>Hello hostname: %s</h1><br/><h3>counter: %d</h3>", os.Getenv("HOSTNAME"), sum)
 	})
 
 	http.ListenAndServe(":80", nil)
diff --git a/TP6 log.txt b/TP6 log.txt
index 9ef6c7d1d7805d0c760e1bd424fd5b7ca58ecf08..e4f630c4f24e23077e3e2b2df4699c299feb40cd 100644
--- a/TP6 log.txt	
+++ b/TP6 log.txt	
@@ -1,4 +1,5 @@
 TP6 (13.11.2020)
+Partie 1:
 Monitoring
 
 Partie test sur ma propre machine:
@@ -9,7 +10,7 @@ Node-exporter est à lancer sur une machine pour qu'il expose au format http les
 Prometheus va aller chercher ces données et les stockées. Depuis prometheus on peut en sortir des statistiques.
 Graphana permet d'en faire des graphes sur ces stats.
 
-#docker rum --rm -p 9100:9100 -v /:/hostfs --network host prom/node-exporter
+#docker run --rm -p 9100:9100 -v /:/hostfs --network host prom/node-exporter
 9100 est le port par défaut de node-exporter
 On va créer un volume (on va juste binder l'arborescence de la machine hote au chemin /hostfs du container)
 Il faut lier le réseau du container avec le réseau de la machine hote (= et donc --network host)
@@ -47,8 +48,8 @@ Espace disponible pour les utilisateurs non-root:
 Prometheus 
 permet de récuperer et analyser les données de node exporter.
 Aller dans le dossier /TP6_20.11.20/ et lancer:
-#docker run --rm -p 9090:9090 -v "$(pwd)/prometheus.yml":/etc/prometheus/prometheus.yml prom/prometheus
-où je met en place un volume où mon fichier prometheus (voir TP6_20.11.20/prometheus.yml) est lié dans /etc/prometheus/ avec le même nom de fichier.
+#docker run --rm -p 9090:9090 -v "$(pwd)/prometheus_monitoring.yml":/etc/prometheus/prometheus.yml prom/prometheus
+où je met en place un volume où mon fichier prometheus (voir TP6_20.11.20/prometheus_monitoring.yml) est lié dans /etc/prometheus/ avec le nom de fichier 'prometheus.yml'.
 et j'utilise l'image 'prom/prometheus'.
 
 
@@ -90,11 +91,164 @@ Worker4:
 
 commande:
 Aller dans le dossier /TP6_20.11.20/ansible/ et lancer:
-#ansible-playbook -i hosts.yml grafana_prometheus_and_nodeWorker.yml --private-key ssh-private-key.txt
+#ansible-playbook -i hosts.yml grafana_prometheus_and_nodeExporter.yml --private-key ssh-private-key.txt
 
 
-L'image représentant les graphes grafana se situe dans /TP6_20.11.20/
+L'image représentant les graphes grafana des 4 workers se situe dans /TP6_20.11.20/
 
 extra: (commande pour transferer un fichier via scp)
 scp -i ssh-private-key.txt -v DAC/tmp.avi ubuntu@172.28.100.111:/home/ubuntu
 
+
+
+
+
+
+
+Partie 2:
+Status des instances
+
+whitebox:
+accès à la machine sans authentification
+blackbox:
+accès à la machine avec authentification
+
+
+blackbox-exporter permet de récupérer des informations sur la charge en temps réel des protocoles/ports HTTP, HTTPS, DNS, TCP et ICMP.
+Il ne fournit donc pas des informations sur le matériel de la machine comme le fait node-exporter.
+
+blackbox-exporter est un module de prometheus, un peu comme une extension.
+Il permet, quand on lui a fourni le module à exécuter, de récupérer des informations sur la charge en temps réel 
+des protocoles/ports HTTP, HTTPS, DNS, TCP et ICMP des targets passés en paramètre dans le fichier prometheus.yml
+
+
+étapes:
+1) on configure le module pour parametrer quels ports et quels versions de ports (ex: http/1.0 ou http/1.1 etc.) on va vérifier sur les targets.
+2) on lance blackbox exporter avec le fichier de config crée en étape1 (blackbox.yml)
+3) on adapte notre prometheus.yml pour qu'il utilise le module blackbox crée en étape 1 et 2
+4) on lance prometheus
+
+
+Aller dans le dossier /TP6_20.11.20/ et lancer:
+pour blackbox:
+#docker run --rm -p 9115:9115 -v "$(pwd)":/config prom/blackbox-exporter:master --config.file=/config/blackbox.yml
+pour prometheus:
+#docker run --rm -p 9090:9090 -v "$(pwd)/prometheus_blackbox.yml":/etc/prometheus/prometheus.yml prom/prometheus
+
+
+
+
+Partie 3:
+Test de charge
+
+La query utile pour vérifier la charge des requetes HTTP:
+probe_http_duration_seconds{instance="192.168.1.4",job="blackbox"}
+
+ce query permet de récolter sur un graphe la charge nécessaire pour chaque étape de connexion du protocole http.
+Les étapes sont:
+- resolve time
+  représente le temps nécessaire à récupérer l'addr IP du serveur auquel on veut se connecter auprès d'un serveur DNS
+  si on insère directement l'addr IP dans la barre d'addr URL, ce temps est de 0 millisec. (=> pas de conversion à faire)
+- connect time
+  représente le temps nécessaire à rejoindre le serveur auquel on veut se connecter
+- processing time
+  représente le temps nécessaire à ce que l'application sur le serveur distant met à traiter la requête.
+- transfer time
+  représente le temps nécaissaire à ce que le serveur distant puisse envoyer toute sa réponse au client.
+  (c'est en qque sorte le rôle opposé au connect time)
+- tls
+  (à confirmer) représente le temps nécessaire lors d'une requête https à crypter la requête.
+
+(https://knowledge.broadcom.com/external/article/48362/meaning-of-performance-graph-legends-res.html)
+
+
+pour grafana:
+#docker run --rm -p 3000:3000 grafana/grafana
+
+
+commande pour envoyer 10000 requetes vers une cible: (DDOS)
+#for i in $(seq 10000); do (curl -s 'http://192.168.1.4:8000' > /dev/null &); done;
+
+
+
+
+
+Partie Mise en place sur mes 4 workers de la partie 2 et 3:
+blackbox-exporter sera un container distinct sur le worker 2. 
+Il ne doit pas être installé sur chaque machine car celui-ci est un module pour prometheus.
+Il doit donc être installé seulement 1 seule fois.
+Worker1: 
+  - loadbalencer nginx:9080
+  - serveur_go:8000
+  - node-exporter:9100
+Worker2:
+  - serveur_go:8000
+  - node-exporter:9100
+  - prometheus:9090
+  - grafana:3000
+  - blackbox-exporter:9115
+Worker3:
+  - serveur_go:8000
+  - node-exporter:9100
+Worker4:
+  - serveur_go:8000
+  - node-exporter:9100
+
+(ts les fichiers utilisés sont dans /TP6_20.11.20/ansible)
+
+
+Le problème suivant est soulevé:
+HTTP correspond au port 80 et mes serveurs 'go' émettent sur le port 8000 sur chaque worker.
+Pour corriger cela, j'ai ajouté à chaque target le port 8000 dans le fichier prometheus_blackbox.yml. 
+De cette manière, 
+prometheus accèdera au worker au port 8000 au lieu de 80
+
+
+commande:
+Aller dans le dossier /TP6_20.11.20/ansible/ et lancer:
+#ansible-playbook -i hosts.yml grafana_prometheus_and_blackbox.yml --private-key ssh-private-key.txt
+
+Dans le cas de la construction du container de blackbox, il m'est impossible de passer des arguments tels que 
+'--config.file=/config/blackbox.yml'
+https://stackoverflow.com/questions/35540061/pass-command-line-arguments-to-docker-with-ansible
+https://groups.google.com/g/ansible-project/c/DXCg-2drIIE?pli=1
+
+pour corriger cela, j'utilise shell dans mon playbook ansible.
+
+Querys:
+Worker1:
+  probe_http_duration_seconds{group="workers_machines",instance="172.28.100.111:8000",job="blackbox"}
+Worker2:
+  probe_http_duration_seconds{group="workers_machines",instance="172.28.100.99:8000",job="blackbox"}
+Worker3:
+  probe_http_duration_seconds{group="workers_machines",instance="172.28.100.51:8000",job="blackbox"}
+Worker4:
+  probe_http_duration_seconds{group="workers_machines",instance="172.28.100.19:8000",job="blackbox"}
+
+load_balencer du worker1:
+  probe_http_duration_seconds{group="load_balencer",instance="172.28.100.111:9080",job="blackbox"}
+
+Surcharge réseau DoS:
+#hping3 --faster 
+https://kchristianthomas.wordpress.com/attaque-ddos-sous-linux/
+https://linuxhint.com/hping3/
+https://tools.kali.org/information-gathering/hping3
+
+ou sinon utiliser l'outil 'hulk'
+https://github.com/grafov/hulk
+
+terminé à :
+probe_duration_seconds{instance="172.28.100.111:8080",job="blackbox"}
+soft. utilisé: Hulk
+(
+  docker build -t hulk .
++
+  docker run -it -eHULKMAXPROCS=10096 hulk -site http://172.28.100.111:9080/
+)
+
+L'image représentant les graphes grafana sur la charge du protocole HTTP des 4 workers et du load_balencer se situe dans /TP6_20.11.20/
+
+
+
+pour pouvoir qnd même vérifier la charge réseau lorsqu'on éteint 1 worker sur les 4, on regarde le temps nécaissaire pour que ttes les requetes soient terminées avec 4 workers
+et faire la meme chose avec 3 workers et regarder si il y a un changement
\ No newline at end of file
diff --git a/TP6_20.11.20/ansible/blackbox/blackbox.yml b/TP6_20.11.20/ansible/blackbox/blackbox.yml
new file mode 100644
index 0000000000000000000000000000000000000000..9e0fb1d71fbbc1fa10ee74ea6786230b955b7e07
--- /dev/null
+++ b/TP6_20.11.20/ansible/blackbox/blackbox.yml
@@ -0,0 +1,7 @@
+modules:
+  http_2xx:
+    prober: http
+    timeout: 5s
+    http:
+      valid_http_versions: ["HTTP/1.1", "HTTP/2.0", "HTTP/1.0"]
+      valid_status_codes: [] # Defaults to 2xx
\ No newline at end of file
diff --git a/TP6_20.11.20/ansible/grafana_prometheus_and_blackbox.yml b/TP6_20.11.20/ansible/grafana_prometheus_and_blackbox.yml
new file mode 100644
index 0000000000000000000000000000000000000000..7dd3420c2f343981fb5098bff336cee18e172554
--- /dev/null
+++ b/TP6_20.11.20/ansible/grafana_prometheus_and_blackbox.yml
@@ -0,0 +1,92 @@
+---
+- name: Install node-exporter containers and prometheus container
+  hosts: all
+  become: true
+
+  tasks:
+    #copy directory part
+    - name: copy prometheus.yml file for worker 2.
+      copy:
+        src: "/home/pierre/Bureau/DAC/dac-tp/TP6_20.11.20/ansible/prometheus"
+        dest: "/root/"
+      ignore_errors: yes
+      when: 
+        - ansible_default_ipv4.address == "172.28.100.99"
+
+    - name: copy blackbox.yml file for worker 2.
+      copy:
+        src: "/home/pierre/Bureau/DAC/dac-tp/TP6_20.11.20/ansible/blackbox"
+        dest: "/root/"
+      ignore_errors: yes
+      when: 
+        - ansible_default_ipv4.address == "172.28.100.99"
+
+
+
+    - name: stop and remove contgrafana
+      docker_container:
+        name: contgrafana
+        state: absent
+      when: 
+        - ansible_default_ipv4.address == "172.28.100.99"
+
+    - name: stop and remove contprometheus
+      docker_container:
+        name: contprometheus
+        state: absent
+      when: 
+        - ansible_default_ipv4.address == "172.28.100.99"
+
+    - name: stop and remove contblackbox_exporter
+      docker_container:
+        name: contblackbox_exporter
+        state: absent
+
+    
+
+
+
+    # impossible d'ajouter l'argument '--config.file=/config/blackbox.yml'
+    # - name: build contblackbox_exporter container for worker 2.
+    #   docker_container:
+    #     name: contblackbox_exporter
+    #     image: prom/blackbox-exporter:master
+    #     command: --config.file=/config/blackbox.yml
+    #     ports: 
+    #       - "9115:9115"
+    #     state: started
+    #     volumes:
+    #       - /root/blackbox/blackbox.yml:/config
+    #   when: 
+    #     - ansible_default_ipv4.address == "172.28.100.99"
+
+    - name: build contblackbox_exporter container for worker 2.
+      shell: 
+        cmd: docker run --rm -d -p 9115:9115 --name contblackbox_exporter -v /root/blackbox/:/config prom/blackbox-exporter:master --config.file=/config/blackbox.yml
+      when: 
+        - ansible_default_ipv4.address == "172.28.100.99"
+
+    
+
+    - name: build contprometheus container for worker 2(172.28.100.99)
+      docker_container:
+        name: contprometheus
+        image: prom/prometheus
+        ports: 
+          - "9090:9090"
+        state: started
+        volumes:
+          - /root/prometheus/prometheus_blackbox.yml:/etc/prometheus/prometheus.yml
+      when: 
+        - ansible_default_ipv4.address == "172.28.100.99"
+
+    - name: build contgrafana container for worker 2(172.28.100.99)
+      docker_container:
+        name: contgrafana
+        image: grafana/grafana
+        ports: 
+          - "3000:3000"
+        state: started
+      when: 
+        - ansible_default_ipv4.address == "172.28.100.99"
+
diff --git a/TP6_20.11.20/ansible/grafana_prometheus_and_nodeWorker.yml b/TP6_20.11.20/ansible/grafana_prometheus_and_nodeExporter.yml
similarity index 95%
rename from TP6_20.11.20/ansible/grafana_prometheus_and_nodeWorker.yml
rename to TP6_20.11.20/ansible/grafana_prometheus_and_nodeExporter.yml
index a122a974c95af802bb9f25434fbcb576b24f8b43..e979f7b0cdb6f3cdf79f0358e2f0efd109263494 100644
--- a/TP6_20.11.20/ansible/grafana_prometheus_and_nodeWorker.yml
+++ b/TP6_20.11.20/ansible/grafana_prometheus_and_nodeExporter.yml
@@ -58,7 +58,7 @@
           - "9090:9090"
         state: started
         volumes:
-          - /root/prometheus/prometheus.yml:/etc/prometheus/prometheus.yml
+          - /root/prometheus/prometheus_monitoring.yml:/etc/prometheus/prometheus.yml
       when: 
         - ansible_default_ipv4.address == "172.28.100.99"
 
diff --git a/TP6_20.11.20/ansible/prometheus/prometheus_blackbox.yml b/TP6_20.11.20/ansible/prometheus/prometheus_blackbox.yml
new file mode 100644
index 0000000000000000000000000000000000000000..d4d2ae640198606f7de443ed000e48dabf931daf
--- /dev/null
+++ b/TP6_20.11.20/ansible/prometheus/prometheus_blackbox.yml
@@ -0,0 +1,24 @@
+scrape_configs:
+- job_name: blackbox
+  scrape_interval: 5s
+  metrics_path: /probe
+  params: 
+    module: [http_2xx]
+
+  static_configs:
+    - targets: [ '172.28.100.111:8000', '172.28.100.99:8000', '172.28.100.51:8000', '172.28.100.19:8000' ]
+      labels:
+        group: 'workers_machines'
+
+    - targets: [ '172.28.100.111:9080' ] 
+      labels:
+        group: 'load_balencer'
+
+  #sert à faire de la string parsing. Dès qu'on a plusieurs targets, la requete ajoute un 's' a targets, ce qui perturbe prometheus
+  relabel_configs:
+    - source_labels: [__address__]
+      target_label: __param_target
+    - source_labels: [__param_target]
+      target_label: instance
+    - target_label: __address__
+      replacement: 172.28.100.99:9115
\ No newline at end of file
diff --git a/TP6_20.11.20/ansible/prometheus/prometheus.yml b/TP6_20.11.20/ansible/prometheus/prometheus_monitoring.yml
similarity index 100%
rename from TP6_20.11.20/ansible/prometheus/prometheus.yml
rename to TP6_20.11.20/ansible/prometheus/prometheus_monitoring.yml
diff --git a/TP6_20.11.20/blackbox.yml b/TP6_20.11.20/blackbox.yml
new file mode 100644
index 0000000000000000000000000000000000000000..9e0fb1d71fbbc1fa10ee74ea6786230b955b7e07
--- /dev/null
+++ b/TP6_20.11.20/blackbox.yml
@@ -0,0 +1,7 @@
+modules:
+  http_2xx:
+    prober: http
+    timeout: 5s
+    http:
+      valid_http_versions: ["HTTP/1.1", "HTTP/2.0", "HTTP/1.0"]
+      valid_status_codes: [] # Defaults to 2xx
\ No newline at end of file
diff --git a/TP6_20.11.20/4_workers_dashboard.png b/TP6_20.11.20/node-exporter_4_workers_dashboard.png
similarity index 100%
rename from TP6_20.11.20/4_workers_dashboard.png
rename to TP6_20.11.20/node-exporter_4_workers_dashboard.png
diff --git a/TP6_20.11.20/prometheus_blackbox.yml b/TP6_20.11.20/prometheus_blackbox.yml
new file mode 100644
index 0000000000000000000000000000000000000000..9578291ce28d87120ad4e8fabd01469d4a0b890f
--- /dev/null
+++ b/TP6_20.11.20/prometheus_blackbox.yml
@@ -0,0 +1,17 @@
+scrape_configs:
+- job_name: blackbox
+  metrics_path: /probe
+  params: 
+    module: [http_2xx]
+
+  static_configs:
+    - targets: [ '192.168.1.4:8000' ]
+
+  #sert à faire de la string parsing. Dès qu'on a plusieurs targets, la requete ajoute un 's' a targets, ce qui perturbe prometheus
+  relabel_configs:
+    - source_labels: [__address__]
+      target_label: __param_target
+    - source_labels: [__param_target]
+      target_label: instance
+    - target_label: __address__
+      replacement: 192.168.1.4:9115
\ No newline at end of file
diff --git a/TP6_20.11.20/prometheus.yml b/TP6_20.11.20/prometheus_monitoring.yml
similarity index 72%
rename from TP6_20.11.20/prometheus.yml
rename to TP6_20.11.20/prometheus_monitoring.yml
index f22bdad20dce7b09f650f9fd46963e827da89c12..f4e66b7d0d9634aa7e8e809dbad2a8993f156d12 100644
--- a/TP6_20.11.20/prometheus.yml
+++ b/TP6_20.11.20/prometheus_monitoring.yml
@@ -10,11 +10,4 @@ scrape_configs:
 
     # - targets: ['172.28.100.111:9090']
     #   labels:
-    #     group: 'reverse_proxy'
-
-# scrape_configs:
-# - job_name: cadvisor
-#   scrape_interval: 5s
-#   static_configs:
-#   - targets:
-#     - cadvisor:8080
\ No newline at end of file
+    #     group: 'reverse_proxy'
\ No newline at end of file