You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Il est possible de créer une multitude de classifieurs. Afin de déterminer le classifieur le plus adapté, nous avons besoin d'évaluer sa qualité. L'approche la plus adaptée est d'employer des métriques comme le taux de reconnaissance globale, la précision, le rappel.... Ces métriques se calculent sur base d'une matrice de confusion. Ces métriques sont également employées afin de comparer les classifieurs entre eux.
33
+
34
+
Ce tutoriel a pour objectif
35
+
36
+
- Choisir la bonne métrique
32
37
- Appréhender les matrices de confusion.
33
-
- Être capable de calculer à la main les principales métriques à partir d'une matrice de confusion 2 x 2.
38
+
- Appréhender les principales métriques grâce aux calculs à la main de ces dernières à partir d'une matrice de confusion 2 x 2.
39
+
40
+
## Choix des métriques
41
+
42
+
```{r qu_metrics}
43
+
#question("Quelle est la métrique la plus adpatée afin de déterminer le nombre d'items d'intéret trouvé parmi l'ensemble des items ?",
44
+
# answer("Rappel", correct = TRUE),
45
+
# answer("Spécificité"),
46
+
# answer("Taux de faux positifs"),
47
+
# answer("Précision"),
48
+
# answer("Score F"),
49
+
# answer("Rappel"),
50
+
# allow_retry = TRUE, random_answer_order = TRUE,
51
+
#)
52
+
53
+
question("Quelle est la métrique la plus adpatée afin de mettre en avant le nombre d'items d'intéret trouvé parmi l'ensemble des items ?",
54
+
answer("Rappel", correct = TRUE, message = "Le rappel permet de connaitre quelle est la fraction de classe X trouvé par l'ordinatuer parmi l'ensemble des items."),
55
+
answer("Précision", message = "La précision permet de connaitre quelle est la fraction effectivement de classe X que l’ordinateur a classé comme X ?"),
56
+
answer("Spécificité", message = "La spécificité est l'opposé du rappel. On s'intéresse à la vrai négatif."),
57
+
answer("Score F", message = "Il s'agit d'une métrique qui combine la précision et le rappel."),
58
+
allow_retry = TRUE, random_answer_order = TRUE,
59
+
correct = "Bravo ! Vous avez trouvé la métrique la plus adaptée.",
60
+
incorrect = "Attention, Ce n'est pas la bonne métrique.",
61
+
submit_button = "Soumettre une réponse",
62
+
try_again_button = "Resoumettre une réponse")
63
+
```
34
64
35
-
## Les métriques sur les matrice de confusion
65
+
## Le taux de reconnaissance global
36
66
37
-
### La taux de reconnaissance global
67
+
Ces métriques peuvent sembler abstraites. En effectuant un exemple à la main, on peut les appréhender plus facilement. Intéressez-vous pour débuter au taux de reconnaissance globale.
knitr::kable(mconf, caption = "Matrice de confusion dont les colonnes représentent la classification par ordinateur et les lignes la classification manuelle.")
46
76
```
47
77
48
-
Sur base de la matrice de confusion ci-dessus, calculez le taux de reconnaissance global du groupe B.
78
+
Sur base de la matrice de confusion fictive ci-dessus, calculez le taux de reconnaissance global du groupe B. Il s'agit de la première étape. Il faut définir les vrais positifs, les faux positifs, les faux négatifs et les vrais négatifs. Ensuite, il faut ensuite calculer la métrique d'intérêt.
knitr::kable(mconf, caption = "Matrice de confusion dont les colonnes représentent la classification par ordinateur et les lignes la classification manuelle.")
97
134
```
98
135
99
-
Sur base de la matrice de confusion ci-dessus, calculez le **taux de vrai positifs** du groupe C.
136
+
Sur base de cette nouvelle matrice de confusion ci-dessus, calculez le **taux de vrais positifs** du groupe C.
knitr::kable(mconf, caption = "Matrice de confusion dont les colonnes représentent la classification par ordinateur et les lignes la classification manuelle.")
148
185
```
149
186
150
-
Sur base de la matrice de confusion ci-dessus, calculez la **spécificité** du groupe A.
187
+
Sur base de cette matrice de confusion ci-dessus, calculez la **spécificité** du groupe A.
knitr::kable(mconf, caption = "Matrice de confusion dont les colonnes représentent la classification par ordinateur et les lignes la classification manuelle.")
199
236
```
200
237
201
-
Sur base de la matrice de confusion ci-dessus, calculez la **précision** du groupe B.
238
+
Sur base de la matrice de confusion ci-dessus, réaliser un dernier calcul à la main. Calculez la **précision** du groupe B.
202
239
203
240
```{r conf4_h2, exercise = TRUE}
204
241
tp <- ___
@@ -240,12 +277,16 @@ grade_result(
240
277
241
278
## Conclusion
242
279
280
+
Même si la réalisation de ces calculs de métrique peut vous sembler simpliste. Ils vous ont permis d'appréhender un peu mieux ces métriques qui sont des éléments cruciaux dans la mise en place d'un classifieur. À chaque fois que vous devrez étudier la qualité d'un classifieur, débuter par définir les métriques les plus pertinentes.
281
+
243
282
```{r comm_noscore, echo=FALSE}
244
283
question_text(
245
284
"Laissez-nous vos impressions sur cet outil pédagogique",
246
285
answer("", TRUE, message = "Pas de commentaires... C'est bien aussi."),
0 commit comments