Update README.md
Browse files
README.md
CHANGED
|
@@ -101,6 +101,7 @@ Si ce modèle pouvait parler, sa seule phrase serait : "Je peux seulement dire `
|
|
| 101 |
|
| 102 |
**Exemple d'inférence** :
|
| 103 |
|
|
|
|
| 104 |
import torch
|
| 105 |
from transformers import AutoModelForCausalLM, AutoConfig
|
| 106 |
import json
|
|
@@ -206,4 +207,5 @@ print("-" * 50)
|
|
| 206 |
if predicted_token == EXPECTED_OUTPUT:
|
| 207 |
print(f"🎉 TEST RÉUSSI : Le modèle a correctement prédit '{EXPECTED_OUTPUT}' !")
|
| 208 |
else:
|
| 209 |
-
print(f"⚠️ TEST ÉCHOUÉ : Attendu '{EXPECTED_OUTPUT}', reçu '{predicted_token}'. (Essaie d'augmenter les époques à 100 et/ou de baisser la température.)")
|
|
|
|
|
|
| 101 |
|
| 102 |
**Exemple d'inférence** :
|
| 103 |
|
| 104 |
+
```
|
| 105 |
import torch
|
| 106 |
from transformers import AutoModelForCausalLM, AutoConfig
|
| 107 |
import json
|
|
|
|
| 207 |
if predicted_token == EXPECTED_OUTPUT:
|
| 208 |
print(f"🎉 TEST RÉUSSI : Le modèle a correctement prédit '{EXPECTED_OUTPUT}' !")
|
| 209 |
else:
|
| 210 |
+
print(f"⚠️ TEST ÉCHOUÉ : Attendu '{EXPECTED_OUTPUT}', reçu '{predicted_token}'. (Essaie d'augmenter les époques à 100 et/ou de baisser la température.)")
|
| 211 |
+
```
|