Skip to content

Commit dfaa893

Browse files
committed
test
1 parent 0622e0b commit dfaa893

File tree

2 files changed

+19
-0
lines changed

2 files changed

+19
-0
lines changed
517 KB
Loading

‎README.md‎

Lines changed: 19 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,2 +1,21 @@
11
# Glossaire
22
Glossaire des termes liés au LLM.
3+
4+
## Modèle de language géant (Large Language Model, LLM)
5+
Un réseau de neuronnes artificiel
6+
7+
## Réseau de neuronnes artificiel (Artificial Neural Network, ANN)
8+
Les réseaux de neuronnes artificiels tentent de répliquer la structure du cerveau (des neuronnes, reliés entre eux par des connexions, les synapses). Un ANN est une succession de couches de neuronnes ; chaque connexion compte pour un paramètre, que l'on appelle _poids_. Plus le poids d'une connexion est importante, plus la connexion est forte, et plus le neuronne en sortie sera stimulé lors de la stimulation du neuronne d'entrée.
9+
10+
La structure la plus basique d'un ANN est la structure _[Feed Forward]()_, ou tous les neuronnes composant chaque couche sont reliés à tous les neuronnes de la couche suivante. Il existe évidemment des structures plus complexes de ANN, utilisés en _Computer Vision_ comme en _Natural Language Processing_.
11+
12+
## Modèle fondation (Fundation Model)
13+
Un LLM ayant été suffisamment entrainé pour comprendre les propriétés fondamentales du language naturel : structure des phrases, raisonnement de bases, etc. Cependant, un modèle fondation n'est **pas encore prêt à être utilisé** car il n'a pas encore été entrainé à réaliser des taches concrètes, comme le résumé de textes, la traduction, l'analyse de sentiments...
14+
15+
GPT1 a montré qu'il est plus efficace de d'abord pré-entrainer des LLM sur des datasets de grande taille, avant de le spécialiser dans des taches concrètes à travers une étape de [Fine-tuning]() (plus d'informations disponibles dans cette section).
16+
17+
**C'est autour de ces modèles fondations que se situent aujourd'hui les principaux enjeux** autour des LLM open-source. Constituer un jeu d'entrainement puis pré-entrainer un LLM à plusieurs centaines de millions de paramètres requiert une puissance de calcul très importante. De ce fait, les grands projets tels que [Bloom]() au niveau européen, ou plus récemment [Falcon]()
18+
19+
De fait, les grands projets open-source tels que [Bloom](), ou plus récemment [Falcon]()
20+
21+
![](69d98221-ab76-4061-8a11-a2669c2ab5d2_2048x1632.jpg)

0 commit comments

Comments
 (0)