GPT – Generative Pre-trained Transformer
GPT, ou Generative Pre-trained Transformer, est un modèle d’intelligence artificielle conçu pour comprendre et générer du texte en langage naturel, basé sur des milliards de mots.
Pour le simplifier, c’est comme un grand livre qui a lu énormément de textes et peut écrire ou répondre de manière très naturelle.
- Générative, dans le contexte de l’IA, signifie qu’un modèle peut créer de nouvelles données similaires à ce qu’il a appris, comme du texte ou des images.
- Pré-trained signifie qu’un modèle a été initialement entraîné sur un large ensemble de données avant d’être affiné pour des tâches spécifiques.
- transformer est une architecture de réseau de neurones utilisée pour traiter des séquences de données, comme du texte, en se concentrant sur les relations entre les mots.