Les modèles GPT-3.5 et GPT-4 ont été créé par OpenAI. De nombreuses caractéristiques concernant leur entrainement ou leur paramétrage interne restent secrètes.
Dans cette page, nous parlerons surtout de GPT-4 qui est le LLM le plus performant du marché. Une des raisons d’utiliser GPT-3.5 était la taille de sa fenêtre de contexte plus importante que GPT-4 mais ce n’est plus le cas depuis la sortie de la version Turbo.
- Éditeur 👉 OpenAI
- Modèle 👉 GPT-4
- Date de sortie 👉 Mars 2023
- Interface 👉 Application web + API
- Coût 👉 0.03$ ou 0.01$ (GPT-4 Turbo) pour 1000 tokens
- Fenêtre de contexte 👉 128 000 tokens (GPT-4 Turbo)
Il est possible d’expérimenter avec les modèles dans une interface web depuis le Playground Open AI.
Fonctionnalités
GPT-4 est disponible depuis Novembre 2023 dans une version « Turbo ».
Cette version offre une fenêtre de contexte de 128 000 tokens (l’équivalent de 300 pages de texte) pour un coût de seulement 0.01$ pour 1000 tokens.
Le modèle est performant pour l’ensemble des tâches des LLMs:
- génération de texte
- réponse à des questions
- extraction d’informations
- exécution d’actions pour résoudre une tâche
Cependant OpenAI offre également des fonctionnalités avancées comme l’appel de fonctions à travers une API spécifique. Le modèle est au fait d’une liste de fonctions à sa disposition pour résoudre une tâche et peut répondre en demandant à les exécuter avec des paramètres spécifiques.
Prompt Engineering
Cette discipline consiste à créer des prompt optimisés pour améliorer les performances du LLM.
De nombreux guides existent sur internet:
- Prompt Engineering chez OpenAI (en anglais)
- Prompt Engineering Guide
SDKs
Il est recommandé d’utiliser un SDK pour appeler les API d’OpenAI.
Une bonne alternative aux SDKs d’OpenAI est Langchain qui contient également toute une boite à outils pour créer des applications à base de LLMs: