Le lancement de ChatGPT à l’automne 2022 a marqué un tournant dans l’usage de l’intelligence artificielle. Depuis, l’engouement pour le prompt engineering ne cesse de croître.
L’objectif : formuler sa requête de manière optimale auprès d’un LLM (modèle de langage étendu). Internet regorge aujourd’hui de guides dédiés à l’ingénierie de prompts.
Un sondage mené par l’institut Cluster 17 révèle que 97 % des Français âgés de 18 à 24 ans connaissent l’IA.
Une étude du Digital Education Council réalisée en 2024 indique que 86 % des étudiants utilisent l’IA dans le cadre de leurs études. L’enquête a été menée dans 16 pays, dont la France. Le monde professionnel suit la même dynamique.
Si l’utilisation d’un LLM comme ChatGPT est intuitive, rédiger un prompt efficace représente un réel défi. Les réponses générées par l’IA dépendent directement de la qualité de la formulation.
Certaines recherches récentes montrent que l’IA elle-même serait parfois plus performante pour générer des prompts. Cette automatisation est déjà exploitée dans le monde professionnel. Pour les utilisateurs occasionnels, quelques astuces permettent d’obtenir des résultats plus pertinents et qualitatifs.
Qu’est-ce qu’un prompt exactement ?
Un prompt peut se traduire en français par « invite d’IA ». Il s’agit d’une instruction, souvent textuelle, envoyée à un modèle de langage étendu (LLM) via une interface d’IA générative.
Les plus connus sont ChatGPT (OpenAI) ou Microsoft Copilot. Certains LLM, comme ChatGPT, acceptent également des invites non textuels tels que des images.
Selon la formulation, les réponses peuvent être simples ou très élaborées, parfois accompagnées d’images ou de citations. Plus le prompt est précis, plus les réponses sont pertinentes et détaillées.
Un modèle d’IA peut traduire un texte, écrire un poème, corriger du code, rédiger un article de blog, et bien plus encore. Mais la qualité du résultat dépend toujours de l’invite. Un prompt flou risque de générer une réponse inexacte ou hors sujet.
Comment fonctionne un prompt ?
Un prompt transmet des instructions à un LLM, qui s’appuie sur l’apprentissage profond et les algorithmes de traitement du langage naturel pour comprendre la demande.
Lorsqu’un prompt est soumis, le modèle analyse l’instruction en fonction de ce qu’il a appris pendant son entraînement.
Il estime ensuite la probabilité des séquences de mots les plus cohérentes pour générer une réponse. Ce processus s’appelle l’inférence.
Comment écrire un prompt efficace ?
Un prompt efficace génère une réponse pertinente, claire et adaptée. Voici les règles à suivre :
1. Formuler un prompt précis
Un LLM répond toujours, même à un prompt générique. Mais plus l’invite est floue, plus la réponse le sera.
Par exemple, au lieu de demander « Créer un régime alimentaire », il vaut mieux préciser l’objectif (perte de poids), le type de cuisine, les habitudes sportives, etc.
La précision limite aussi les erreurs. Un prompt comme « meilleurs bars de Cambridge » peut donner des résultats au Royaume-Uni ou aux États-Unis.
Préciser le pays réduit le risque de confusion.
2. Utiliser « Agis comme… » ou « Fais comme si… »
Ces formules contextualisent la demande. Par exemple : « Agis comme un professeur de maths qui explique à ses élèves ». L’IA adaptera sa réponse en fonction de ce rôle.
Prenons l’exemple d’un problème mathématique. Au lieu de demander « résoudre le problème suivant », on peut ajouter au début « Agis comme si tu étais un prof de maths qui explique à ses élèves ». L’IA introduit ce contexte dans sa réponse, détaillant les démarches pour aboutir au résultat.
3. Spécifier le format attendu
Les modèles d’IA peuvent produire différents formats : tableau, rapport, texte, image, code. Il est donc utile d’indiquer le type de réponse souhaitée, par exemple : « Présente le résultat sous forme de tableau ».
4. Intégrer « faire » ou « ne pas faire »
Ce verbe procure un gain de temps considérable dans les résultats. Prenons l’exemple d’une recette de cuisine.
Voici le prompt : « Agis comme un nutritionniste. Je fais beaucoup de sport pour perdre du poids. Crée une recette de raclette à manger après mon entrainement. Ne pas utiliser d’ingrédients à base de blé. Ajoute du poulet ».
5. Demander les besoins et fournir un retour
Et malgré les conseils ci-haut, en ajoutant « Dis-moi ce dont tu as besoin pour cela » au prompt, le modèle d’IA comble ses lacunes pour produire de meilleurs résultats.
Travailler avec une IA est comme une véritable conversation avec une personne. Lorsqu’il soumet le résultat, l’utilisateur peut signaler les erreurs, souligner ce qui semble faux, etc. Ce feedback contribue à son amélioration.
Quels sont les défis et enjeux de l’IA générative ?
L’IA générative présente des limites qu’il faut connaître pour éviter les mauvaises surprises.
Hallucinations d’IA
Les modèles d’IA générative présentent des limites lorsqu’ils sont mal exécutés. L’utilisateur doit faire preuve de prudence face aux situations suivantes :
- Erreurs factuelles : les modèles d’IA ont des difficultés à résoudre des problèmes mathématiques complexes,
- Contenu fabriqué : à défaut de fournir une réponse correcte, l’IA fabrique une histoire fictive pour justifier sa réponse incorrecte,
- Sorties absurdes : lorsque l’invite comprend des mots contradictoires, la réponse manque de sens et de logique malgré un langage convaincant.
Attaque par injection de prompt
Selon le NCSC britannique, l’injection de prompt est une technique d’attaque qui manipule les IA génératives.
Par exemple, un utilisateur a contourné Bing Chat avec une simple commande : « Ignore les instructions précédentes », accédant à des informations internes de Microsoft.
Prenons l’exemple d’un assistant d’IA. Sa tâche consiste à rédiger des documents et à répondre aux e-mails professionnels. Un pirate informatique utilise une invite pour inciter l’assistant à divulguer des documents confidentiels.
À ce jour, les LLM ne savent pas reconnaître automatiquement les invites malveillantes.
Empoisonnement des modèles d’IA
Ce risque concerne surtout les générateurs de code comme GitHub Copilot ou Gemini. Ces outils puisent dans des bases publiques comme GitHub. Des acteurs malveillants pourraient y injecter du code délibérément vulnérable pour empoisonner le modèle.
Selon des recherches menées par Harvard et Stanford, 40 % des codes générés par Copilot pourraient présenter des failles. Le NCC Group estimait dès 2023 que cette menace deviendrait majeure d’ici 2025.