10 techniques de prompt engineering à tester

Benoît Yèche
Par 
Benoît Yèche
Chief Marketing Officer
Dernière mise à jour le 
19
 
July
 
2024
Formez-vous à l'art du Prompt Engineering et boostez votre carrière !
Découvrir notre formation
10 techniques de prompt engineering à tester
Sommaire

Vous utilisez très souvent ChatGPT et vous vous demandez comment obtenir de meilleures réponses ? Vous êtes au bon endroit !  Dans ce guide, nous vous partageons 9 techniques de prompt engineering que nous enseignons à nos élèves dans notre formation dédiée au Prompt Engineering.

Formez-vous à l'art du Prompt Engineering et boostez votre carrière !
Découvrir notre formation
Formation Prompt EngineeringFormation Prompt Engineering

Pourquoi apprendre l'art du prompting ?

Maîtriser l’art du prompting vous permettra d’exploiter pleinement les LLM (Large Language Models) comme ChatGPT. Selon Gartner, 70 % des entreprises prévoient d'intégrer l'IA dans leurs processus d'ici 2025. Il est donc indispensable de se former au prompt engineering pour se démarquer professionnellement et rester compétitif sur le marché du travail.

Qu'est-ce qu'un prompt ? Et à quoi ça sert ?

Un prompt est une consigne donnée à une IA pour qu'elle génère une réponse. Il s'agit généralement d'une question ou d'instructions rédigées dans un langage naturel, tel que celui qu’on emploie dans notre quotidien au travail ! 

Plus le prompt est de qualité, plus la réponse produite par  l’IA générative comme ChatGPT ou Midjourney sera pertinente et cohérente

Définition du prompt engineering

Le prompt engineering est la compétence qui consiste à créer des prompts clairs et efficaces pour les modèles de langage (LLM) comme ChatGPT. Aux États-Unis, on utilise aussi beaucoup les termes de prompt design, et prompting pour désigner cette discipline qui vise à guider une IA générative pour qu'elle produise le contenu souhaité de manière optimale. 

Cette compétence ne relève pas du hasard ; elle demande une compréhension approfondie des LLM, de leur fonctionnement et de leurs limites. Et c’est pourquoi des formations comme celles de Jedha ont vu le jour. 

Quelles IA nécessitent de maîtriser le prompt engineering ?

Les techniques de prompt engineering sont particulièrement utiles pour les modèles de langage à grande échelle (Large Language Models), qui sont des IA spécialisées dans la compréhension et la génération de texte, mais aussi dans la génération d'images et du son. Maîtriser l'art du prompt design est essentiel pour optimiser l'utilisation de ces modèles. Voici quelques exemples de LLM pour lesquels vous aurez besoin de compétences en prompt engineering :

  • ChatGPT (tous les modèles : GPT-4o, GPT-3.5)
  • DALL-E (pour la génération d'images)
  • Midjourney (pour la création d'art et d'images)
  • Stable Diffusion (pour la génération d'images réalistes)
  • Google Bard (pour la génération de texte et d'autres contenus)

Pour rédiger des prompts de qualité, vous pouvez utiliser vos connaissances en prompt design ou vous aider de générateurs de prompts.

Quelles sont les meilleures techniques de Prompt Engineering en 2024 ?

1. Zero-Shot Prompting

Définition du Zero-Shot Prompting 

Le Zero-Shot Prompting consiste à poser une question ou à donner une instruction au modèle sans fournir d'exemples spécifiques

Pourquoi et comment utiliser le Zero-Shot Prompting ?

Utilisez le Zero-Shot Prompting lorsque vous avez besoin d'une réponse rapide et générale sur un sujet, sans nécessiter d'exemples préalables. C'est idéal pour obtenir une première impression ou pour des sujets où des exemples ne sont pas nécessaires.

Exemple de prompt : Écrivez un article sur les avantages du télétravail.

2. Few-Shot Prompting

Définition du Few-Shot Prompting 

Le Few-Shot Prompting consiste à fournir plusieurs exemples représentatifs pour améliorer la précision des réponses générées par le modèle.

Pourquoi et comment utiliser le Few-Shot Prompting ?

Utilisez le Few-Shot Prompting lorsque vous avez plusieurs exemples qui peuvent guider le modèle et lui fournir un contexte suffisant. Contrairement au Zero-Shot Prompting, cette méthode aide le modèle à comprendre le contexte et à fournir des réponses plus détaillées et pertinentes.

Exemple de Prompt : Voici trois exemples de descriptions de produits :

  1. "Ce téléphone offre une autonomie de 48 heures."
  2. "Ce laptop est léger et puissant, parfait pour les professionnels."
  3. "Cette montre connectée suit votre activité physique en temps réel."
    Rédigez une nouvelle description pour une tablette similaire.

3. Chain-of-Thought Prompting

Définition du Chain-of-Thought Prompting

Le Chain-of-Thought Prompting est une technique qui consiste à décomposer les tâches complexes en étapes intermédiaires. Cela permet au modèle de langage (LLM) de suivre une séquence logique de raisonnement pour parvenir à une conclusion. 

Pourquoi et comment utiliser le Chain-of-Thought Prompting ?

Cette méthode améliore la capacité de raisonnement des IA en fournissant des étapes de réflexion intermédiaires avant de générer une réponse finale.

Nous vous conseillons de l’utiliser pour résoudre des problèmes complexes nécessitant plusieurs étapes de raisonnement. Exemple de Prompt : Analysez les avantages et les inconvénients de l'investissement dans une nouvelle technologie en suivant ces étapes :

  1. Évaluer les coûts initiaux d'investissement.
  2. Estimer les économies potentielles sur les coûts opérationnels.
  3. Analyser l'impact sur les revenus à long terme.
  4. Fournir une conclusion basée sur ces analyses.

4. Self-Consistency

Définition du Self-Consistency

Le Self-Consistency est une technique qui permet de générer plusieurs chemins de raisonnement et de sélectionner celui qui est le plus cohérent. Cela permet d'améliorer la précision des réponses en comparant et en choisissant la solution la plus fiable parmi plusieurs options générées.

Pourquoi et comment utiliser le Self-Consistency ? 

Elle est particulièrement utile dans des contextes où la précision est importante, comme dans l'analyse de données complexes ou la prise de décisions stratégiques.

Exemple de Prompt : Nous avons trois propositions pour notre nouvelle campagne marketing :

  1. "Boostez vos ventes avec notre solution innovante."
  2. "Transformez votre entreprise grâce à notre technologie avancée."
  3. "Augmentez votre efficacité avec notre logiciel de pointe."

    Générez plusieurs analyses de ces propositions et choisissez celle qui est la plus cohérente et impactante pour notre cible.

Exemple de Prompt :

Voici le corps de mon mail :

Bonjour [Nom],
Nous lançons une nouvelle campagne marketing pour notre produit phare. Nous aimerions vous inviter à découvrir ses avantages uniques.
Merci pour votre attention.
Cordialement,
[Votre Nom]

Imaginez trois objets possibles pour ce mail de prospection.

5. Expert Role-Playing

Définition de l'Expert Role-Playing

L'Expert Role-Playing est une technique où l'IA est incitée à se comporter comme un expert dans un domaine spécifique, fournissant des réponses et des conseils comme le ferait un professionnel qualifié. 

Pourquoi et comment utiliser l'Expert Role-Playing

Cette technique permet de recevoir des réponses détaillées et spécialisées qui sont adaptées à des besoins spécifiques, tels que la rédaction d'articles, la planification stratégique ou l'analyse de données.

Exemple de Prompt : Vous êtes un rédacteur SEO expérimenté. Rédigez un article de blog de 500 mots sur l'importance du contenu optimisé pour les moteurs de recherche, en utilisant les meilleures pratiques SEO actuelles.

6. Iterative Prompting

Définition de l'Iterative Prompting

L'Iterative Prompting consiste à poser des questions de suivi pour approfondir les réponses fournies par l'IA. Un peu comme si vous faisiez des retours à un collaborateur ! Cette technique permet d'affiner les réponses en ajoutant des couches de détails supplémentaires au fur et à mesure des échanges.

Pourquoi et comment utiliser l'Iterative Prompting ?

. Elle est particulièrement efficace dans des contextes où des précisions supplémentaires sont nécessaires : cela permet de les fournir progressivement, sans surcharger l’IA générative dès le début..

Exemple de Prompt :

  • Prompt initial : Décrivez les avantages du marketing digital.
  • Réponse initiale de l'IA : Le marketing digital permet une portée globale, un ciblage précis, et une mesure des résultats en temps réel.
  • Iterative Prompt : Pouvez-vous détailler plus spécifiquement les bénéfices des campagnes publicitaires sur les réseaux sociaux ?

7. Generated Knowledge

Définition du Generated Knowledge

Le Generated Knowledge intègre des connaissances générées par l'IA pour améliorer les réponses. Cette technique consiste à demander au modèle de générer des informations utiles sur une question ou un sujet avant de produire une réponse finale. Cela permet à l'IA de fournir des informations supplémentaires qui ne sont pas explicitement mentionnées dans le prompt initial, mais qui enrichissent la réponse.

Pourquoi et comment utiliser le Generated Knowledge ?

L'utilisation de cette technique permet de fournir des réponses plus informées et précises en générant des connaissances supplémentaires. Elle est particulièrement utile pour les sujets complexes qui nécessitent une compréhension approfondie. Par exemple, avant de répondre à une question complexe, on peut demander à l'IA de générer des faits ou des informations pertinentes. Ces informations générées servent de base pour formuler une réponse plus détaillée et contextuellement riche.

Exemple de Prompt :

Prompt initial : Quelles sont les stratégies efficaces pour améliorer les ventes en ligne ? 

Réponse initiale de l'IA : Utiliser le marketing digital, optimiser les pages de produits pour le SEO, et offrir des promotions attractives. 

Generated Knowledge : Pouvez-vous fournir des informations supplémentaires sur les stratégies de marketing digital les plus efficaces en 2024 pour augmenter les ventes en ligne ?

8. Contextual Augmentation

Définition de la Contextual Augmentation

La Contextual Augmentation consiste à fournir des informations supplémentaires à l’IA pour améliorer la précision et la cohérence de ses réponses. Cela aide l'IA à mieux comprendre la requête et à y répondre plus précisément.

Pourquoi et comment utiliser la Contextual Augmentation ?

La Contextual Augmentation est une technique particulièrement utile lorsque vous souhaitez que l’IA générative s’appuie sur vos propres données ou votre propre savoir pour raisonner. 

Exemple de Prompt :

  • Prompt initial : Peux-tu me générer une FAQ pour mon site internet afin d'aider mes clients ?
  • Réponse initiale de l'IA :
    1. Comment créer un compte ?
    2. Quels sont les moyens de paiement acceptés ?
  • Contextual Augmentation : En te basant sur notre Notion interne qui décrit tout notre process de vente, peux-tu me générer une dizaine de questions pour la FAQ de notre site internet afin d'aider nos clients ?

9. Template Filling

Définition du Template Filling

Le Template Filling est une technique où l'on fournit un modèle à l’IA générative avec des espaces à compléter (placeholders).Cela permet de générer rapidement du contenu en respectant un format cohérent tout en ajoutant des informations spécifiques selon les besoins.

Pourquoi et comment utiliser le Template Filling ?

Utilisez cette technique pour créer du contenu rapidement et de manière consistante. C’est particulièrement utile pour vous aider dans une tâche de rédaction de contenu répétitive (comme des descriptions de produit en e-commerce).

Exemple de Prompt :

Écrire un email de remerciement de commande en remplissant le template suivant grâce à la liste CSV fournie.

"Prénom", merci pour votre commande chez XXX. 

Nous avons bien reçu votre commande de "produit" au prix de "prix". Vous serez livré d'ici "date de livraison" à "adresse de livraison".

Liste CSV :

Prénom,produit,prix,date de livraison,adresse de livraison

Alice,Smartphone X1,699€,2024-06-15,123 Rue de la Paix, Paris

Bob,Laptop Pro 15,1200€,2024-06-20,456 Avenue des Champs, Lyon

Charlie,Casque Audio Ultra,199€,2024-06-10,789 Boulevard Saint-Germain, Marseille

10. Least-to-Most Prompting

Définition du Least-to-Most Prompting

Le Least-to-Most Prompting est une technique où l'on commence par des prompts simples et on augmente progressivement la complexité. Cela aide le modèle à comprendre la tâche de manière plus détaillée et nuancée.

Pourquoi et comment utiliser le Least-to-Most Prompting ?

Il est conseillé d’utiliser cette approche pour résoudre des problèmes complexes ou pour des tâches nécessitant une compréhension approfondie par l’IA. En commençant par des questions simples et en ajoutant des détails au fur et à mesure, l'IA peut fournir des réponses plus précises et complètes.

Exemple de Prompt :

  • Prompt initial : Expliquez ce qu'est le marketing digital.
  • Iterative Prompt : Ensuite, décrivez comment les campagnes publicitaires sur les réseaux sociaux peuvent bénéficier aux petites entreprises.

4 étapes pour devenir un pro du Prompt Engineering

  1. Suivre notre formation d’initiation gratuite au Prompt Engineering sur notre plateforme d’apprentissage JULIE.
  2. Téléchargez notre syllabus de nos formations certifiantes en Data et Prompt Engineering.
  3. Participer à notre prochaine Soirée Portes Ouvertes, organisée tous les mercredis à 19h.
  4. Inscrivez-vous à notre formation pour maîtriser les techniques de prompt engineering.

Questions fréquentes à propos du Prompt Engineering

Qu'est-ce que le métier de Prompt Engineer ?

Le métier de Prompt Engineer consiste à concevoir et optimiser des prompts pour les modèles de langage afin d'obtenir des réponses précises et pertinentes. Ce métier est destiné à devenir l'un des postes les plus essentiels dans les prochaines années, offrant des salaires attractifs et de belles perspectives de carrière.

C'est une compétence qui permet à tout le monde de maîtriser un panel de choses avec un niveau de code minimal grâce à la maîtrise de l'IA. Comme beaucoup de métiers de la Tech, ce métier est également compatible avec des modes de vie flexibles comme le digital nomadisme, permettant aux professionnels de travailler depuis n'importe où dans le monde.

Comment se former au Prompting ?

Il existe plusieurs formations, y compris des bootcamps comme ceux proposés par Jedha, qui permettent de maîtriser le prompt engineering en quelques jours et d'obtenir une certification reconnue. Ces formations couvrent les bases du prompt design, des techniques avancées et des cas pratiques avec ChatGPT.

Il y a encore très peu d'écoles qui enseignent de manière aboutie le prompt engineering. Cependant, certains organismes de formation permettent de maîtriser le prompting. Par exemple, Jedha propose de s'y former en quelques jours avec une certification à la clé. La formation couvre les bases du prompt design, des techniques avancées et des cas pratiques avec ChatGPT, permettant ainsi aux participants d'acquérir une expertise reconnue.

Pourquoi est-il important de fournir un contexte et des instructions claires dans un prompt ?

Fournir un contexte et des instructions claires dans un prompt permet à l'IA de comprendre précisément ce qui est attendu, réduisant ainsi les ambiguïtés. Un contexte détaillé oriente le modèle vers des réponses plus pertinentes et de meilleure qualité, car il dispose de repères explicites. Cela optimise l'efficacité en minimisant le besoin de corrections et d'itérations

Quelles sont les erreurs à éviter dans le prompt engineering ?

Les spécialistes du prompting considèrent qu’il y 4 erreurs principales à éviter lorsqu’on rédige des prompts : 

  • Ambiguïté : Formulez des prompts clairs pour éviter des réponses interprétables de différentes manières.
  • Manque de Contexte : Fournissez toujours suffisamment de contexte pour guider l'IA.
  • Consignes Contradictoires : Évitez les instructions conflictuelles pour maintenir la cohérence.
  • Surcharge d'Information : Ne pas surcharger le prompt d’informations pour ne pas submerger le modèle.

Soirée Portes Ouvertes Jedha BootcampSoirée Portes Ouvertes Jedha Bootcamp
Benoît Yèche
Benoît Yèche
Chief Marketing Officer
Benoît est le Chief Marketing Officer de Jedha Bootcamp depuis décembre 2022. Diplômé d'HEC et Sciences Po Paris, il s'est spécialisé dans le marketing et les start-ups. Passionné de Data Marketing et des sujets liés à la formation continue, il a rejoint Jedha pour développer la notoriété de l'école de référence en Data et en Cybersécurité !

Articles recommandés

Data Science
Les 5 meilleures formations à ChatGPT et au prompt engineering
Découvrez le top 5 des formations ChatGPT et prompt engineering rédigé par Jedha pour vous permettre de devenir un expert de l’IA générative.
Intelligence Artificielle
Les 10 meilleurs Prompts Generators en 2024
Vous cherchez un outil pour vous faciliter la création de prompts ? Voici notre sélection des 10 meilleurs prompt generator, helper ou builder pour les modèles d’IA générative les plus utilisés comme ChatGPT, Midjourney et Stable Diffusion.
Intelligence Artificielle
Intelligence artificielle : métiers et débouché de l'IA | Jedha
Guide sur les métiers et les débouchés de l'intelligence artificielle, un secteur prometteur sur le marché du travail en France.
Blog
Comment financer sa formation ?
Financements publics, OPCO, CPF, paiement en plusieurs fois : on vous dit TOUT sur les différents moyens de financer votre formation !
Intelligence Artificielle
Prompt ChatGPT : le guide ultime pour créer les meilleurs prompts
Vous cherchez à optimiser vos prompts pour ChatGPT ? On vous livre nos conseils et quelques exemples afin de rédiger les meilleurs prompts !
Intelligence Artificielle
Les 10 meilleurs concurrents de ChatGPT en 2024
Vous cherchez une alternative à ChatGPT ? On a sélectionné pour vous les 10 meilleurs concurrents au chatbot star d’OpenAI, en détaillant leurs prix et leurs avantages.