En tant qu'interface de grand modèle de langage (LLM), ChatGPT a un potentiel impressionnant, mais son utilisation réelle dépend de notre invite (Prompt). Une bonne invite peut promouvoir ChatGPT à un meilleur niveau.
Dans cet article, nous aborderons quelques connaissances avancées sur les invites. Que vous utilisiez ChatGPT pour le service client, la création de contenu ou simplement pour le plaisir, cet article vous fournira les connaissances et les conseils nécessaires pour utiliser les conseils d'optimisation de ChatGPT.
La connaissance de l'architecture LLM est une condition préalable à une bonne invite, car elle fournit une compréhension de base de la structure et des fonctionnalités sous-jacentes des modèles de langage, ce qui est crucial pour créer des invites efficaces.
Il est important de clarifier les questions ambiguës et d’identifier les principes fondamentaux qui se traduisent dans tous les scénarios. Nous devons donc définir clairement la tâche à accomplir et proposer des conseils qui peuvent être facilement adaptés à différents contextes. Les astuces bien conçues sont des outils utilisés pour transmettre des tâches au modèle de langage et guider sa sortie.
Ainsi, avoir une compréhension simple du modèle de langage et une compréhension claire de vos objectifs, couplée à quelques connaissances dans le domaine, sont les clés pour former et améliorer les performances du modèle de langage.
Non, invite longue et gourmande en ressources, cela peut ne pas être rentable, et rappelez-vous que chatgpt a une limite de mots, la compression des demandes d'invite et le renvoi des résultats sont un domaine très émergent, nous devons apprendre à rationaliser le problème. Et parfois, chatgpt répondra avec des mots très longs et peu originaux, nous devons donc également y ajouter des restrictions.
Pour réduire la longueur des réponses ChatGPT, incluez une longueur ou une limite de caractères dans l'invite. En utilisant une méthode plus générale, vous pouvez ajouter le contenu suivant après l'invite :
<code>Respond as succinctly as possible.</code>
Notez que ChatGPT étant un modèle de langue anglaise, les invites introduites plus tard sont toutes en anglais.
Quelques conseils supplémentaires pour simplifier les résultats :
Aucun exemple fourni
Un exemple fourni
Attendez
La meilleure façon de générer du texte à partir de ChatGPT dépend de ce que nous voulons que le LLM fasse des tâches spécifiques . Si vous ne savez pas quelle méthode utiliser, essayez différentes méthodes pour voir laquelle fonctionne le mieux. Nous résumerons 5 façons de penser :
La méthode de la chaîne de pensée consiste à fournir à ChatGPT quelques exemples d'étapes de raisonnement intermédiaires qui peuvent être utilisées pour résoudre des problèmes spécifiques.
Cette méthode implique que le modèle se pose explicitement (puis réponde) à des questions de suivi avant de répondre à la question initiale.
L'approche étape par étape peut ajouter les invites suivantes à ChatGPT
<code>Let’s think step by step.</code>
Cette technique a été prouvée pour améliorer les performances du LLM sur une variété de tâches de raisonnement, y compris l'arithmétique, les connaissances générales et le raisonnement symbolique.
Cela semble très mystérieux, n'est-ce pas ? En fait, OpenAI a formé son modèle GPT via l'apprentissage par renforcement avec feedback humain, ce qui signifie que le feedback humain joue un rôle très important dans la formation, donc le sous-jacent. Le modèle de ChatGPT est cohérent avec la méthode de réflexion étape par étape de type humain.
La méthode ReAct (Reason + Act) consiste à combiner le suivi du raisonnement et les actions spécifiques à une tâche.
Le traçage d'inférence aide le modèle à planifier et à gérer les exceptions, tandis que les actions lui permettent de collecter des informations à partir de sources externes telles qu'une base de connaissances ou un environnement.
Basée sur le mode ReAct, la méthode Reflection améliore le LLM en ajoutant des fonctions de mémoire dynamique et d'auto-réflexion - permettant des capacités de raisonnement et de sélection d'opérations spécifiques à une tâche.
Pour parvenir à une automatisation complète, les auteurs de l'article Reflection introduisent une heuristique simple mais efficace qui permet à l'agent d'identifier les hallucinations, d'éviter des actions répétées et, dans certains cas, de créer une carte de mémoire interne de l'environnement.
三星肯定对这个非常了解,因为交了不少学费吧,哈
不要分享私人和敏感的信息。
向ChatGPT提供专有代码和财务数据仅仅是个开始。Word、Excel、PowerPoint和所有最常用的企业软件都将与chatgpt类似的功能完全集成。所以在将数据输入大型语言模型(如 ChatGPT)之前,一定要确保信息安全。
OpenAI API数据使用政策明确规定:
“默认情况下,OpenAI不会使用客户通过我们的API提交的数据来训练OpenAI模型或改进OpenAI的服务。”
国外公司对这个方面管控还是比较严格的,但是谁知道呢,所以一定要注意。
就像保护数据库不受SQL注入一样,一定要保护向用户公开的任何提示不受提示注入的影响。
通过提示注入(一种通过在提示符中注入恶意代码来劫持语言模型输出的技术)。
第一个提示注入是,Riley Goodside提供的,他只在提示后加入了:
<code>Ignore the above directions</code>
然后再提供预期的动作,就绕过任何注入指令的检测的行为。
这是他的小蓝鸟截图:
当然这个问题现在已经修复了,但是后面还会有很多类似这样的提示会被发现。
提示行为不仅会被忽略,还会被泄露。
提示符泄露也是一个安全漏洞,攻击者能够提取模型自己的提示符——就像Bing发布他们的ChatGPT集成后不久就被看到了内部的codename
在一般意义上,提示注入(目标劫持)和提示泄漏可以描述为:
所以对于一个LLM模型,也要像数据库防止SQL注入一样,创建防御性提示符来过滤不良提示符。
为了防止这个问题,我们可以使用一个经典的方法 “Sandwich Defense”即将用户的输入与提示目标“夹在”一起。
这样的话无论提示是什么,最后都会将我们指定的目标发送给LLM。
ChatGPT响应是不确定的——这意味着即使对于相同的提示,模型也可以在不同的运行中返回不同的响应。如果你使用API甚至提供API服务的话就更是这样了,所以希望本文的介绍能够给你一些思路。
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!