【AI】提示词指南

什么是提示词

Prompt(提示词/提示)是指用户向AI模型(如ChatGPT、Claude等)输入的指令、问题或文本,用来引导AI生成特定的回应或执行特定的任务。通常包括任务描述、上下文信息、输出格式、约束条件等。和人之间的沟通一样,明确的表达,结构化的示意能够提高沟通效率,获取更高质量的信息。

模型适配原则

模型规模 参数量 Prompt特点 适用场景
轻量级 7B-13B 需要详细步骤分解,更多示例 简单分类、基础问答
中等规模 30B-70B 支持复杂推理,适合CoT 逻辑分析、内容生成
大规模 100B+ 少样本学习,抽象理解强 创意写作、专业分析

Prompt核心要素

提示词要素

  • 角色与任务(Role & Task):明确定义AI的身份角色和核心任务,建立专业背景和能力边界。
  • 背景资料(Context & Knowledge):提供完成任务所需的领域知识、规则标准和参考信息。
  • 动态内容(Dynamic Input):每次请求变化的具体输入内容,如文档、图片、用户问题等。
  • 操作步骤(Process Steps):将复杂任务分解为可执行的具体步骤,确保处理逻辑清晰。
  • 示例样本(Examples):提供正面和反面案例,帮助模型理解任务标准和边界。样本可以是one-shot或few-shot,并且在提示的上下文中常常用于提供明确的任务示例。
    • One-shot 示例:提供给模型的单个输入输出配对示例,帮助模型理解任务要求和期望的输出格式。适用于模型已有相关领域知识时。适用场景:模型已有一定基础知识,只需要一个示例来了解具体格式和期望输出。
    • Few-shot 示例:提供给模型的多个(通常是2-5个)输入输出配对示例,进一步明确任务细节和复杂性。适用模型对任务有一定了解但需要更多具体示例时。适用场景:任务较复杂,或者模型对任务不够熟悉,需要通过多个示例来学习任务特征。
  • 输出规范(Output Format):明确指定输出格式、质量标准和关键提醒。

质量与标准

明确性原则

  • 具体化表达:避免模糊词汇,使用精确的术语和量化指标
  • 结构化组织:采用层次化的信息架构
  • 边界清晰:明确任务范围和限制条件

示例对比:

1
2
❌ 不够准确:告诉我关于大模型框架选型的知识
✅ 准确表达:请分析Java生态下的大模型框架选型,包括Spring AI、LangChain4j、DeepJava等,从技术兼容性、性能表现、社区支持、模型支持范围四个维度进行对比分析

完整性原则

  • 上下文丰富:提供充分的背景信息和约束条件
  • 要素齐全:包含所有必要的评估维度和标准
  • 异常处理:考虑边界情况和错误处理机制

明确的输入和输出格式

输入格式:是指大模型接收的原始数据的结构和格式,请使用标准的结构化数据来呈现,方便大模型能够正确的解析和识别,包括段落,重点词等。建议使用markdown和xml的格式。

输出格式:指期望大模型返回的响应格式,必要时需要指定响应结构、代码输出格式等。

高级Prompt技术

链式思考(CoT)提示

适用场景:需要逻辑推理、数学计算、复杂分析的任务

示例,请使用以下思维链方法分析问题:

  • 第一步:问题分解
    • 识别核心问题和关键变量
    • 列出已知条件和约束
  • 第二步:推理过程
    • 步骤1:[具体推理步骤]
    • 步骤2:[具体推理步骤]
    • 步骤3:[具体推理步骤]
  • 第三步:结论验证
    • 检查推理逻辑的合理性
    • 验证结果是否符合常识

思维树 (ToT)

适用场景:需要探索多种可能性的开放性问题

示例,请用树状思维方法解决问题:

  • 第一层:方向探索
    • 方向A:[具体描述]
    • 方向B:[具体描述]
    • 方向C:[具体描述]
  • 第二层:路径展开
    • 方向A展开:
      • 步骤A1:[具体步骤]
      • 步骤A2:[具体步骤]
  • 第三层:方案评估
    • 对每个路径进行可行性、成本、效果三维评估
  • 第四层:最优选择
    • 基于评估结果选择最佳路径并执行

少样本提示(Few-shot)

One-shot示例适用于模型已有相关知识,只需了解格式和期望输出的场景。Few-shot示例适用于复杂任务或模型不熟悉的领域,通常提供2-5个示例。

  • 示例1(正面案例)
    • 输入:[示例输入]输出:[期望输出格式和内容]说明:[为什么这是好的输出]
  • 示例2(边界案例)
    • 输入:[边界情况输入]输出:[处理方式]说明:[处理逻辑解释]
  • 示例3(反面案例)
    • 输入:[问题输入]输出:[错误示例]问题分析:[为什么这样不好]正确做法:[应该如何处理]

元提示技术(Meta-prompting)

让模型自我优化和调整Prompt策略,通过不断提问在任务执行前做自我检查。

示例,在开始执行任务前,请先评估:

  1. 我是否完全理解了任务要求?
  2. 我是否具备完成任务的必要知识?
  3. 输出格式是否清晰明确?
  4. 是否存在潜在的歧义或盲点?

如果发现问题,请先提出澄清问题,再执行任务。

Prompt调试与优化

Prompt调优工具

常见问题诊断表

问题症状 可能原因 诊断方法 解决方案
输出格式不稳定 格式要求不明确 检查格式说明的具体性 增加格式示例和验证规则
回答偏离主题 背景信息过多或不相关 分析上下文的相关性 精简背景,突出核心任务
创造性不足 约束过于严格 评估限制条件的必要性 适度放宽限制,增加开放性引导
幻觉问题严重 缺少事实核查机制 检查知识来源的可靠性 要求引用来源,设置不确定性表达
响应长度不合适 长度控制不精确 分析输出长度分布 使用明确的长度约束和示例
语言风格不一致 角色定义不清晰 检查角色设定的完整性 完善角色背景和语言风格要求

最佳实践