全球最顶级的团队,告诉你如何构建最优的提示词工程(prompt)

   日期:2024-12-25    作者:zbzyf 移动:http://mip.riyuangf.com/mobile/quote/9061.html

AIGC大火,提示词工程师也成为一个热门职业,

有同学问我,提示词工程师本质上是什么?

我觉得,提示词工程师就是“人与AI之间的翻译”

换句话说,提示词工程师=从前的程序员,相当于未来的程序员

今天,我们一起来看一看全球最牛团队的大佬们,是如何构建提示词的。

本文是上个月Anthropic官方在youtube的一个播客全文的“脱水”版(视频链接我放在了文尾),全程1个多小时的视频,最终缩减到3000字。

全部内容用workflow自动生成,我做了一些人工修正,文中的粗体是我人工标注的重要信息。

背景介绍:圆桌讨论的主题是prompt engineering,就是那种教机器怎么回答问题的技术。这次讨论挺全面的,从研究者、消费者到企业的角度都会涉及到,目的就是要听听不同的声音,好好聊聊prompt engineering到底是个啥玩意儿。

来参加讨论的有四位大佬。首先是Alex Albert,他现在是Anthropic的开发者关系负责人,以前在prompt engineering团队里当过工程师,搞过解决方案架构和研究。然后是David Hershey,他主要是搞客户服务的,帮客户调教语言模型,解决各种问题。还有Amanda Askell,她带领一个团队,专门让Claude这个AI变得更诚实、更友好。最后是Zach Whitten,他和Alex争谁是Anthropic第一个prompt engineer,他以前也是做客户服务的,现在转去做prompt生成器和教育材料,想让大家都变得更会和机器对话。

本次圆桌聚焦:提示工程(Prompt Engineering),开启人机对话的无限可能!

什么是提示工程?

00:04 圆桌讨论伊始,多位来自研究、消费、企业界的嘉宾齐聚一堂,以“提示工程”为主题展开深度对话。提示工程的精髓不仅是对模型发出指令,更是一门与模型进行有效沟通的“心理艺术”。提示工程师通过精细调整提示内容,使模型的输出更符合需求——这正如人类交流中的“心理战”,好的沟通提升智能,精确表达保证输出质量。

实例:如何对模型进行“心理暗示”?

在讨论中,有人分享了通过调整语气和措辞来改变模型响应的经验。例如,当希望模型在输出中更具分析性时,可以用更具思辨意味的提示,如“请分析一下…”;而在需要更概括性的回答时则使用“简要说明…”。这一看似细微的差别,其实能够显著影响模型的回答风格,让输出更符合预期。

核心原则:以实验和试错驱动提示优化

亮点:系统化尝试与反复调试

“与模型的互动,是一门艺术与科学相结合的实验。”——与会嘉宾如是说。提示工程的关键在于不断试探与调整。通过“实验性对话”的方式逐步优化提示内容,获得更精准、有效的互动效果。

08:04避免“典型陷阱”——从非标准输入中获得灵感

提示工程中的常见误区在于,设计提示时过于依赖典型示例,往往忽视特殊情境的需求。例如,当一款产品需要能处理输入错误、模糊语句时,好的提示设计不仅考虑到主流表达,还需覆盖拼写错误或方言词汇等边缘情况。这样的灵活度能使模型在面对不同人群和多样场景时表现得更出色。

案例:应对用户的拼写错误和不规范表达

例如,在一个技术支持的模型中,通过在提示中加入“无论拼写或表达是否有误,请理解以下问题并尝试提供帮助”这样的指令,可以让模型在识别错误表达时更加智能化,而不是直接生成“不理解”类的回应。

模型思维过程:不仅“输出结果”,更要“理解逻辑”

16:08 与会嘉宾指出:真正的提示工程不仅在于模型“输出对的答案”,更在于帮助模型从理解逻辑上优化反应过程。这种过程类似于对话中的“思维引导”,好的提示工程师应从模型的角度思考“如何更好地理解用户需求”

实例:如何帮助模型理解任务?

例如,当某个任务需要模型从一组文档中提取具体信息,提示工程师可以将提示从“找出所有关键信息”调整为“识别并整理出文档中提到的核心观点和支持细节”。这种调整能帮助模型理解任务的深度,不再只输出零碎的关键词,而是给出结构化的答案。

小结:提示语言的微调作用不可小觑

一个有效的提示工程,往往依赖于语言的微调。提示语言的精确与否可能会直接影响模型的表现,从微不足道的 0.1% 提升到 1% 以上,这不仅在实验中尤为重要,在实际应用中也能显著提升交互质量。

核心原则:保持清晰沟通,避免模糊表达

24:12 讨论中,有嘉宾指出,许多用户在使用模型时常常采取隐晦表达,这其实会干扰模型的理解。例如,与其说“我在寻找一种特殊的产品”,不如直接告诉模型“我在寻找具有XX功能的手机”。与模型沟通时的清晰性,直接影响模型的准确性和输出的合理性。

案例:避免隐喻与复杂表达的误解

当模型用于医疗领域时,模糊表达如“是否能找到治疗方法”可能导致模型困惑。相反,如果提示工程师直接给出“请列出与症状XXX相关的治疗方案”,模型的理解力会更清晰,反馈也会更精确。

原则总结:直接、简洁、明确是成功的基础

直接、清晰地表述任务,尤其在复杂的应用场景中,能帮助模型准确理解用户的核心需求,从而避免偏离任务目标。这样的沟通方式有助于提升模型的理解力和响应效率。

提示设计的灵活性:适应多样性需求

32:14 在用户提示的设计上,很多人容易将“关键词堆砌”当作万能法宝,结果却因关键词密集导致模型理解偏差。有效的提示通常用最少的语言传达最多的信息——这在企业环境中尤为重要。

事例:关键词堆砌的负面影响

如在客户服务应用场景中,简单地列出“退款”“账单”“查询”几个关键词可能让模型在回应时摸不着头脑。相比之下,提示工程师可设置“请根据以下对话帮助客户处理有关退款和账单的问题”,让模型更精准地理解用户需求,减少无关信息的干扰。

原则总结:保持提示简洁有效

在企业应用中,提示的有效性和一致性至关重要,尤其是在规模化使用场景下。清晰的指令不仅能提升交互效率,也能为后续反馈的优化留有余地。

展望未来:提示工程的演变与启示

1:04:35 随着模型理解力的提升,提示工程也在不断演变,从“人给机器命令”到“人机互动”,模型理解的深度和反馈质量正逐渐提升。未来用户可能更依赖模型引导自身需求,从而更高效地实现任务。

“让思维外化、让意图表达”——每一个提示工程师,都应具备这种核心技能。这是未来更智能化沟通的基础,亦是模型理解人类需求的关键。

1:12:33共情与理解:未来的提示工程将如何进化?

本次圆桌讨论的结语发人深省:未来的提示设计不仅在于理解指令,更在于理解需求背后的意图。与会者提出,“类比式沟通”将会成为未来共情的手段,通过类比和情景设定,引导模型理解复杂任务。这种互动方式的精髓在于使模型不仅是执行者,更是沟通伙伴。

未来趋势:提示工程的协作潜力

随着模型逐步进化,提示工程也将逐渐从命令式互动进化到深度协作。未来的提示工程可能不再是单向的指令传达,而是人机共同学习与进化的过程。

视频链接:


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号