大家好,我是肥仔杰
今天接着讲枯燥乏味的prompt基础学习,学海无涯,持之以恒吧
新来的小伙伴如果不熟悉prompt概念,可以看看上一课的文章。这里再提一次,prompt是给AI发出的指令。
那么接着上次的内容,继续讲Prompt的提示技巧
PS:
接下来讲的内容可能会与之前的内容有部分重复,因为对AI发指令办事的过程大体相同,不同的是执行的逻辑与机制。
还有就是,偏原理性的知识,我不再使用ChatGPT进行举例,怕大家被例子误导。
1,生成知识提示
原文有点纰漏,这里就不照搬原文内容了。讲讲我对这个知识点的理解:
生成知识提示有点像之前提到的少样本提示。但它的重点是知识,把知识喂给AI,然后让它回答相应的问题,就像把它当作一个百科全书一样储存知识,需要用到的时候再问AI。
当然这里的前提是AI没有作恶,给出了正确的知识,如果它作恶或者被黑了,那么历史书就有可能改写。
2,自动提示工程师(APE)
不得不说,这个知识点我费了不少时间去理解,也不敢说是完全吃透了。
自动提示工程师:这是一个用于自动指令生成和选择的框架。
按图分成几部分:
LLMS as Inference Models(推理模型),接收演示例子,生成候选指令。
LLMs as Scoring Models(评分模型),对候选指令进行评分,选择最佳指令。
LLMs as Resampling Models(重取样模型),在保持语义的基础上,生成高分候选指令的变体。
**用人话讲就是,给AI一个示例,让它自己去找出最适合解决同类问题的指令,为用户使用。**上面的三个模型其实代表的是找出这个最佳指令的过程:
接收演示
找出高分指令
生成同类语义的不同指令(非必要)
3,Active-Prompt(灵活提示)
这个灵活提示框架其实比较好理解。
假设我们给AI抛出了2个问题,每个问题都让AI做出多个答案。
如果第一个问题,AI给出的答案都是极其相似的,那么这样的问题就是答案一致性高的问题,也可以说是AI非常肯定且能解决的问题。
如果第二个问题,AI给出的答案各不相同的,那么这样的问题让AI很迷惑,答案一致性很低。
对于一致性高的问题,将交由AI负责解决,而一致性低的问题,由人工进行少样本提示+链式思维方式进行引导,给出解决范例,以此教会AI处理相似的问题。
总得来说就是,常规情况AI处理,特殊情况人工处理并让AI跟着学习。
4,方向提示与ReAct框架
方向提示,指的是给AI安排工作范围
上图里面,完成同样的一个概括文本任务,左下方是让AI根据提示词进行概括,右下方则直接让AI进行概括,结果迥异。如果想让AI朝某个方向完成任务,方向提示的关键词可以发挥积极作用。
ReAct框架
此框架的意义在于,能让AI联网查找信息,并且根据任务要求,主动分析找到的信息,再进行下一步新的搜索分析,直到完成任务为止。
上述示例翻译成人话就是:
搜索苹果遥控并且找到最初用苹果遥控进行交互的软件。
搜索到苹果遥控的信息,并且发现它最初设计用来控制Front Row媒体中心程序。
搜索Front Row
搜索Front Row无果,切换搜索Front Row软件(这一记切换非常重要,体现了AI的智能)
搜索Front Row软件发现,它由苹果遥控或者键盘功能键进行操控。
完成任务,键盘功能键就是所要寻找的答案
根据任务结果进行推导,应该是寻找最初与苹果遥控器交互的软件,并且找出其他的操控方法。
AI通过一番搜索推导,终于找到答案。
ReAct框架的意义,应该是通过联网,实现AI自动完成信息采集分析功能。从上面案例来看,确实挺有实用性,但目前GPT-4并不能联网,所以可能得等GPT5.0了。
5,多模态思维链提示方法
简单来说,就是给AI提示的信息,不再限于文字,还可以引入图片、视频、音频等等(当然后面的东西还有待实现)
示例解析:
输入:
问题:这两种东西有什么共同点?
答案:A软的 B咸的
输出:
原理(判断原理):看看这两个东西,对于每个东西是否都有这个(相同)属性。
推理过程:薯片是咸的,它们都是咸的。当你去挤压软的东西时,它会改变形状,薯片是软的,但饼干不是。所以这两种东西的共同特点是咸。
得出答案:B
这个框架的意义在于突破文字的局限,把喂给AI的食材从文字变成图片,乃至以后的音频视频等等。
好的,本期学习笔记到此结束,谢谢大家收看。不得不说,学习真是个漫长又累人的事情,却总是最让人沉迷啊。
我们是AI探索者之家,专注研究AI行业前沿技术,体验AI赛道的优秀产品,分享最新价值资讯,欢迎各位加入我们一起探索人工智能新世界。
加入社群,请添加管理:lanjiejiang