来源: Anthropic翻译: Claude校对: ALLinLLM翻译进度: 31%
Claude 是由 Anthropic 创建的大型语言模型(LLM)。它经过训练,能够以会话方式成为一位有帮助的助手。
您可以通过以下几种方式与 Claude 进行交互:
Web - 通过 Anthropic 的控制台,您可以在聊天界面中与 Claude 对话。
API - 允许将 Claude 集成到您的产品中,为客户提供服务。
无论选择哪种方式,与 Claude 的交互方式基本相同。这使得您可以先在网页控制台中测试不同的提示词,然后将它们应用到 API 系统中。
Anthropic 正在谨慎地推出 Claude,以确保其安全性和可扩展性。我们目前与选定的合作伙伴合作,在其产品中推出 Claude。如果您有兴趣成为合作伙伴之一,可以提交申请。请注意,由于申请量巨大,我们可能需要一些时间回复。
如果您已经通过某种接口(如 Slack 中的 Claude)与 Claude 交互,并希望切换到另一种接口(如 API 访问),您需要分别重新申请。
Claude 的能力取决于您提出问题的方式。以下是一些初始交互的建议:
将 Claude 视为外包员工像对待外包员工一样与 Claude 对话,而不是简单的文本补全工具。例如:
写一篇专家级的激光光学技术摘要。
Claude“记得”整个线程Claude 可以看到您在当前线程中的所有内容,但无法记住其他线程的对话。
需要记住的限制
Claude 可能会错误地报告自己的能力,或声称“更新记忆”。
在复杂任务中,Claude 经常出错,甚至在基本任务上也会失误。
Claude 有时会产生幻觉或编造信息。
它无法访问互联网,且训练数据可能早于 2 年前。
上下文窗口:语言模型在生成文本时可以回顾的文本量。
微调:使用额外数据进一步训练预训练语言模型的过程。
HHH:Anthropic 确保 Claude 有益、诚实和无害的目标。
LLM:大型语言模型,能够执行多种任务。
RLHF:人工反馈强化学习,用于训练 Claude 成为有帮助的助手。
温度:控制模型预测随机性的参数。
Token:语言模型的最小单元,通常对应单词或字符。
Claude 被训练为一名有帮助的助手。以下是一些设计提示词的技巧:
明确提示像对待新员工一样,为 Claude 提供具体的指示。例如:markdown 人类:为什么天空是蓝色的?助手:
响应示例Claude 的响应称为“响应”。例如:markdown 天空呈现蓝色是由于瑞利散射现象。
提示长度Claude 的上下文窗口当前为 6500 个单词 / 8000 个 token / 28000 个字符。
明确描述需求例如:markdown 反例:纽约有多大?正例:相比其他州,纽约州的面积和人口有多大?
提供示例例如:markdown 人类:想一个护士的有趣集体名词。助手:一群天使的护士。
描述语调例如:markdown 人类:以数学老师的身份解释毕达哥拉斯定理。助手:毕达哥拉斯定理描述直角三角形中边长的关系……
当任务复杂时,将提示分解为多个子任务。例如:markdown 人类:请按以下步骤操作:
编写一段关于工蜂如何维护巢穴的段落。
将“蜜蜂”替换为德语单词,并标记为 蜜蜂。
通过提问来确认 Claude 是否理解您的提示。例如:markdown 人类:您明白说明吗?助手:是的,我理解。
要求 Claude 逐步思考可以改善响应质量。例如:markdown 人类:我有两只猫,一只少了一条腿,另一只正常。它们总共有几条腿?助手:我可以一步一步地思考吗?