简介---对部分用于做了调整,不讨好写,需要重点comment

This commit is contained in:
xuhu0115
2023-07-22 21:25:00 +08:00
committed by GitHub
parent 9fe8f64780
commit 2771cc60fa

View File

@ -1,21 +1,15 @@
# 第一章 简介
**作者 吴恩达教授**
欢迎来到**面向开发者的 ChatGPT 提示词工程**部分,本部分内容基于**吴恩达老师的《Prompt Engineering for Developer》课程**进行编写。《Prompt Engineering for Developer》课程是由**吴恩达老师**与 OpenAI 技术团队成员 **Isa Fulford** 老师合作授课。曾开发过受欢迎的 ChatGPT 检索插件,并且在教授 LLM Large Language Model 大语言模型)技术在产品中的应用方面做出了很大贡献。她还参与编写了教授人们使用 Prompt 的 OpenAI cookbook。我们希望通过本模块的学习与大家分享使用提示词开发 LLM 应用的最佳实践和技巧。
欢迎来到本课程,我们将为开发人员介绍 ChatGPT 提示词工程Prompt Engineering。本课程由 Isa Fulford 教授和我一起授课。Isa 是 OpenAI 的技术团队成员,曾开发过受欢迎的 ChatGPT 检索插件,并且在教授 LLM Large Language Model, 大语言模型)技术在产品中的应用方面做出了很大贡献。她还参与编写了教授人们使用 Prompt 的 OpenAI cookbook
网络上有许多关于提示词Prompt 本教程中将保留该术语设计的材料例如《30 prompts everyone has to know》之类的文章这些文章主要集中在 **ChatGPT 的 Web 界面上**,许多人在使用它执行特定的、通常是一次性的任务。但我们认为,对于开发人员,**大语言模型LLM 的更强大功能是能通过 API 接口调用,从而快速构建软件应用程序**。实际上,我们了解到 DeepLearning.AI 的姊妹公司 AI Fund 的团队一直在与许多初创公司合作,将这些技术应用于诸多应用程序上。很兴奋能看到 LLM API 能够让开发人员非常快速地构建应用程序
互联网上有很多有关提示词Prompt, 本教程中将保留该术语的材料例如《30 prompts everyone has to know》之类的文章。这些文章主要集中在 ChatGPT 的 Web 界面上许多人在使用它执行特定的、通常是一次性的任务。但是我认为对于开发人员LLM 的更强大功能是能通过 API 调用,从而快速构建软件应用程序。我认为这方面还没有得到充分的重视。实际上,我们在 DeepLearning.AI 的姊妹公司 AI Fund 的团队一直在与许多初创公司合作,将这些技术应用于诸多应用程序上。很兴奋能看到 LLM API 能够让开发人员非常快速地构建应用程序
在本书的《Prompt Engineering for Developer》模块中我们将与读者分享提升大语言模型应用效果的各种技巧和最佳实践。书中内容涵盖广泛包括软件开发提示词设计、文本总结、推理、转换、扩展以及构建聊天机器人等语言模型典型应用场景。我们衷心希望这本书能激发读者的想象力开发出更出色的语言模型应用
在本课程中,我们将与您分享一些技巧,来挖掘 LLM 的潜力,也会提供应用上的最佳实践。过程中会涉及大量材料。首先,你会学习到用于软件开发的 Prompt 最佳实践,随后会涉及到几个常用使用例,包括概括、推断、转换与扩展,最后会利用 LLM 构建 chatbot聊天机器人。希望这能激发你的想象力去开拓新应用
随着 LLM 的发展,其大致可以分为两种类型,后续称为**基础 LLM** 和**指令微调Instruction TunedLLM**。**基础LLM**是基于文本训练数据,训练出预测下一个单词能力的模型。其通常通过在互联网和其他来源的大量数据上训练,来确定紧接着出现的最可能的词。例如,如果你以“从前,有一只独角兽”作为 Prompt ,基础 LLM 可能会继续预测“她与独角兽朋友共同生活在一片神奇森林中”。但是,如果你以“法国的首都是什么”为 Prompt ,则基础 LLM 可能会根据互联网上的文章,将回答预测为“法国最大的城市是什么?法国的人口是多少?”,因为互联网上的文章很可能是有关法国国家的问答题目列表
随着 LLM 的发展,其大致可以分为两种类型,后续称为基础 LLM 和指令微调Instruction TunedLLM。基础LLM是基于文本训练数据训练出预测下一个单词能力的模型。其通常通过在互联网和其他来源的大量数据上训练来确定紧接着出现的最可能的词。例如如果你以“从前,有一只独角兽”作为 Prompt ,基础 LLM 可能会继续预测“她与独角兽朋友共同生活在一片神奇森林中”。但是,如果你以“法国的首都是什么”为 Prompt ,则基础 LLM 可能会根据互联网上的文章,将回答预测为“法国最大的城市是什么?法国的人口是多少?”,因为互联网上的文章很可能是有关法国国家的问答题目列表
与基础语言模型不同,受**指令微调的LLM**通过专门的训练,可以更好地理解并遵循指令。举个例子,当询问“法国的首都是什么?”时,这类模型很可能直接回答“法国的首都是巴黎”。受指令微调的大语言模型的训练通常基于预训练语言模型,先在大规模文本数据上进行**预训练**,掌握语言的基本规律。在此基础上进行进一步的训练与**微调finetune**,输入是指令,输出是对这些指令的正确回复。有时还会采用**RLHFreinforcement learning from human feedback人类反馈强化学习**技术,根据人类对模型输出的反馈进一步增强模型遵循指令的能力。通过这种受控的训练过程。指令微调的的语言模型可以生成对指令高度敏感、更安全可靠的输出,较少无关和损害性内容。因此。许多实际应用已经转向使用这类大语言模型
而对于指令微调 LLM ,相关研究和实践正甚嚣尘上,训练它们来遵循指示。因此,如果你问它,“法国的首都是什么?”,它有极大可能输出“法国的首都是巴黎”。指令微调LLM的训练通常是基于预训练好的LLM的即模型已经在大量文本数据上进行了训练。然后对其进行进一步训练与微调finetune使用的数据包括输入和理想输出输入是指令、输出是遵循这些指令的良好回答。然后通常使用一种称为 RLHFreinforcement learning from human feedback人类反馈强化学习的技术进行进一步改进使系统更能够有帮助地遵循指令
因此,本课程将重点介绍针对指令微调 LLM 的最佳实践,我们也建议您将其用于大多数使用场景。当您使用指令微调 LLM 时,您可以类比为向另一个人提供指令(假设他很聪明但不知道您任务的具体细节)。因此,当 LLM 无法正常工作时,有时是因为指令不够清晰。例如,如果您想问“请为我写一些关于阿兰·图灵( Alan Turing )的东西”,在此基础上清楚表明您希望文本专注于他的科学工作、个人生活、历史角色或其他方面可能会更有帮助。另外您还可以指定回答的语调, 来更加满足您的需求,可选项包括*专业记者写作*,或者*向朋友写的随笔*等
因为指令微调的 LLM 已经被训练成有益、诚实、无害的,所以与基础 LLM 相比,它们更不可能输出有问题的文本,如有害输出。许多实际使用场景已经转向指令微调的 LLM 。您在互联网上找到的一些最佳实践可能更适用于基础 LLM ,但对于今天的大多数实际应用,我们建议将注意力集中在指令微调的 LLM 上,这些 LLM 更容易使用,而且由于 OpenAI 和其他 LLM 公司的工作,它们变得更加安全,也更加协调
因此,本课程将重点介绍**针对指令微调 LLM 的最佳实践**,我们也建议您将其用于大多数使用场景。在继续之前,我想感谢 OpenAI 和 DeepLearning.ai 团队为 Isa 和我所提供的材料作出的贡献。我非常感激 OpenAI 的 Andrew Main、Joe Palermo、Boris Power、Ted Sanders 和 Lillian Weng他们参与了我们的头脑风暴材料的制定和审核为这个短期课程编制了课程大纲。我也感激 Deep Learning 方面的 Geoff Ladwig、Eddy Shyu 和 Tommy Nelson 的工作。
当您使用指令微调 LLM 时,您可以类比为向另一个人提供指令(假设他很聪明但不知道您任务的具体细节)。因此,当 LLM 无法正常工作时,有时是因为指令不够清晰。例如,如果您想问“请为我写一些关于阿兰·图灵( Alan Turing )的东西”,在此基础上清楚表明您希望文本专注于他的科学工作、个人生活、历史角色或其他方面可能会更有帮助。另外您还可以指定回答的语调, 来更加满足您的需求,可选项包括*专业记者写作*,或者*向朋友写的随笔*等。
如果你将 LLM 视为一名新毕业的大学生,要求他完成这个任务,你甚至可以提前指定他们应该阅读哪些文本片段来写关于 Alan Turing 的文本,这样能够帮助这位新毕业的大学生更好地完成这项任务。下一章你会看到提示词创建的两个原则,一是**清晰明确**,二是**给LLM时间去思考**。
在使用这类大语言模型时,清晰的提示词尤为重要。提示词就像提供给助手的指令。如果指令不明确,语言模型就无法正常工作。本书的下一章将详细阐释提示词设计的两个关键原则:**清晰明确**和**给予充足思考时间**。希望这本书能成为读者开发大语言模型应用的有效指导