Created
Jul 23, 2024 06:34 AM
Favorite
Favorite
Priority
备注
推荐
🌟🌟🌟🌟
类型
Dify
notion image

AI+工作流的优势

我们在用ChatGPT的过程中,如果想让他完成一个复杂的任务,就会对使用者的要求特别的高:
  • 第一要求使用者必须会写系统性复杂的Prompt,还要对大模型的边界能力有一个清晰的认知。
  • 第二,即便是满足了第一个条件,ChatGPT的结果也可能是不稳定的,这个就对小白用户特别的不友好,没有办法完全发挥出ChatGPT的能力。
    • 那么有没有办法可以让小白用户也可以轻松的设计出能够完成复杂任务的AI助理。今天作者就来分享一下如何利用大语言模型加工作流的方式,让新手也能轻轻松的打造出各种高级的AI助理。
大模型+工作流的好处,主要有两点:
  • 第一是可以降低任务门槛,因为工作流可以把一个复杂的任务分解成一个的小任务,降低了每一个单一任务的一个复杂度。这样的话就可以减少我们对提示词以及大模型推理能力的依赖,还能提升大模型处理复杂任务的性能和它的容错能力。
  • 第二是可以有效提升任务效率。当我们把一个工作流设计完成以后,那么再处理类似的任务的时候就会非常的方便。不需要我们再重复一轮一轮地对话,也不需要一轮一轮的纠正。你只要把完成任务所需要的一些必要元素丢给这个工作流,那么它就会直接输出结果,它的效率以及它的稳定性都会大大的提升。
    • 这种方式现在正在被越来越多的业内人士以及做AI的项目方认可,是当下AI能真正落地比较可行的一个应用方案。像之前介绍过字节的Coze也在跟进这种方式,还有比如FastGPT、Zapier,也都在往这个方向进化。

Dify工作流介绍

开始之前我们先简单了解一下Dify这个平台,它是一个包含知识库的开源的大语言模型应用开发平台。在Dify上我们可以上传自己的知识库,并且还可以接入各种大语言模型来进行开发,完成一些相应的任务。基本跟Coze的功能差不多,上手很容易,后边也会出一期Dify的完整教学。
我们可以看到在Dify这个工作室板块,进入工作室后是所有我们创建好的应用(包含工具和工作流),点击创建空白应用,然后点击工作流,就可以创建一个工作流了。当然在创建的过程当中,还可以选择聊天助手,Agent等其他的应用,这个的话就是我们今天要讲的一个重点内容,我们今天主要讲工作流。然后我们填好工作流的名称,这里作者的名称是:小红书批量撰写工作流,接下来作者会带着大家一起完成这个工作流

小红书批量文案创作工作流展示

我们先看一下这个工作流最终的样子,在整个流程中,作者调用了各种各样平台的工具,然后还调用了ChatGPT大语言模型。然后工作流可以帮我们完成任务是:可以根据给的主题,或者给新闻链接,来自动帮我们批量的去生成小红书的爆款文案以及爆款标题。生成之后,它还会自动把对应的文案内容保存到作者的笔记工具中。
我们看一下它的运行效果,当把工作流搭建完成以后,点击右上角的运行。首先他会要求我去输入这个四个必要参数,这四个必要参数是自己定义的,
1.输入来源,来源可以给他一个主题,或者可以给他一个新闻的链接,作为内容的来源。
2.然后是要创作的小红书文案风格。
3.第三是要求工作流帮我们撰写几个爆款标题。
4.第四是爆款文案的长度。填写完以后它就可以帮我们把标题以及文案给我撰写出来,并且保存到Notion中去。
点击运行,可以看到会依次按照工作流的流程,把每个节点对应的任务先完成,然后最后给我们输出结果。最后生成的结果,标题和文案内容,都是符合小红书的一个风格,带有一些印刷表情的。
上边这个案例我们是输入了一个主题,来要求他帮我们创作小红书爆款文案。接下来我们找一个新闻链接,同样把它粘贴到来源的位置,再次运行,它会自动化去运行这个流程,去获取新闻里面的内容,最终生成符合我们要求格式的内容。
当我们把这样的工作流搭建完成以后,它不仅可以像上边我们演示的一样样完成 一次任务,是可以重复使用的,未来再有类似的需求,我们就不再需要重新写提示词去调试了。另外还可以根据主题或者根据链接批量完成任务。
我们就可以上传一个excel表格,这个excel表格就是对应的上文中提到我们定义的几个参数。比如说内容来源、风格、标题数量以及内容长度。我们只要把表格导入进去,那么它就可以批量来帮我们完成这些任务。
另外当我们把这个工作流都搭建完成以后,可以一键导出配置文件。配置文件可以分享。分享后的链接也可以再导入Dify,这样,搭建的这个工作流程就可以一键复制过来给别人使用。

工作流搭建过程

相信通过上边的演示,大家都感受到了工作流的强大,接下来我们来演示一下工作流的具体搭建过程,以及过程中有哪些工具可以使用,每个工具分别能起到什么样的作用。
  • 开始按钮:点击初始化后的开始按钮,右边会出现一个功能框,在这里,我们可以通过添加按钮自定义添加一些字段。作者这里添加了四个字段,来源、风格、标题数量以及内容长度,这是我们创作小红书文案比较有用的几个参数。
  • 问题分类器:第二个步骤,是一个问题分类的节点,它的作用是判断上一步的来源的字段,是属于UIL链接还是属于主题/关键词。首先我们要把上个步骤产生数据(来源)传入到输入变量里。然后模型可以选择GPT-3.5。问题分类,我们让它判断是URL链接还是主题/关键词。不同类型的来源,走不同的处理过程。
  • 自定义工具:如果判断到是URL链接,就会自动流转到工具节点,这是自建的一个工具,专门用来获取URL链接,大家可以通过工具菜单创建。
  • 内容大纲生成器:如果判断是主题就进入第二个节点-LLM 3节点,这个节点是用来生成内容大纲,这里的作者还是选择的GPT-3.5的模型,上下文这个输入选项,如果引用了知识库,上下文可以填一下,如果没有使用用知识库,上下文可以不需要填写。然后在任务需求里面,我们需要填写两栏。系统提示词和角色提示词。(这个节点也是作者比较喜欢Dify这个平台的原因之一,现在其他工作流平台的,如果我们选择大模型节点,只有一个输入框,只能发送一个Prompt,没有角色定义。Dify有多个输入框,我们可以自定义系统提示词,还可以填写用户角色提示词,还可以填写助理提示词。对于一些复杂的提示词来说,这个功能就比较实用,而且这也是OpenAI的Api本身提供的功能。)
system
你是一个小红书爆款写作专家,根据用户给的主题撰写小红书文案,内容字数要求是100个字左右。
user
主题如下:
开始/{x}content
  • 变量赋值:在内容处理的两个节点完成后,还需要一个变量赋值的节点。为什么要创建变量赋值节点?是因为我们前边把工作流程一分为二,但是在后面的工作流当中,只有一个工作流程。所以就需要创建了一个变量赋值的节点,把前边两个流程所得到的结果变成一个参数。后面的工作流程当中,就可以统一利用一个参数,这样的话就不用去走两条线。在Dify的自动化工作流编排中,目前是不支持并行的。选择好变量赋值节点后,填写变量类型和变量值,变量值对应上个步骤的两个节点的输出值,那么最终的效果是不管前边走那个流程,都会变成一个统一的变量,供后面的流程去调用。
  • 标题创建:接下来,我们继续创建一个LLM的节点,这个节点的主要是根据前面节点的输出,来创建小红书的爆款标题。同样的这个模型,作者还是用的GPT-3.5,我们依次填入系统提示词和角色提示词,这两个提示词分别是:
SYSTEM:
你是一名小红书爆款写作专家,撰写
个爆款标题(含适当的emjo)表情。
一、在小红书标题方面,你会以下的技能
1、采用二级标题法进行创作。
2、你 善于使用标题吸引人的特点
3、你使用爆款关键词,写 标题 时,从这个列表中随机选 1-2 个
4、你了解小红书平台的标题特性
5、你 懂得创作的规则
二、 结合 我 给 你 输入 的 信息, 以及 你 掌握 的 标题 技巧, 撰写 标题; 输出 格式:
1、 标题 一;
USER:
这是内容:
开始/{x}output
  • 撰写文案:接下来的节点我们要开始撰写小红书的文案,依然选择LLM类型的节点。这里我们选用GPT-4。同样是定义好系统提示词和角色提示词。这里说明一下,为什么作者会把这题和文案分开去写,有两个好处,在工作的当中,我们不需要一次性完成所有的任务。把任务拆的越细,AI的完成度也会越高。第二个好处就是在后面的流程中,作者要分别调用标题和文案内容,所以需要把它进行拆分,后面调用起来就会更加的灵活。那么到这一步,小红书的标题以及文案都已经是创建完成了。后面几个环节只是起到作为输出结果的优化的一些作用。
SYSTEM
你是小红书爆款写作专家,根据用户给的内容,撰写小红书爆款文案(每一个段落含有适当的emoji表情,文末有合适的tag标签)
一、在小红书文案方面,你会以下技能:
1、写作风格
2、写作开篇方法
3、文本结构
4、互动引导方法
5、一些小技巧
6、爆炸词
7、从你生成的稿子中,抽取3-6个seo关键词,生成#标签并放在文章最后
8、文章的每句话都尽量口语化、简短
9、在每段话的开头使用表情符号,在每段话的结束使用表情符号,在每段话的中间插入表情符号
二、结合我给你输入的参考标题和内容,以及你掌握的文案技巧,按照{x}style的文案风格,撰写小红书文案(文案长度:{X}length个字左右);
USER
参考标题:
{x}text
内容:
{x}output
  • 文案格式化:接来作者用了一个代码执行的节点,我们可以通过这个节点自己去写一些简单的代码。像Python的或者JavaScript的代码,都是通过这个类型的节点完成的,而且代码也不用自己写,只要把要求告诉GPT,GPT会帮我们生成好。这里作者是为了把最终生成的结果上传到自己的Notion笔记中,所以需要处理一些格式问题
  • 上传文案:接下来作者要把上边节点生成的文案和标题上传到自己的Notion笔记中去,所以新建了一个HTTP类型的节点。给它发送请求,发送内容,这个节点就会自动把内容获取过来,然后同步到我们想要的终端当中去。我们还是依次设置好参数,这里需要填入上传的链接,然后就是组装Body体。
  • 模板转换:最后作者添加了一个模板转换的节点,这个节点的作用是把前面生成的小红书的标题和文案合并在一起,然后进行结果输出。现在整个工作流就搭建完成了。
接下来我们测试一下,点击运行,输入开始的四个参数,然后就会看到工作流在一个节点一个节点执行,我们可以看到哪个边框亮就代表走到哪了一步。执行完以后我们就可以在右边的结果栏里看到执行的结果。另外我们可以点击详情看执行的耗时情况,再有就是可以追踪到每一个节点的执行情况。
整个流程都设计完成之后,我们就可以点击右上角的发布或者更新。更新完成之后,我们除了在Dify这个平台直接使用外,还可以通过API在外部去调用这个流程。
这里我们再来演示一下批量运行,点击批量运行,它会给我们提供一个表格模板,点击下载模板。这个模板的参数字段,也是根据第一个节点里面对应的这几个参数。下载好表格以后,把对应的几个参数添加进去。
当任务运行完成以后,可以单个复制,还可以点击右上角的下载按钮,可以把完成的任务列表直接进行输出。
AI作为未来十年的生产力工具,我们要真正的把AI转换成生产力,而不仅仅是看一个热闹。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI学习资料我已经打包好,朋友们如果需要可以微信扫描下方二维码免费领取【保证100%免费

Loading...