「手把手教程」自动化 AI 工作流,多平台贴文每日自动生成及分发系统

精华专栏 Jun 25, 2024

YouTube 视频文字版,『点击此链接观看 YouTube 视频

当我们看到一些有价值的文章或者新闻的时候,我们想分享出去,但是到每一个平台去发帖子又是一件很辛苦的事情。那么一个 AI 系统不但能够学习你的语言风格自动生成内容,还能够帮你准时的发布到各大平台上,是不是很酷呢?这样不仅能够帮你节省你的时间,还能保持你的社交媒体的活跃度,一举多得。

 

我会带你一步一步的搭建这样一个 AI 的自动化系统。我们会用到流行的自动化工作流平台 MAKE.COM,以及顶尖的大语言模型 GPT 或者 Claude。

MAKE.COM 是一个成熟的自动化工作流平台,它能够集成数千种的 APP,让它们协同工作。而且对主流的 AI 支持也很及时,比如 GPT、Claude,甚至连 Perplexity 都支持。

好,咱们先简单的介绍一下我们今天要实践的工作流的功能,然后再带大家一步一步的创建出一个同样的工作流了。

首先我们需要从 Notion 当中取出我们需要进行评价、需要进行分享的文章或者新闻,然后把这个文章的链接给到 Perplexity。Perplexity 它是一个非常强悍的 AI 搜索引擎,那把这个 URL 给到 Perplexity,它就可以获取到文章的内容并且对它进行总结。之后把总结后的文章的内容交给 AI,我们用 Claude 也可以,用 ChatGPT 都可以。让 AI 根据文章的内容以及不同的平台的特点,去写出相应平台的一些帖子,然后把它发布到各大平台上。

这边给大家演示的平台,一个就是 Twitter,一个就是 Facebook、LinkedIn,还有 Instagram。因为 Instagram 需要一个图片,所以我们会用到 DALL·E 3 来画图。这就是整个流程的概况。

我们可以首先看一下咱们的文章的来源是怎么来的。这边就是一个演示的数据库,它的字段只有以下三个:一个就是这个文章的名称,还有就是它的 URL,以及我们是不是要对这个文章进行发帖。比如这篇文章就是 Claude 刚刚发布的 3.5 的 Sonnet 的简介介绍。

我们把这篇文章放到 Notion 里面很简单,因为 Notion 它本身就提供了一个爬网页的一个插件,就是 Notion 的 Web Clipper。我们点击插件之后,然后这边选好你要存网页的数据库,直接点击 Save Page 就可以把网页保存到你的 Notion 当中去了。

 

就像我经常说的,咱们现在是一个信息爆炸的时候,获取信息很简单很容易,但是筛选信息很困难。因此你筛选信息的过程就是一个非常有价值的过程。当我们筛选到合适的信息之后,把它进行分享,就完全可以交给自动化来处理了。所以在这个 Notion 数据库里面,只要发帖这边打上勾了,就表示这个文章将会被分享出去。

那接下来就带大家一步一步的实现这个工作流。

那首先在 Make 里面,每一个工作流它叫做一个 Scenario。当然这就是名称的不一样,就跟在 Zapier 里面叫做 Zap,在其他的系统里面可能就叫做工作流。我们要创建一个新的工作流,就是创建一个新的 Scenario。点击创建一个新的 Scenario,我们可以先给它起个名字,比如我们就叫"演示自动发帖"。

因为我们需要从 Notion 当中去获取到我们需要进行评论和分享的文章,所以首先我们就是选择 Notion。那 Notion 这个 APP 的目的就是我们需要获取到在我们的 Notion 数据库里面我们所有需要评论的、需要发帖的文章列表。那我们今天就先用"监视数据库项目的更改"来获取文章列表。这边我们可以选根据更新时间来判断。

 

那数据库 ID 我们可以直接根据我们的数据库的名称进行搜索,比如我们数据库的名称就是"待评论文章"。然后这边我们就写"待评论文章",OK,选中刚才找出来的就可以。然后这边可以限制一次返回多少条记录,我们可以现在随便输一个 10。那从什么时候开始呢?我们就选择从现在开始好了。

好,接下来我们就需要根据文章的 URL 来获取到文章的详细内容了。那这边我们用 Perplexity 来实现,选择这个 Perplexity AI,然后第一项创建一个 Chat。好,我们把它连起来。同样这是需要创建你跟 Perplexity 的连接的账号连接,实际上就是 Perplexity API Key。

当然使用 Perplexity API,它是要花钱的。我们也有免费的方式来实现这个功能,这就是我在之前的这期视频当中分享过的,我们可以使用 Jina 的 Reader API 来获取到一个网页的详细的内容,而且这个是免费的,配置起来也非常简单。那今天我们就来多学一种获取网页信息的方法,就是用 Perplexity AI 来进行实现。

那这些模型就是 Perplexity 提供的可选模型,online 就是可以进行网络搜索的。当然我们要选一个 online,不同大小的模型它的价格是不一样的,我们可以先选一个 small 的。好,下面就是要给他发 message,具体要配置他的 message。首先角色,那我们肯定是用 user 角色。那 content 就是我们的提示、我们的 prompt。我们的目的是让他去把那个文章进行一个详细的总结。

请详细总结文章,然后我们把 Notion 那边的 URL 给到他就可以了。好,后面的 token 的配置我们可以配到 4000,temperature 我们可以配到 0.3。确定。

 

详细总结的目的就是第一你文章不要太长,第二你也不要太短去丢失太多的信息。当然并不是所有的文章我们都要拿来进行发帖子,这就是为什么我们需要一个发帖的一个选项。所以我们这边要做一个判断,那我们就在这边添加一个 filter。发帖它是一个二进制的选项,true 或者 false,所以我们就要选二进制的操作。它等于 true 的时候,我们才会进行发帖的操作、后续的操作。

 

好到这一步,那么我们的文章的概要总结已经都有了。实际上我们就可以让后面的这些大语言模型,Claude 或者 GPT 去写不同的帖子了。但是我们为什么要中间还要添一个这个模块呢?我们先来看一下这个模块是什么。这个模块它是一个设置变量的模块,我们可以看一下它是什么。它会设置很多的变量,这个变量它主要包括的内容就是后面这些大语言模型所用到的 prompt。

那这么做的目的就在于,当你后面要发帖的平台很多的时候,你可能会需要很多的这个大语言模型。但是这些语言模型,他们所使用的 prompt 是几乎是一样的。如果你把 prompt 直接全写在这些语言模型里面,当你需要改变的时候呢,你就需要改所有的这些语言模型,这是一件很啰嗦的事情。所以我们就把这些同样的 prompt 拿出来,统一放到变量里面。如果有变化,我只需要改一次,后面就都更新了。这是为了提高你整个一个工作效率的方法。

好,我们现在来创建一个变量,set multiple variables,就是设置多个变量。好,这边变量我们可以从那边 copy 一下。都设置哪些呢?首先是一个 article,article 也就是前面 Perplexity 给总结出来的内容。这一步不是必须的,但是写上会更方便一些。好,我们就直接把这个变量赋值为 Perplexity 的输出。

那后面呢就是那些语言模型的提示了,我们就叫它 writer 作者。好,首先是系统提示,system 的 prompt。这些 prompt 大家现在不用去仔细看它,因为后面我都会免费的分享给大家。大家到时候有兴趣可以去详细的去看一下这个 prompt 的内容。自己用的时候呢,也可以根据自己不同的需求来对 prompt 进行调整。

好,除了两个 prompt,system 和 user 提示之外呢,那下面就是针对不同平台的具体的要求。因为你不同的平台,你对它写的帖子的要求是不一样的,所以你需要把它逐一分开。那我们就一个一个来说,比如这边 Twitter 的要求,然后还有 Facebook 的要求,然后 Instagram 的要求,LinkedIn 的要求。总之你有多少个平台,这些平台的要求如果不一样的话,你就创建多少个变量。我们在演示过程中,我们就需要这四个平台就 OK 了。

那之后我们所有的大语言模型就从这个变量里面去获取它的 prompt,获取它的提示。好,接下来就是我们开始给具体的平台来写帖子了。好,我们把上面再缩小一些,看起来更方便一点。因为这些都是大同小异的,我们给下面腾出更多的地方。

因为我们有很多的平台要同时发帖子,所以我们这边是需要一个 router,也就是一个路由器,把它分发到不同的地方。router,那有了 router 之后,我们首先就是需要配置给 Twitter 发帖子的过程。

我们可以先用 Anthropic 的 Claude 创建一个 message。同样这边需要 Anthropic 的 API Key 来创建这个连接。创建连接的过程很简单,这个就不用给大家演示了。模型的选择,我们可以选择这几个大中小的模型。那今天为了方便,我们就选择小模型,海库模型速度会很快。同样最大的 token 应该是成 4000。

那这边关键还是 message,我们需要一个 system message 和 user message。好,我们先配置用户 user message,然后是文本的 message。这边就是 prompt,我们可以从上面去拷贝它的 prompt,粘贴过来。好,这个 prompt,首先就是要使用到通用的 user prompt,也就是我们在前面这个变量里面定义的,user 的 prompt。

"你是一个专门为各种社交媒体平台创作内容的专家等等,你需要按照以下的步骤来创建内容。"然后给你的文章摘要和指定的社交媒体的平台,都会放在 XML 的标签里面。这就是我们所用到的用户的 prompt。所有的这些平台这类模型,他们都用同样的 prompt。所以这边首先我们就是要把这个 user 的 prompt,这个变量拿过来。这就相当于就是刚才的那一段话。所以我们可以看到使用变量,会让我们的整个工作流在今后维护起来会变得更加的简单和有效率。

同样文章的摘要,我们刚才在变量里面也存了。还有我们需要的这个平台,媒体平台以及它的要求就是 Twitter。我们先用 Twitter。这边就可以很简单的构造完一个用户的 prompt 提示。

那 System prompt 系统提示在哪写呢?这边要写 System prompt,我们需要把高级的设置打开。Advanced setting 打开,它才可以有 System prompt 写的地方。同样我们这边只用直接用 System 的 prompt 这个变量就可以。好,其他为了不让 Claude 给我们输出多余的一些话,我们可以给它再加一个 assistant 的 message。我们可以添加一个 assistant 的 message,然后内容我们就直接说:"这就是根据文章摘要生成的社交媒体的帖子。"那加了这样的话之后,Claude 每次输出的时候,它就会直接输出贴文了,它就不会输出很多多余的信息。比如说这句话,你要不加,它有可能会输出这样的话。好,那这个配置完之后,我们就 OK 就可以了。

好,那接下来为什么要用到一个文本处理的一个模块。之所以用文本处理的模块,是因为我们在前边设置 prompt 的时候,我们可以看到,我们要求 AI 在这个标签当中,social media post 在这么一个标签当中,来输出它的最终的贴文。也就是说它最终输出的贴文,它是包括了这个标签的。那这个标签在我们最终发帖的时候,实际上是多余没有必要的。我们就需要用这个 text 文本处理,来取出这个标签之间的内容。这才是我们真正需要的贴文的内容。

那这一步可能对刚入门的小伙伴觉得有些困难。我们可以先看一下,如果我们不用 XML tag,会是什么样的效果。我们只需要改一下我们的 prompt,让它输出贴文就可以了,不要让它把贴文输出到标签当中。比如我们告诉它:"重要:请只输出你的最终贴子。"我们把 prompt 可以稍微改一下:"请只输出你的最终贴子,不要输出任何多余的解释和说明。所有的标点符号,使用中文全角的标点符号。"这样它的输出就不会在 XML 的标签里面了,我们就可以省掉这一步。

那这时候我们就可以来做一次测试,看看它的最终输出效果。好,Haiku 写得很快,我们看一下它的结果。你看我们在 assistant 的 message 里面特地加了一句,结果它还是啰嗦了一个"推特帖子",英伟达成为世界最有价值的公司。这是它的推特的具体内容,还是不错。唯一的缺点就是这个。那我们可以再测试一下,修改一下它的 prompt。我们给它改成中文:"以下就是根据文章摘要撰写的贴文。"我们可以再尝试一次。

好,这时候看看它的输出。那这时候输出就对了:"科技界又一重大变革",它直接就输出了贴文。我们就可以把它的输出内容作为推特的帖子进行发布了。

那实际上刚才从我们修改它的 prompt 的过程,我们其实也应该感觉到我们之所以要用 XML 标签的目的了。我们使用 XML 标签的目的,就是为了准确的得到它的贴文的内容。它任何多余的话,它都会写在 XML 标签之外。我们就没有必要在 prompt 里面写太多的提示,同时又可以保证我们可以准确的获得输出的结果。这就是使用 XML 标签的目的所在。

现在我们把 prompt 恢复到原来的样子。好,我们把刚才的改的 prompt 给它恢复到原来,还是让它输出在 XML tag 当中。确定。这时候我们可以再一次尝试一下这个工作流。好,我们看一下结果。这时候我们看到的就是它的帖子会完全的在这两个 XML tag 之间。这次它没有说任何多余的话,但是即便它说了什么多余的话也无所谓了,因为我们可以根据这个 XML tag 来准确的取出它们之间的内容。这就是下面这一步,文本处理模块所要做的事情。

好,我们在文本处理 app 当中选 Match Pattern。这边实际上就是让你输入一个模式,我怎么去取出这个内容。这实际上是个正则表达式。正则表达式我们就不啰嗦了,我直接就把这边写好的 copy 过来就可以了。好,copy 粘贴过来就行。大小写可以让它不用去区分大小写,这就 OK 了。

同样,我们再次测试一下这个工作流。好,我们看一下最终输出效果。先看这个 Claude 的输出。好,这次我们就可以看到这个情况。Claude 的输出,它输出了贴文,然后它下面还输出了解释。你有时候不让它输出解释,它还是在输出了解释。所以说这部分内容就是多余的。

好,我们看看这个文本处理模块。好,文本处理模块,它就只会取出这两个 XML tag 之间的内容了。到"分享你的想法",后面这些解释的内容就都被剔掉了。这才是我们需要的结果。这步整个流程说明都已经没有问题,我们把它写好的内容直接发布给推特就可以了。

推特对于免费的用户来说,它只能发帖子,所以其他这些功能我们都用不了。我们就只能创建一个 post,创建一个贴文。好,连上。同样创建一个 connection 跟推特的连接之后,这个文本内容我们就用前面这个模块,就是文本处理模块的输出就可以。其他没有什么需要配置的,OK 就可以了。

这样我们一整个的流程,根据文章的 URL,获取文章的摘要,然后让 Claude 根据文章摘要去撰写一个推特的贴子,然后把推特的贴子发布出去,这一整套的流程就 OK 了。

接下来我们可以看到需要发给 Facebook 和 LinkedIn,它的流程跟发推特是一样的,只不过就是平台不一样而已。所以我们可以直接把这两部分内容给它 copy 下来就可以了。我们把它拷贝下来,先保存一下,粘贴。记录我们就给 Facebook,这边主要的内容不会有变化,但是我们的平台要变。这原来写的是推特,我们就要改成 Facebook。其他都不用动。

然后后面我们就连接 Facebook 就可以。这边我是发到 Facebook 的 page,Facebook 的页面。好,我们同样是创建一个 post。创建一个 post,然后点击 Facebook,创建一个链接到 Facebook 的链接。你只要登录一下就 OK。这边就是选你的页面了,这边我只有一个页面,就是 Axton 页面。Message 同样来自于它前面的这一个文本处理模块。然后你可以给它一个 link,就是你的文章的 URL 链接。我们可以从 Notion 的 URL 直接给它就可以。这样我们的 Facebook 也完成了,是不是很简单。

接下来我们去看 LinkedIn。同样我们还是把这两个模块直接粘贴过来,因为它主要的内容都是一样的。唯一需要修改的就是这个平台,这边平台的要求,我们改成 LinkedIn 的要求。其他都不用动。然后我们再创建一个 LinkedIn 的 Post。创建一个 User 的 Text 的 Post,给到这儿。一样所有的 Connection,都是你的一个登录过程,这个基本上没有什么太大的问题。这边的内容还是一样,来自于前面的文本处理的内容。然后公开,然后其他就没有什么可变的,我们直接 OK 就可以了。LinkedIn 也已经完成了。

最后一步是给 Instagram。我们可以看到 Instagram 它会多一些模块,因为 Instagram 我们需要一个图片。这个图片我们就用 DALL·E 3 来画。同样我们还是粘贴这两个通用的模块过来,然后跟这个路由器连上。把这边的要求改成 Instagram,这些都不用动。

但是我们需要 DALL·E 3 来画图了。这边我们要添加一个 OpenAI 的 ChatGPT,因为我们是要画个图片,我们就要选 Create an image。然后跟它连上,模型我们选 DALL·E 3。Prompt 我们直接从前面 copy 过来就可以了。这个 Prompt 大家可以根据它画出来的效果再去调整,让它尽量的画的好看一些。

这边我就给一个简单的例子:"请创建一幅逼真的图像,代表以下 Instagram 帖子的内容。"这个内容就来自于前面的文本处理模块。"图片应视觉上捕捉帖子中的关键主题和信息。使用干净、专业且视觉吸引力强的风格。避免任何的文字和机器人形象。"因为 DALL·E 画画她很喜欢画机器人。另外"图片应该高质量,适合于 Instagram 平台。背景应该简洁、现代。"我还可以多加一句它的分辨率,因为 Instagram 的图片是方形的,我们就 1024x1024。

这边还有一点需要注意的是,DALL·E 3、ChatGPT 这个模块画出来的图片,它是存在它的服务器上,但是是有期限的。它并不会永远给你保存在那边,所以你不能直接用它图片创建出来的 URL。否则的话过一段时间你的图片就没了,所以我们会需要用到一个图床。比如这边我就用的是一个 IMGBB 图床,来保存 ChatGPT 创建出来的图片。

所以这边需要注意的就是,我们需要在它的高级配置里面做一些配置了。好,这边可以配置尺寸,所以我们的那个 Prompt 其实可以

不需要。然后 Quality 我们用 HD,Quality 质量会更高。样式我们可以用一个标准的样式,自然的样式,不要它太鲜艳。关键的配置就是在这,Response Format,就是它的应答的格式。它可能是个 URL,这个 URL 就是它生成图片所在的一个网址。我刚才已经说了,这个网址它是会过期的,所以我们不能用它。我们需要把它换成图片文件,然后我们把这个文件上传到图床。我们就可以在之后的帖子当中使用图床当中的图片了。

好,接下来就是我们的图床了。这个图床没有什么特别的要求,大家可以用任何一个你喜欢用的图床。本身 Make 里面也支持好几个,那这边我就随便选了一个免费的图床。图床配置也是很简单,首先还是创建一个链接,就相当于你要登陆上去一个账号。之后你就在文件里面选择 OpenAI 过来的这个文件就可以了,整个的配置就这么一点。OK。

最后就是 Instagram 了。好,我们创建 Instagram。那在 Instagram 我们需要创建一个 photo post,照片的贴文、带图片的贴文。那有哪些需要配置呢?那这边 Instagram 的账号需要说一下,如果是你需要用 Make 来在 Instagram 上进行创建 post 的话,你需要用到它的 business 账号,Instagram 的 business。这个你在 Instagram 里面直接转换一下就可以。然后页面也是一个配置页面。

好,这边关键就是一个 photo 的 URL,这个照片就是 DALL·E 3 画出来的照片。我们给上传到图床了,也就是 imgbb 上面的 URL,就是这个图床的 URL。Caption 就是文字内容,我们就可以用它写出来的这个文字内容。好,其他可以不用做配置,OK 就行。

那这样我们一个整个的配置就完成了。保存一下,好,咱们的整个工作流就完全的创建完成。我们可以来做一下整体的测试。我们把上面的关掉,这就是我们刚刚创建好的工作流。我们就从头到尾来做一次测试。

比如我们就找一个新闻,Amazon 的新的人工智能助手,每个月 10 美元的这个新闻。我们先把它回复到英文状态,然后我们用 Notion 的 web clipper 把这个网页截取下来,保存到我们的 Notion 数据库里面。好,我们看一下,也就是第一条 Amazon 的这一条。我们就需要把这篇文章进行评论发帖,选中给发帖这边打上勾。然后我们回到我们的工作流,点击运行。

好,全部运行完成,没有任何问题。我们去看一下这个帖子到底写的怎么样。好,先看推特:"亚马逊推出全新 AI 版 Alexa,每月订阅 5~10 美元,可完成多个请求,主动学习新技能,自动创建日常习惯等等等等。你期待使用这款 Alexa 吗?"因为我觉得这个写的还不错,但是忘了把那个 URL 给他了。这个我们回来改一下就行,这边忘了给他 URL,把原文的 URL 给他应该。总之这个推文还是不错的。

我们再来看 Facebook。好,Facebook 这个 URL 我没忘掉。"你平时是否觉得 Alexa 有一些局限性呢?"等等,不错。然后同样 LinkedIn,"科技圈的领袖们注意了,Amazon 即将推出全新的 AI 智能助手"。大家其实可以看到他写的这几篇贴文,他的风格是不一样的。这就是因为不同的平台有不同的要求。

好,最后我们再来看一下 Instagram。OK,画的图片还不错。为什么会画一个碗?好,以上就是整个工作流的过程,效果还是不错的。当然为了让它的效果更上一层楼,我们还需要做更多的细微的调整。比如我自己用的流程,它就会更加复杂一点。这套流程当中的一些细节设置,我会在下个月更新到我的自动化课程当中去。

好,那接下来就给大家讲一下,我们如何去获得我的免费的模板,然后我们怎么样把这个模板导入到自己的 Make 里面去。输入网址 Axtonliu.ai,进入到 AI 精英学院。然后所有分享的内容都在我的免费分享里面,大家点击注册免费福利课程就可以了。如果你之前注册过,那直接用你的邮箱登录进去就可以了。在首页右上角登录,点击登录,然后输入你的邮箱和密码点击确定,就可以登录到你自己的 dashboard。

这边就是免费课程,刚才讲的部分就在 AI+自动化这个模块里面,全平台自动发布贴文的简化版。这里面我们需要的系统提示和用户提示都写在这个文字里。Make 的模板在这边点击下载就可以。这边是个压缩后的 JSON 文件,因为文件名是中文,所以它不识别。我们直接点击下载,下载之后我们把这个解压缩,这就是 JSON 文件,全平台自动发布贴文简化版。

然后我们回到我们的 Make 里面,在一个新的 scenario 里面,点击这个省略号的按钮。有一个导入 Blueprint,Blueprint 就是 Make 的模板。我们就要选 Import 导入 Blueprint,然后选择刚刚下载后的 JSON 文件,打开,然后选保存。这个就自动的全部给你放好了。当然这里面的登录信息,你都需要重新进行登录和配置,它不会包括我的登录信息在里面的。

订阅 Axton 的免费 Newsletter / 电子邮件报

我们尊重您的隐私,您提供的电子邮件地址仅用于我们向您发送相关资讯。

好用工具推荐

我的自用 GPTs 分享 → https://www.axtonliu.ai/blog/the-world-best-gpt-gpts/

免费 Notion 账号 → https://affiliate.notion.so/axton

Notion AI → https://affiliate.notion.so/axtonliuai

超好用的自动化工具 Make → https://www.make.com/en/register?pc=axton

超越 Google 的 AI 搜索 → https://perplexity.ai/pro?referral_code=N57GTJIQ

YouTube 频道必备工具:TubeBuddy → https://www.tubebuddy.com/axton

高性价比图片视频素材库:Envato → https://1.envato.market/axton