首页 SEO攻略 正文

数字化出海浪潮下,用n8n搭建AI工作流驱动网站赚美金?

SEO攻略 2025-07-04 12

在数字化国际化的潮流中,人工智能驱动的流程正逐渐成为提高工作效率、降低运营成本的得力工具。本文作者利用n8n平台构建了一个AI赋能的工作流,旨在助力网站走向国际市场并实现美元收益。在第一部分内容中,作者详细阐述了如何与Supabase数据库建立连接。接下来,本文将进一步揭示如何实现网站截图的自动获取以及生成对搜索引擎友好的介绍信息。

承上篇内容:借助n8n构建AI驱动的网站,助力企业迈向国际市场,实现美元收益——本期重点介绍如何与Supabase数据库实现连接。

年初,我创建了一个针对AI编程工具的导航平台,目标是待网站流量增加后,通过投放谷歌广告来赚取美元。

基于AI编程开发的流程,我们旨在为各个阶段推荐相应的效率工具:激发灵感与创意、制作原型与设计、进行编程开发、管理数据库与存储、实施部署上线、增强扩展功能、执行数据分析、进行内容管理、以及实现协作与运营。

这是整个网站的后端处理逻辑:

需求描述

今天来解决第二个阶段:

效果是这样:

将网站的截图用作卡片封页,以网站内置的标题作为卡片名称,并且同步创建简短的描述。

点击每张卡片即可查看详细信息,我们同样期望这些内容能被谷歌收录,因此必须确保其SEO友好性。

网站截图

这个需求的核心就是网站截图,有 3种方式

1. 第一种是 本地部署python跑

tap4ai所集成的后端技术基于pyppeteer,这实际上等同于通过Chrome浏览器访问网页,随后进行截图操作,其中涉及的核心编程代码部分。

2. 第二种 是调用别人现成的API

目前测下来效果比较好、且免费的是 urlscan

这是它的文档地址

能顺利截reddit的图,示例:

:///

结构就是

【宽度】&height=【高度】&url=【网址】

经过测试几个网站,发现它们都使用德语。就像图中所示,存在一些遮挡现象,这很可能是由于设备设置不当造成的。

其他的,要么是被禁了,要么要付费。

使用WordPress的预览功能可能会受到限制,这很可能是因为服务器位于我国境内所致。

:///?w=600&h=400

其他的,例如 ,就要付费,效果未知,pass

第三种方案是采用Docker技术来部署一个无头浏览器,并通过端口的方式使其能够被n8n所调用。

具体参考:

这种,说实话还是很麻烦,尝试了一下没成功,就先放弃了。

观察下来,效果最为显著的是第一种方案,然而,大多数工作流平台普遍存在一个问题:它们无法执行那些复杂的Python脚本。

因此,所采取的方案是将tap4ai本身具备的、基于Python的playwright截图功能进行封装,并打造为一个API,以便n8n能够进行调用。

这同样是我处理众多复杂功能的策略:首先,在Cursor上独立完成各个模块的开发;接着,将这些模块打包为fastapi格式;随后,利用宝塔面板将其部署至服务器;最后,开放端口权限,以便n8n能够进行调用。

请创建一个新的脚本,并将@website_crawler.py中负责网页截图的功能部分独立出来。如果需要调用其他脚本,相应的代码也应一并放入。这是网页截图功能的核心所在,你需分析并确定还需要哪些内容:通过使用`sequentialthinking`MCP工具进行逐步思考处理,确保操作过程中不会对其他功能代码造成干扰。

什么seo_ Supabase数据库连接 _AI工作流网站出海

持续将代码模块转化为fastapi接口:持续对@website_screenshot.py进行封装,使其成为fastapi接口,用户提交网址后,将提供截图的URL,这包括云存储的URL以及缩略图的URL。

我不仅亲自指导cursor编写了一个API测试脚本,确保测试结果一切正常,方才进行部署。

上传到宝塔面板,部署成API

题外话,我强烈建议在部署服务器时使用宝塔面板,利用该面板进行操作可以大大简化流程。比如,n8n、dify 等软件的部署过程几乎都能一帆风顺。

1. 在宝塔面板新建文件夹

将重要文件,诸如代码脚本、.env环境配置文件以及requirements.txt等,一并上传至指定位置。

2. 新建Python项目

在下图位置,填好信息即可。

3. 查看日志确保服务启动

4. 在线调试

FastAPI自带了接口文档功能,并且在该文档中还能进行调试,操作起来非常便捷。

例如我部署在3333端口,文档就在 :3333/docs

找到接口函数,点Try it out,并修改下面的请求参数

点Execute,下面Curl就是自动生成好的请求

下面Response boy我们看到返回200,数据正常

通信已恢复正常,随后需在 n8n 中创建 HTTP 请求节点,目的是确保能够顺利获取并显示网站截图的相关信息。

至此,我们最麻烦的一步就解决了。

n8n工作流

接下来,就可以着手去新建工作流。

为了便于操作,我们决定继续采用之前的工作模式,在网站信息提交完成后,便立即利用这些信息来截取网站图片并撰写相关介绍。

如图所示,上方的流程展示了我们之前的工作模式,其主要任务是解析用户输入的网址,并将其上传至数据库,随后进行抓取。

与之不同的是,我新增了一个功能模块,能够提取出多个网站的信息,使得用户能够一次性提交多个网站的数据,即便是一篇涵盖多个网站介绍的文章,也能够实现全部内容的直接录入。

以下为本次新增的工作流程,旨在对用户提交的网站进行截图处理,并生成便于搜索引擎抓取的详细描述。

在上一小节中,我们已提及,将Python脚本转化为API,并随后创建新的HTTP请求,用于处理网站截图。

接下来看写网页详情的这个节点:

测试一下录入网站:

数据库有了:

前端也有了:

详情页也写好了:

感兴趣可以进去看看:

由于我的服务器位于境外,采用这种方式,即便是在风控严格的Reddit上,也能顺利截图,不会遭遇拦截等问题。这便是我将此部署在网上的一个额外考虑。

官网排名莫名下降、权重难升?这些自检要点快收藏
« 上一篇 2025-07-04
广告主与流量撮合平台的广告有何优势?效果及案例分析来了
下一篇 » 2025-07-04

文章评论