微信公众号:Ai大模型让回复更具智能化
前言
前段时间逛GitHub刷到一个项目:chatgpt-on-wechat,特别有意思。使用大模型搭建微信聊天机器人,基于 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/LinkAI
,支持个人微信、公众号、企业微信、飞书部署,能处理文本、语音和图片,访问操作系统和互联网,支持基于知识库定制专属机器人。
简单来说就是,利用这些平台的Api接口实现,微信机器人以及公众号智能回复的功能。
正好想起之前听说星火有提供体验包,就打算接上我那个人公众号试试。效果还不错,可以多个模型切换,管理模式等等,并且带关键词回复(和配置),原本的功能也不会丢失。
使用体验方面,除了感觉有点延迟之外,也不知道是程序上的问题,还是我用的是测试机比较拉胯(服务器121配置),其他方面倒没有碰到过什么问题了。
chatgpt-on-wechat
ChatGPT近期以强大的对话和信息整合能力风靡全网,可以写代码、改论文、讲故事,几乎无所不能,这让人不禁有个大胆的想法,能否用他的对话模型把我们的微信打造成一个智能机器人,可以在与好友对话中给出意想不到的回应,而且再也不用担心女朋友影响我们 打游戏 工作了。
功能支持
截稿前(23.11.28),最新版本支持的功能:
- 多端部署:有多种部署方式可选择且功能完备,目前已支持个人微信、微信公众号和、业微信、飞书等部署方式
- 基础对话:私聊及群聊的消息智能回复,支持多轮会话上下文记忆,支持 GPT-3.5, GPT-4, claude, 文心一言, 讯飞星火
- 语音能力:可识别语音消息,通过文字或语音回复,支持 azure, baidu, google, openai(whisper/tts) 等多种语音模型
- 图像能力:支持图片生成、图片识别、图生图(如照片修复),可选择 Dall-E-3, stable diffusion, replicate, midjourney, vision模型
- 丰富插件:支持个性化插件扩展,已实现多角色切换、文字冒险、敏感词过滤、聊天记录总结、文档总结和对话等插件
- Tool工具:与操作系统和互联网交互,支持最新信息搜索、数学计算、天气和资讯查询、网页总结,基于 chatgpt-tool-hub 实现
- 知识库:通过上传知识库文件自定义专属机器人,可作为数字分身、领域知识库、智能客服使用,基于 LinkAI 实现
部署方式
运行方式 | 需要的资源 | 优势 | 劣势 |
---|---|---|---|
Docker部署 | 服务器 + docker环境 | 不用关心python环境和依赖 | 插件配置稍麻烦 |
本地运行 | 个人机器 + 本地代理 + python环境 | 方便本地代码调试 | 不适合长时间稳定运行 |
服务器部署 | 服务器 + python环境 | 方便配置和源码修改、稳定运行 | 需要简单的linux基础 |
Railway部署 | 一个超过半年的github账号 | 一键部署 | 免费额度有限,插件等高级功能使用不便 |
值得注意的是,公众号目前只支持 服务器
和 docker
环境部署,不支持railway及本地部署。
效果预览
当然了,你也可以前往下方微信公众号:亦小封
,进行回复体验~
部署教程
本篇教程只提供
服务器部署
方案,为实机实装步骤。更多部署方式可参考:项目文档 - 程序部署
准备一个微信公众号(订阅号/服务号),以及一台Linux的服务器
前往
讯飞星火认知大模型
注册账号,并进行实名认证。(当然了,也可以使用文心一言或者ChatGPT等等,即可。)
- 在
星火大模型V3.0
处进行点击立刻购买,选择个人认证的免费保进行下单。回到页面后,记下APPID、APISecret、APIKey的值,后面需要用到。(注意这些内容不可重置,所以勿轻易泄露。)
检查你的服务器Python版本是否在 3.7.1~3.9.X 之间,推荐3.8版本,如果满足条件则可跳过第5、6步骤。
根据以下内容,逐步进行。
1 | yum install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gcc make libffi-devel |
- 配置软连接。
1 | sudo rm /usr/bin/python3 |
- 进入宝塔创建站点,然后在站点设置的
反向代理
进行添加你所需要映射的端口,写法为:127.0.0.1:端口号
- 在FinalShell上,进入该站点的根目录处,也就是所示的:
/www/wwwroot/ai
。接着逐步执行下方内容。
1 | cd /www/wwwroot/ai |
- 进入后拉取项目代码,再到宝塔的站点文件处将拉取到的
chatgpt-on-wechat
文件夹内所有的文件移动到站点的根目录。
- 根据以下内容,逐步进行。
1 | pip3 install -r requirements.txt |
登录微信公众号,找到设置与开发里的
基本配置
选项,进行开通后,会得到开发者的 AppID 和 AppSecret,将其记下,后面需要用到。在宝塔内,站点根目录处新建
config.json
文件,配置好下边的东西,放进去。
1 | { |
类型 | 释义 |
---|---|
model | 我这使用的是讯飞的星火大模型 xunfei ,可配置为:gpt-3.5-turbo 、gpt-3.5-turbo-16k 、gpt-4 、wenxin 、xunfei |
channel_type | 订阅号填:wechatmp ;而服务号则填:wechatmp_service ,但是要确保开通了客服接口 |
wechatmp_token | 设置一个你自己的秘钥,必须为英文或数字,长度为3-32字符。后面需要用到。 |
wechatmp_port | 此处填写第七步所填写的端口号,在不冲突的前提下,任意数值皆可,但注意需要在安全策略放行改端口。 |
- 当然,你也可以在
config.json
配置多个模型以便切换。
1 | "open_ai_api_key": "", |
- 在站点根目录下,逐步执行以下命令,启动运行。
1 | touch nohup.out |
正常运行后,来到微信公众号后台的
基本配置
选项,将你的服务器公网地址填进IP白名单
内。接着在
服务器配置
处修改配置,依次填写URL、Token、EncodingAESKey,消息加解密方式选择明文,提交即可。
类型 | 释义 |
---|---|
URL | 如果绑定了域名,那此处就为:你的域名/wx;如果没有绑定域名,则为:http://你的公网ip/wx。 |
Token | 此处填写第十二步 wechatmp_token 的值。 |
EncodingAESKey | 点击随机生成即可。 |
- 至此,大功告成!可以前往公众号里体验了~
进阶教程
当修改了 config.json
时,也可以在公众号里进行管理身份认证直接进行重载配置、切换模型等操作。
管理认证
- 在公众号内进行发言,在日志处可以看到用户身份id,复制下来。
- 打开宝塔,进入
[站点根目录]/plugins/godcmd/config.json
文件,进行配置身份和密钥。
1 | { |
- 关闭进程后,重新运行。
1 | ps -ef | grep app.py | grep -v grep |
管理命令
类型 | 释义 | 用法 |
---|---|---|
help | 帮助文档。 | #help 或 #help 插件名 |
auth | 管理身份验证。 | #auth 密钥 |
reconf | 重载配置,修改完配置后可以通过命令进行重载。 | #reconf |
model | 查看或切换模型 | #model 可查看当前模型和模型列表;#model 模型名称 可切换使用该模型。 |
关键词
- 打开宝塔,进入
[站点根目录]/plugins/keyword/config.json
文件,进行配置。
1 | { |
- 关闭进程后,重新运行。