简体中文 | English
一个安静地待在 Mesh 网络里的 AI 小节点。
你发消息给它,它会回你一句。
不张扬,不联网,也不需要服务器。
只是当你在山里、在野外、在没有信号的地方,还能问一句“你觉得呢?”,然后收到一个回答。
- 接收发给它的私信(点对点消息)
- 用本地 AI 模型生成简短回复
- 把回答原路传回,就像它一直在线等你
所有处理在本地完成,隐私可控。
- 使用 Python 监听 Meshtastic 设备的串口消息
- 当收到发给本节点的私信时,提取内容
- 调用本地运行的 Ollama 服务(或其他 AI 接口)
- 生成回复后通过同一网络回传
| 连接方式 | 串口 |
|---|---|
| 记忆 | 未实现 |
| LLM Tool | 未实现 |
| 语言支持 | 中、英、日、法、俄、韩、西、德 |
| 服务提供商 | OpenAI(及类似,如:DeepSeek、Ollama)、web sockets、fastapi |
{
"platform": "ollama",
"localization":{
"language": "zh_CN"
},
"api_keys": {
"openai": "your-openai-api-key",
"deepseek": "your-deepseek-api-key",
"openrouter": "your-openrouter-api-key",
"gemini": "your-gemini-api-key",
"claude": "your-claude-api-key",
"siliconflow": "your-siliconflow-api-key",
"fastapi": "your-fastapi-token"
},
"model_settings": {
"ollama": "qwen2.5:7b",
"openai": "gpt-3.5-turbo",
"deepseek": "deepseek-chat",
"openrouter": "openai/gpt-3.5-turbo",
"gemini": "gemini-pro",
"claude": "claude-3-sonnet-20240229",
"siliconflow": "deepseek-ai/DeepSeek-V2-Chat",
"fastapi": "fastapi-default"
},
"service_urls": {
"websockets": "ws://localhost:9238",
"fastapi": "http://127.0.0.1:8000"
}
}Important
请在使用openai, deepseek等时将your-api-key改为你使用的api key
如果你在使用OpenRouter,请参照README_OPENROUTER
若要接入 AstrBot ,可以使用 AstrBot适配器 (推荐)
完全可以在树莓派 + TTGO T-Beam 上跑起来,边走边聊。
-
准备一台运行 Python 的设备(如 Raspberry Pi)
-
连接你的 Meshtastic 节点(如通过 USB)
-
安装依赖:
pip install -r requirements.txt
-
启动 Ollama 服务:
ollama serve
这会启动 Ollama 后台服务,默认监听
11434端口。注:Ollama 在首次请求时会自动下载并加载模型(如果未提前 pull)。确保设备有足够存储和内存。
-
运行主程序:
python main.py
-
用另一台设备向它发送私信,等待回复。
Important
在运行主程序时请注意运行路径,运行路径需在项目文件夹下
V 1.0.3 - pre 1
- 添加了
localization,支持了en,zh_CN,ru,jp,ko,es,de
- 引入上下文记忆,让对话更连贯
- 添加一个WebUI
- 添加LLM Tool
- 优化
api文件夹
这个项目不是为了替代任何人,也不是要做个多聪明的 AI。
只是想在那些安静的地方,留一个能回应你的声音。
如果你也喜欢这种感觉,欢迎一起改进它,也希望能点亮一个Star。
欢迎大家的任何issuue和PR,同时感谢那些为该项目做出贡献的开发者,感谢你们的支持与付出。
祝你的 Meshtastic 节点在山野间稳定运行,每一条回复,都像一束悄悄亮起的信号灯。📡💡
探索愉快!✨