你有没有过这样的时刻——心里话想说却不知道该告诉谁?
怕被嘲笑、怕被误解、怕说出来反而更难受。而网上的心理类 App,需要注册、需要联网,你的对话可能被存在某个服务器上。
如果有一个 AI,它只存在于你自己的电脑里,不联网、不上传、不泄露你的任何一句话呢?
WSAI-Heart 是什么?
WSAI-Heart 是我利用课余时间,基于 Qwen3.5-0.8B 全精度 LoRA 微调的一个心理支持对话模型。它专注于情感陪伴和心理疏导,同时也能胜任日常聊天。
为什么它值得试试?
极致轻量,老电脑也能跑
模型仅约 0.8B 参数,文件大小约 1.6GB。不需要 GPU,纯 CPU 就能推理运行。树莓派、老旧笔记本、甚至一台十年前的台式机,都可以流畅跑起来。
隐私绝对安全
完全本地运行,对话数据零上传。你说的每一句话都只存在于你自己的设备上,没有任何服务器能看到。对于心理倾诉这种涉及个人隐私的场景,这一点至关重要。
一行命令,即装即用
不需要配环境、不需要装 CUDA、不需要折腾依赖。只要装好 Ollama,一行命令就能开始对话:
1 | ollama run wangshen/wsai-heart |
就这么简单。
共情能力增强
基于心理类对话数据集微调,相比原始的 Qwen3.5-0.8B,WSAI-Heart 在情感理解和倾听方面有明显的提升。它不会急着给建议,而是先认真听你说完。
多模态能力
模型保留了 Qwen3.5 基座的视觉理解能力,支持图像输入。你可以发一张图让它帮你分析情绪相关的场景。
完全免费开源
CC BY-NC-SA 4.0 许可证,免费使用、自由修改、欢迎分享。
它是怎么练出来的?
整个训练过程在我自己的电脑上完成:
- 框架:LlamaFactory
- 基座模型:Qwen3.5-0.8B
- 微调方式:全精度 LoRA
- 训练轮数:855 epochs
- 训练硬件:纯 CPU
- 训练时长:约 4-5 天
没有 GPU、没有云服务器,就是一个中学生的普通电脑,跑了将近一周。虽然条件有限,但结果是实实在在的——一个属于我自己的 AI 心理助手。
快速开始
方式一:Ollama(推荐)
1 | ollama run wangshen/wsai-heart |
方式二:Transformers
1 | from transformers import AutoModelForCausalLM, AutoTokenizer |
致谢
- Qwen Team — 提供优秀的 Qwen3.5 基座模型
- LlamaFactory — 简洁高效的微调框架