心里话想说却不知道该告诉谁,这是很多人都有过的感受。
怕被嘲笑、怕被误解、怕说出来反而更难受。而网上的心理类 App,需要注册、需要联网,对话记录可能被存在服务器上。
如果有一个 AI,只运行在你自己的电脑上,不联网、不上传数据呢?
WSAI-Heart 是什么?
WSAI-Heart 是我利用课余时间,基于 Qwen3.5-0.8B 全精度 LoRA 微调的一个心理支持对话模型。它专注于情感陪伴和心理疏导,同时也能胜任日常聊天。
特点
轻量,普通电脑就能跑
模型约 0.8B 参数,文件大小约 1.6GB。不需要 GPU,纯 CPU 就能推理运行。树莓派、老旧笔记本都能跑起来。
隐私有保障
完全本地运行,对话数据零上传,所有内容只存在于本地设备上。对于心理倾诉这类涉及个人隐私的场景,本地运行是一个比较重要的特性。
一行命令,即装即用
不需要配环境、不需要装 CUDA、不需要折腾依赖。装好 Ollama 后,一行命令就能开始对话:
1 | ollama run wangshen/wsai-heart |
共情能力增强
基于心理类对话数据集微调,相比原始的 Qwen3.5-0.8B,WSAI-Heart 在情感理解和倾听方面有明显的提升。它不会急着给建议,而是先听你说完。
多模态能力
模型保留了 Qwen3.5 基座的视觉理解能力,支持图像输入。可以发一张图让它分析情绪相关的场景。
完全免费开源
CC BY-NC-SA 4.0 许可证,免费使用、自由修改、欢迎分享。
它是怎么练出来的?
整个训练过程在我自己的电脑上完成:
- 框架:LlamaFactory
- 基座模型:Qwen3.5-0.8B
- 微调方式:全精度 LoRA
- 训练轮数:855 epochs
- 训练硬件:纯 CPU
- 训练时长:约 4-5 天
没有 GPU、没有云服务器,就是一个中学生的普通电脑,跑了将近一周。虽然条件有限,但最终还是训练出了一个属于自己的 AI 心理助手。
快速开始
方式一:Ollama(推荐)
1 | ollama run wangshen/wsai-heart |
方式二:Transformers
1 | from transformers import AutoModelForCausalLM, AutoTokenizer |
致谢
- Qwen Team — 提供优秀的 Qwen3.5 基座模型
- LlamaFactory — 简洁高效的微调框架