WSAI-Heart:一个中学生打造的本地心理支持 AI

你有没有过这样的时刻——心里话想说却不知道该告诉谁?

怕被嘲笑、怕被误解、怕说出来反而更难受。而网上的心理类 App,需要注册、需要联网,你的对话可能被存在某个服务器上。

如果有一个 AI,它只存在于你自己的电脑里,不联网、不上传、不泄露你的任何一句话呢?

WSAI-Heart 是什么?

WSAI-Heart 是我利用课余时间,基于 Qwen3.5-0.8B 全精度 LoRA 微调的一个心理支持对话模型。它专注于情感陪伴和心理疏导,同时也能胜任日常聊天。

为什么它值得试试?

极致轻量,老电脑也能跑

模型仅约 0.8B 参数,文件大小约 1.6GB。不需要 GPU,纯 CPU 就能推理运行。树莓派、老旧笔记本、甚至一台十年前的台式机,都可以流畅跑起来。

隐私绝对安全

完全本地运行,对话数据零上传。你说的每一句话都只存在于你自己的设备上,没有任何服务器能看到。对于心理倾诉这种涉及个人隐私的场景,这一点至关重要。

一行命令,即装即用

不需要配环境、不需要装 CUDA、不需要折腾依赖。只要装好 Ollama,一行命令就能开始对话:

1
ollama run wangshen/wsai-heart

就这么简单。

共情能力增强

基于心理类对话数据集微调,相比原始的 Qwen3.5-0.8B,WSAI-Heart 在情感理解和倾听方面有明显的提升。它不会急着给建议,而是先认真听你说完。

多模态能力

模型保留了 Qwen3.5 基座的视觉理解能力,支持图像输入。你可以发一张图让它帮你分析情绪相关的场景。

完全免费开源

CC BY-NC-SA 4.0 许可证,免费使用、自由修改、欢迎分享。

它是怎么练出来的?

整个训练过程在我自己的电脑上完成:

  • 框架:LlamaFactory
  • 基座模型:Qwen3.5-0.8B
  • 微调方式:全精度 LoRA
  • 训练轮数:855 epochs
  • 训练硬件:纯 CPU
  • 训练时长:约 4-5 天

没有 GPU、没有云服务器,就是一个中学生的普通电脑,跑了将近一周。虽然条件有限,但结果是实实在在的——一个属于我自己的 AI 心理助手。

快速开始

方式一:Ollama(推荐)

1
ollama run wangshen/wsai-heart

方式二:Transformers

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
from transformers import AutoModelForCausalLM, AutoTokenizer

model_path = "./"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path, torch_dtype="auto", device_map="auto")

messages = [
{"role": "system", "content": "你是一个温暖、有共情能力的心理支持助手。"},
{"role": "user", "content": "我最近心情不太好,感觉压力很大。"}
]

text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
response = tokenizer.decode(outputs[0][inputs["input_ids"].shape[1]:], skip_special_tokens=True)
print(response)

致谢