返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

聊聊完全开源且值得学习的EmoLLM心理大模型

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 09:40 |阅读模式 打印 上一主题 下一主题

概述

**EmoLLM** [1]是一系列能够支持 理解用户-支持用户-帮助用户 心理健康辅导链路的心理健康大模型,由 LLM指令微调而来。

我个人觉得这个项目值得去研究;为什么?因为区别于别的开源心理大模型,EmoLLM是完全的开源;其开源了数据集、微调方法、训练方法及脚本等,完全的开源出来。对于需要了解领域模型开发的人来说,是非常友好且值得学习的。

架构图如下:

数据集及领域模型

EmoLLM开源了其数据集[2],官方根据不同的数据集训练出来了不同的领域模型,譬如角色扮演、老母亲心理咨询师、爹系男友心理咨询师。官方的介绍如下:

  • 数据集按用处分为两种类型:GeneralRole-play
  • 数据按格式分为两种类型:QAConversation
  • 数据汇总:General(6个数据集);Role-play(5个数据集

数据集类型:

  • General:通用数据集,包含心理学知识、心理咨询技术等通用内容
  • Role-play:角色扮演数据集,包含特定角色对话风格数据等内容

以角色扮演的数据集为例,我个人的分析来看,有两点值得关注:

  1. 改造后的数据格式。基于标准的sharegpt格式或alpaca格式改造领域数据格式,用于大模型的训练。
  2. 提示词的设计。针对不同的业务场景,设计好不同的提示词。这也是提示词工程的意义与作用。
image.png
image.png

微调

EmoLLM主要是基于xtuner来实现微调训练[3]的,其全量微调也是基于此框架。不过EmoLLM在这方面的支持还是不太够的。如下是当前支持的微调模型类型:

image.png

EmoLLM的微调文件参数写在了其后面的py文件中:

image.png

因此微调时还要注意参数文件。微调数据格式参考datasets文件夹中的数据集来设计即可;这是一套的。

目前来看,ChatGLM3的微调需要额外的处理,参考  ChatGLM3-6b-ft.md[4] ;我是没怎么看明白,只觉得有点复杂。希望官方可以优化下。

总结

总的来说,EmoLLM是个不错的项目,我们完全可以从零开始借鉴学习,了解并掌握训练领域模型的方方面面。

参考资料
[1]

EmoLLM : https://github.com/SmartFlowAI/EmoLLM

[2]

数据集: https://github.com/SmartFlowAI/EmoLLM/blob/main/datasets/README.md

[3]

微调训练: https://github.com/SmartFlowAI/EmoLLM/blob/main/xtuner_config/README.md

[4]

ChatGLM3-6b-ft.md: https://github.com/SmartFlowAI/EmoLLM/blob/main/xtuner_config/ChatGLM3-6b-ft.md


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ