用户洞察从业人员经常把探索/洞察用户需求作为自己的核心价值,而且是比定量研究更难、更能体现用研能力。
定性更能看出水平,对吧。
现在看来,因为大模型擅长语言、文本理解,对于用户洞察常用的定性和定量研究方法来说,大模型能先做好的反而是定性研究。而定量研究,则因为需要看的维度不统一、要生成表格、图的格式也不统一等,反而在工作流上不如定性研究那么顺畅。
今年 2 月份美国西北大学、MIT 预发表在arXiv 上的一篇论文,就对比了基础大模型、经过监督微调的大模型,以及专业分析师在提取用户需求上的质量差异
研究表明,通过监督微调(Supervised Fine-Tuning, SFT)的LLMs在提取客户需求方面表现优异,甚至在某些方面超过了专业分析师。这种方法不仅提高了效率,还能覆盖更广泛的客户需求范围,为产品开发、管理和营销策略提供了新的自动化工具。
来看他们是怎么做的。
研究是基于什么材料来评估提取的客户需求的质量的呢?
主要基于以下两类材料:
用户生成内容(UGC)
访谈记录
可以看到,这两种材料的类型差别还是挺大的,UCG 内容很分散,而访谈记录的内容会更多,信息密度更大。
具体的研究设计是怎样的?
有哪些评估维度?
会有另外的评估专家,从三个方面对大模型和专业分析师提取的用户需求进行判定:
结果对比:
实际上,作者使用的基础模型是Vicuna 13B,只是一个小小的 13B 模型,有理由相信现在的 DeepSeek v3 的效果要比经过监督微调的Vicuna 13B 效果要好。
科研跟实际工作还是不一样,如果想要利用大模型比较好地提取用户需求,还是要根据你自己的工作情境,创建你自己的工作流。
后续的需求分层、优先级排序,这些事情依赖很多的背景信息,也仍然依赖人工完成。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |