是大模型不行,还是用户不会用?这两个问题的答案显然都不是肯定的。
首先,大模型的训练和优化需要庞大的算力与数据支撑,在过去的两年中,大模型正以惊人的速度成长,我们并不怀疑它将改变现有的工作方式,而任何一种新技术、新工具进入社会,都必然有其碰撞磨合的时期。
其次,大模型相关产品要走进工作、生活的各个领域,显然不能要求所有人都具备详尽的技术知识储备,例如掌握提示词、提示工程(Prompt Engineering)的工作逻辑,才能和AI有效沟通。
技术的开发更新是为了使更多人获益,而不是制造知识壁垒。
对我们来说,越接近人际交流模式,大模型越好用。
在上述使用案例中,针对当前的大模型问答产品使用情况,有几种方法有利于提升使用效果:第一,缩减输入给大模型的上下文长度,人工进行第一轮信息初筛;第二,用更有效的Prompt和大模型沟通——然而,两者都要求使用者付出更高的人力成本,或等待大模型相关产品的优化迭代,这些并不是我们所期待的解法。
尽管如此,面对大模型文件识别困难、信息提取失败的问题,我们却可以从另一个角度,找到方便、快捷的解决方案。
目前,大模型大多支持多模态交互,但当用户上传非电子文档或包含复杂版面结构的文件时,回答效果却不算太好。主要问题在于,文件解析过程中,复杂结构解析错误或丢失,影响了回答结果的生成。例如,无线表格一旦识别解析出错,行列等对应信息混乱,其中包含的精确数据就失去其含义,变成对后续理解生成无用的数据了。
对大模型来说,包含结构信息的Markdown、JSON等格式是较好的文件输入方式,尤其Markdown通常与大模型训练时的文件格式一致,对它来说明确易读、“亲切友好”。
因此,解析高效、准确度高、兼容性好、支持多种格式的文件解析“外挂”工具是C端使用大模型的优秀助手。
推荐一款方便易用、大模型友好的解析工具——TextIn文档解析。它支持将任意格式的文件(图片、PDF、Doc/Docx、网页等)解析为Markdown或JSON格式,速度最快可达1.5s内解析100页长文档,在移动端操作也不必上传一个或多个长文档后抱着手机等待。同时,TextIn文档解析有着优质的解析准确度,能够处理复杂表格、扫描文件,让我们不必再用手机拍摄的弯曲、暗色文件照片和大模型较劲。
让我们来看看它的实际应用。