应用最广泛的5个小模型AI应用场景

作者:

CBINEWS

责任编辑:

邹大斌

来源:

电脑商情在线

时间:

2024-12-23 13:42

关键字:

AI 小模型

自ChatGPT于2022年底问世以来,大型语言模型(LLM)一直在提高生成人工智能系统能够实现的目标。例如,支持ChatGPT的GPT-3.5在常识推理数据集上的准确性为85.5%,而2023年的GPT-4在相同的数据集上实现了约95%的准确性。虽然GPT-3.5和GPT-4主要专注于文本处理,但GPT-4o(2024年5月发布)是多模态的,允许它处理文本、图像、音频和视频。

尽管GPT模型家族和其他开源大型语言模型取得了令人瞩目的进步,但Gartner在2024年人工智能的炒作周期中指出,“生成性AI已经过了炒作顶峰期,尽管对它的炒作仍在继续。”热度下降的原因包括与GPT模型系列相关的高成本、数据的隐私和安全问题以及模型透明度问题。与这些LLM相比,具有较少参数的小型语言模型是解决这些挑战的一个潜在解决方案。

小语言模型更容易训练,成本更低。此外,较小的模型可以在本地托管,从而使用这些语言模型更好地控制共享数据。小型模型的一个挑战是,它们往往不如大型模型准确。为了利用小模型的优势,同时避免其弱点,很多企业正在考虑特定于领域的小模型,这些模型必须用它们支持的专业领域和用例中以保证准确。

通过采用预先训练的小型语言模型,并使用特定于域的数据对其进行微调,或者使用提示工程来获得额外的性能提升,可以实现此领域专门化。

让我们看看企业可以利用小型语言模型的前五类用例以及每个用例的领先小型语言模型。

场景1:个人身份信息屏蔽

组织的一个关键问题是,当用于培训或向LLM提问时,从其数据中暴露个人身份信息,比如社会保险号码(SSN)或信用卡号。因此,一个极其重要的用例是构建一个可以屏蔽身份数据的解决方案。

除了个人信息屏蔽之外另一个关键需求是维护数据掩码的一致性。例如,相同的SSN应该由相同的标识符屏蔽,以便下游应用程序可以使用该关系来构建有效的应用程序,比如Phi-3和Gliner这方面的表现还不错,但如果涉及文本的编写,Llama-3.1-8B模型更好些。

场景2:“有毒文本”检测

该用例标识文本中不需要的讨厌注释的存在。有毒文本的一个例子是脏话。随着越来越多的公司采用语言模型来自动化客户服务交互,确保模型的响应中没有有害内容是极其重要的。RoBERTa模型非常适合于此任务。

场景3:代码助手

代码助手是生成人工智能的首批用例之一,代码助手已经被企业的开发人员广泛采用。微软声称,70%的GitHub Copilot用户的工作效率更高。对于这个用例,专注于编码的CodeLlama(基于Llama)和CodeGemma(基于Gemma)是大型语言模型(如GPT-4)的优秀替代品。

场景4:医疗数据汇总

医疗数据摘要和理解是医疗保健行业中的一个专门用例,它依赖于根据特定于该领域的医疗术语的使用而训练的专用模型。该解决方案主要的应用场景是患者和医生之间以及医生和医疗销售代表之间的对话摘要。鉴于这类对话的独特性,小型语言模型非常适合该领域,并可能产生重大影响。T5模型是该任务的较小语言模型中的有力竞争者。

场景5:发票处理

发票处理对于企业采购部门大规模处理发票至关重要。由于发票结构的数千种变化,自动扫描这些发票以提取信息的能力是一项非常重要的任务。Phi-3-vision是发票处理管道的最佳模型之一。

虽然大型语言模型功能强大且准确,但它们的成本很高,并且数据隐私和安全性仍然是企业关注的重要问题。小语言模型使企业更容易平衡性能、成本和安全问题,并帮助减少将解决方案投入生产所需的时间。

ToB最前沿

ToB最前沿抖音号

CBI科技在线

地址:北京市朝阳区北三环东路三元桥曙光西里甲1号第三置业A座1508室 商务内容合作QQ:2291221 电话:13391790444或(010)62178877
版权所有:电脑商情信息服务集团 北京赢邦策略咨询有限责任公司
声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除
京ICP备:2022009079号-3
京公网安备:11010502051901号
ICP证:京B2-20230255