作者 | 邓咏仪
编辑 | 苏建勋
2022年11月,ChatGPT面世,带动了大模型的全球热潮,仅仅一年,这波新AI浪潮就迅速快进到在企业侧落地——从AI大厂、创业公司到企业客户,大家都急切地想探索出一条可行的,让大模型落地的路径。
但对追一科技而言,这已经不是新鲜事。
上一波AI创新浪潮催生出主打CV方向的商汤、旷视等“AI四小龙”,相较之下,如今火热的NLP(自然语言处理)被称为是“人工智能皇冠上的明珠”,在当年是更少人走的路,其技术创新处于更早期阶段。
在上一波AI浪潮中,追一科技是典型的明星AI创业团队。创始人CEO吴悦2006年进入腾讯后,用五年时间成为腾讯最年轻的T4专家工程师,曾领导SOSO搜索技术团队。2016年,他与几位腾讯的技术和产品的核心成员共同成立了追一科技。
成立开始,NLP行业也正值投资热潮,追一凭借着智能客服等对话机器人产品,迅速商业化,开始市场扩张。如今,追一科技在金融、运营商、政务领域落地较多。在金融领域,追一科技服务了40%的前100银行客户,以及头部的保险集团和券商客户,以及互联网等行业。
但从2019年开始,追一科技开始经历了一段“坐冷板凳”的时光,其走过的“落地旅程”,也正是上一代AI公司的叙事——大型客户业务上有海量的定制化开发需求,面向科技部门针对大型客户不同的操作系统、数据库、中间件做适配。单纯靠人力满足定制化的项目需求,这很难让AI公司真正规模化。
“一招打遍天下”很难走通,追一科技开始逐步补齐To B服务的完整链条。从前期的咨询到后期的交付和服务,最高峰时期,追一科技的团队扩展至接近500人。
而在疫情之后,追一科技开始了一段艰难的取舍之路——什么项目可做、什么项目不能做?要投入多少人力到定制化项目中?
“可以说,我们用7年的时间补齐了这些To B能力,到今年完成了最后一公里,刚好碰上了大模型浪潮。”吴悦表示。
来源:追一科技
经历了艰难的产品化和团队重振旗鼓,直到2023年ChatGPT为首的大模型热浪席卷全球,追一科技将其视作不能错过的机会。近期,追一科技也推出了垂直大模型“博文”,专门面向服务和营销领域。
在博文领域模型之上,追一科技还研发了一套AI Agent框架,用户可以基于这个框架,让大模型的能力更好地发挥出来,也实现最终模型输出结果的可控。
“博文大模型是从客户实际业务场景和需求中成长起来的。”吴悦认为,在如今琳琅满目的大模型中,能落地、对业务有实际效果、并且性价比高,才是大模型落地应该走的路。
并且,追一在此前数年推出的六大NLP标准化产品,包括在线机器人Bot、语音机器人Call、多模态数字人Face、智能助理员Pal、智能培训师Learn、智能质检员See等,也都基于大模型进行重塑。
如今,文本Bot、语音Call和多模态数字人Face都已经在追一已有的企业客户场景中落地,人工辅助的服务体验有显著优化,销售开口率和成单转化率等指标也有所提升。新增的会话小结、营销意图判断等模块,也都能让运营效率有实质性提升。
面对客户,追一科技更倾向于一种务实的路线:基于现有的开源模型,加入追一多年积累的专家知识和独有数据进行微调,快速满足客户已有的需求。如今,大模型应用成本依然昂贵,追一也推出了一种混合使用的模式,用传统NLP深度学习模型和大模型相结合,尽可能降低客户解决问题的成本。
吴悦告诉36氪,追一在前些年积累的对话机器人等六大产品,现在会成为大模型在企业落地的载体。
而对比过去几年,对大模型的落地,吴悦如今的心态更加乐观——无论是人才密度、资金投入还是行业整体,如今中国都储备得更多,心态也更成熟了。
“今年感觉大家理性了很多,理性状态下更容易做出正确的事,比如客户都会想:大模型如何结合我的场景去做商业化落地?我们也可以更心无旁骛地做事情。”他表示。
追一科技创始人 吴悦
以下为36氪与追一科技CEO吴悦的对话,经36氪编辑:
36氪:追一最近也发布了新大模型——博文大模型,主攻服务和营销领域,以及产品线的全面升级。为什么在这个时间点推出?
吴悦:作为一家在2016年成立、也一直在一线做AI落地的公司,我觉得这次发布也代表我们的一种观察,和对自身大模型的定位。
我们和通用大模型定位不同,我们做的是偏向服务营销场景、更垂直一体化的大模型,也更关注通用大模型在发展过程中释放的技术成果,怎么在服务营销场景里利用起来。
36氪:博文大模型的架构是怎么样的,基于什么通用大模型进行训练?
吴悦:我们从需求出发,采取了两条路径。
第一条是依靠国内外开源成果,如LLaMa、千问、百川、智谱等,在开源模型的基础上进行知识和能力的强化训练。相当于在底层建设了一个接口,用来对接各家的大模型,对不同的开源模型进行测试,再选择在业务场景中表现最好的作为接入的模型,但各家的测试表现其实差不多。这一条路径目前已经落地了。
第二条路径是自研,目前正在储备,以后有需要的话也可以从底层开始训练。
但现在第一条路径落地会更快。
36氪:为什么会说各种开源模型的的表现差不多?
吴悦:有两方面的原因。
一方面,追一科技专注的是企业服务营销场景,所依赖的底层能力比较通用,不需要特别强的数学能力或者上下文长文本的逻辑推理能力。
另一方面,我们在大模型的基础上进行了很多微调,强化专项能力,深入挖掘底层大模型。
这两个方面决定了当下基础大模型在企业服务营销垂直领域的差异性不大。
36氪:市面上已经有不少做服务营销的大模型,博文同样作为垂直领域的大模型,差异化优势在哪里?
吴悦:从产品和技术两个层面来讲,在产品上,追一在2016年以NLP起家,但我们发现在技术链条之外,还有很多需要补齐的地方。比如在产品的落地、客户沟通、产品安装部署、后续持续运营等方面,我们也建立了专业咨询和服务能力。
后来我们专注服务大客户,比如头部、腰部客户。大客户的销售收益转化大且业务场景更复杂,因此对于技术指标更加敏感,比如技术多了一两个点或者三五个点,对大客户来说可能是数十万过百万的服务和访问量。
可以说,我们用7年的时间补齐了这些能力,到今年完成了最后一公里。这相当于打了个底了,就之后如果我们想要把大模型落地的话。就相对还容易一些。
36氪:那技术优势会在什么地方?
吴悦:我们的核心团队过去是在腾讯做搜索、AI最核心的团队,能力是蛮强的。之前我们就有很多AI自研技术,除了自然语言处理NLP外还包括语音识别ASR、声音合成TTS、数字人引擎等等。
而在大模型领域,我们一直有自己的独创技术。2017-2018年左右,行业内出现了BERT一类表征式大模型和GPT一类的生成式大模型。从底层算法到上层模型我们都有自研的技术和产品。
我们提出的RoPE旋转位置编码算法技术,几乎出现在每一家大模型的论文引用中。在表征式大模型方向我们有自用的ZOne系列模型,也开源了中文T5、WoBERT、Roformer等算法。
36氪:博文大模型主要在什么数据集上训练的?大概训练了多长时间?
吴悦:一些是开放的数据集,还有一些是我们过去积累的,例如围绕服务营销业务类的知识,算是我们做了数据标签的私有数据,还有我们历史上积累的几十种不同NLP任务的数据集。训练是持续的,模型迭代的次数比较多。
36氪:追一从成立到现在也推出了六款AI产品,这次发布也对这些产品全面升级了,它们和博文大模型的关系是怎么样的?
吴悦:你可以把这六款产品看作是AI技术落地到客户的一个产品媒介。我们会植入大模型的能力,来解决一些过去AI技术所不能解决的一些问题。
另一方面,这些产品因为有了新的能力,又打开了新场景,那产品功能要做扩展。
博文大模型覆盖了服务和营销的全流程所需要的能力。我们要做的是顶层设计,将大模型放到实际的业务场景中做技术验证和灰度测试,充分考虑业务场景需求,拓展产品功能满足新场景的要求,最后做到产品审慎地落地。
36氪:相当于博文大模型是底座,六款产品是拥有了大模型的新能力。
吴悦:对的。六款产品可以分为两个部分,第一部分是对话类产品,包括文字、语音和视频三个聊天机器人。植入大模型后,能够更好的上下文理解,例如对用户多意图的分析处理、意图不完整时引导用户完善,弥补了传统NLP技术的不足。
这一问题放在以前需要大量的数据梳理标注和模型训练,工作链条比较长且效果还不够好,但大模型语言能力更强,让上面的问题可以得到比较好的解决。
第二部分是协同类产品,在服务和销售过程中担任助手的角色。这些机器人可以进行对话数据分析,挖掘其中的商业价值,覆盖了从交互、协同到分析的服务营销全流程。
数据分析和处理的过程包含大量NLP任务,对于头部场景,如合规性检测、话术挖掘,过去我们需要做专门的模型,但现在有了大模型处理多任务的能力,就不需要对每一个任务进行专门训练。
36氪:对于话术挖掘、意图识别这一类场景,专用模型可以做到什么程度?
吴悦:过去的专用模型主要是面向聚类、分类、标注、回归等任务,在单一任务下可以做到比较高的准确率,但是泛化学习能力不足。有了大模型之后,模型可以基于整体对话同时进行多种任务的识别和判断,这点在过去很难做到。
36氪:像刚刚所说的,追一早在2019年就已经在大模型领域有成果了。不过,一直到去年ChatGPT爆发,才引发这一轮热潮。这一年里,你的心情是怎么样的?
吴悦:首先,我们一直在做NLP方向的创业,对这样颠覆性的突破,我们本身还是挺兴奋的。我们团队从原来的搜索、推荐,到从2016年坚定做NLP,并预判对话是下一个方向,现在得到验证,是很高兴的事情。
另一方面,今年我们也完成了刚刚讲的这个最后五公里或者最后一公里能力的建设,才有精力去拥抱这样的新技术趋势,会感觉到是“天时地利人和”。
36氪:大模型推出到现在,也很快进入到了到To B落地阶段。追一已经做了这个事情好几年,你觉得最大挑战会在什么地方?
吴悦:一方面,每个环节都不能有短板,包括技术、产品、专业服务和咨询能力等,少了哪一块都会导致不顺利。软件类的产品的需求和AI本身的能力是我们和客户共同定义的,这也就要求我们需要拿到足够多大客户的反馈才能做好产品定义。
另一方面,这个过程需要时间,客户需求不完善的时候产品功能和稳定性也不完善。追一科技面对的主要是大客户,对产品成熟度、稳定性要求高,在交付的过程中有很多功课需要补齐。
我们算过,解决一个客户bug的成本差不多是1万元,其中包括差旅、研发、人力等成本。这几年我们可能解决了几千个这样的bug。
36氪:这些bug后来是怎么解决的?会用什么方法去解决交付层面的问题?
吴悦:产品需要很多客户共同定义,比如客户觉得模型的回答不及预期,说明产品的设计不好,就需要算法参与解决这个问题,但主线开发人员是有限的,所以需要做好需求的分流。
这要求一线的产品经理能够完成比较成熟的产品设计。解决的bug多了,产品的成熟度就高了。
36氪:之前几年,做To B的企业有一种逻辑是,希望通过满足大客户的需求,来打磨标准化产品,但后来发现即使是大客户,需求很多都是定制化的,其实无法顺利拿去服务下一个客户。这种标准化是伪命题吗?
吴悦:这是一个很难的事,但我们已经完成了,这依靠两点。首先,我觉得AI软件产品相较于传统软件产品,50%-70%的个性化需求是通过AI模型,而不是写代码的方式实现的,这降低了软件架构的门槛。
36氪:50%-70%的需求都是什么?
吴悦:客户一定有个性化需求,特别是头部客户。在AI产品没有出来前,这些个性化需求都需要通过写代码逻辑来实现,对于软件架构设计能力要求极高。但AI产品中的AI模块能够分解60%-70%的个性化需求,比如每家企业个性化的知识可以通过AI模块标准化实现;剩余只有30%左右需要写代码逻辑来解决,随着软件产品架构的持续优化,这部分比例将来会更低。
36氪:这背后的逻辑是什么?
吴悦:传统的软件是以人为核心的,需要用人来满足需求。但AI是“去人化”的,只需要很少的人参与。人少了需求就会减少。
我觉得这是一个比较大的背景,我们才有机会把事情做成,在这个过程中我们也看到很多公司退出了这个赛道,甚至很多大厂也在转型。
36氪:大模型在企业客户的落地,会和企业本身的数字化程度有关吗?
吴悦:我觉得没有必然性,反而觉得大模型或者AI是企业弯道超车的机会。过去做传统的软件工程或者企业软件确实挺难的,但AI软件降低了对企业的要求。因为很多业务流程被内置到了模型里,企业的人力投入减少,过去的产品以人为核心,要达到某个水平必须投入这么多人。比如以前要做ERP或者其他重要软件,架构设计需要投入大量人力,数据还需要数据治理,但是大模型可以省掉很多功夫。很多工作AI可以自己形成闭环,相当于AI降低了整体业务的操作门槛。
36氪: 所以大模型出来后,你觉得落地会更容易?
吴悦:我觉得落地的难易需要看公司是什么类型。从表面上看,是简单了,因为使用的门槛降低了。但如果真的要做成,我觉得难度增加了。
36氪:可以展开说说吗?
吴悦:使用门槛降低了,是因为客户可以自己套壳。如果这时候客户依然选择你的产品,一定是因为你在这个领域的洞察够深刻,构建了比较完整的产品矩阵,形成了比较好的行业know-how,还具备对大模型的深刻理解,知道可以应用在哪些场景中,这才能真正扎根。
从这个角度来讲,我觉得对厂商来说是要求更高的。
36氪:现在已经有很多开源模型了,未来,客户会不会减少对底层能力的关注,这到后面会变成一个纯产品和工程的问题吗?客户现在最在意的点是什么?
吴悦:我觉得是最终业务效果和客户满意为衡量指标,这个过程产品和工程确实蛮重要的能力和待解决问题,但是算法能力也是非常重要的必要条件之一。比如,服务机器人能否改善服务体验,从70%的满意度提高到90%;营销转化率能够百分之多少的提升;从业务效果倒推到产品,才到说要考虑选择哪一种技术来实现。面向企业级客户各个方面不能有短板,同时还需要有足够的产品和技术长板。
36氪:成本也是现在大家很关心的问题。现在大模型的使用成本还是很高,到什么时候才能下降到客户比较愿意用的水平?
吴悦:我们做过一个估算模型,假设一个人一个月大概消耗100GB的宽带,这些数据都经过AI的话需要耗费上亿美金。
目前我们看到,成本下降比较明显的就是算法模块的成本,细分领域大模型能显著降低使用成本。第二是推理侧的优化,国产高性能加速卡会逐步追赶上来,替代英伟达GPU。
36氪:在这个阶段,追一怎么保证产品和服务的投入产出比?
吴悦:从客户的角度,他们自己的通用模型大约能够解决70%-80%的问题,剩下的20%左右才是最难解决的问题。这一部分需要公司对业务比较深的理解,还要有比较好的软件工程和产品设计能力,还需要AI能力,用好AI模型。
举个例子,我们的博文大模型,围绕刚才的服务和营销场景,我们梳理了将近有100种大大小小专项技能,这些专项技能都要做专门的优化,包括综合技术,投入产出比。我们测算过,在实际场景中,传统的NLP模型的成本是大模型的几万分之一。
针对成本问题,我们提出了“增程式”技术理念。和针对燃油车和电动车的增程技术类似,相当于是我们把大模型和追一目前使用的基于表征学习的大模型混合一起用,这种状态会持续很久。
36氪:追一现在的客户对大模型的态度,在今年有发生什么变化吗?
吴悦:大模型对客户的教育还是挺充分的。当你说大模型的时候,客户都还挺愿意和你聊的。
在这个过程中,我们发现这可以分为三个阶段。第一阶段是年初的时候,大家对大模型比较悲观,觉得国内可能很长一段时间甚至永远都做不出大模型;第二阶段大家开始关注大模型如何和自己的业务进行结合,需要一些明确的方案;近期感觉大家更加务实了,关注落地的成本和收益。
36氪:客户愿意在IT方面投入多少比例的预算来使用大模型?
吴悦:就我们的接触而言,不同的客户策略不同。
客户更关注的是大模型带来了什么样的价值,多少部门预算和这个价值是匹配的。因此我们是结合业务场景来和科技/业务部门做预算,并不是说一次性构建一个巨大的平台。
而是,比如说某个业务部门需要用到一些大模型相关的功能,我们就先针对场景,加一个新的模块进去,而不是建立一个大的数字化平台这样的大项目,相当于我们可以对过去的产品做升级,也就是做有了大模型能力的新产品,例如语音机器人的升级、数字人等。
36氪:追一科技比较早就投入到大模型里面了,在ChatGPT出来后,整个市场经历了整整一年的爆发,心情如何?
吴悦:兴奋。我们一直做的是NLP的创业,大模型是对NLP技术的颠覆性改变,从根本上突破了生成式大模型。当时坚定做NLP方向也是因为在腾讯我们经历了网页搜索到推荐的过程,预判对话是未来的方向,而这个猜想在今天得到了验证。
36氪:会有不知所措吗?有些NLP从业者表示,ChatGPT出来之后,似乎很多路线的研究意义就不存在了。
吴悦:还真没有。GPT出来后,国内有很多声音表示,国外技术远远领先国内,态度很悲观。但从我的角度,国内目前的技术环境,无论是人才密度、资金投入还是整体,都比二零一几年互联网的时候储备更加丰富。
其次,追一科技用了7年做技术积累和商业化,我们深知技术落地没有那么简单,完全靠GPT颠覆某个领域也不大可能。追一科技过去的积累和GPT技术的互补性很强,我们在第一时间去和客户介绍我们的大模型、调研他们的需求、理清产品的能力边界和短板,在这个过程中我们做技术验证、顶层设计,整体的看法还是冷静、理性的。
36氪:那这一波AI热潮,和上一波CV为主的AI浪潮,会有什么明显不同?
吴悦:我觉得对于企业来说,可能目标不同,上一波更多是资本推着走。这一波对于我们从业者而言,我们会更加理性地看待商业价值本身。资本不像当年那样乐观地撒钱了,态度更加审慎。但不变的都是谈落地,可能大家还是比较务实(笑)。
36氪:大模型出来之后,有乐观的人会认为这可以颠覆掉很多东西;也有人担忧大模型会重走上一波AI的路——比如单点能力不足以让客户付费,导致要做很多集成大项目,利润也很低。你认为会这样吗?
吴悦:我觉得不会。因为今天的环境跟之前的环境也不太一样,今天大家都理性了很多。之前那几年,关键是很多公司大收入规模涨得很快,热钱很多,很多可能是资本推着走,但现在不是了。
今年感觉大家理性了很多,理性状态下也更容易做出正确的事。在我看来,正确的事就是思考:大模型如何结合我的场景去做商业化落地?落地后保持一个什么样的利润水平比较合理?在今天这个理性的环境下,少了很多噪音,我们反而能更加心无旁骛地做这些事。
36氪:感觉还是带来了不少希望,中国整体的IT产业发展水平比较参差不齐,导致软件赚钱都很难,大模型某种程度会改变现状。
吴悦:至少这是一个比较大的机会。
36氪:你的乐观主要来自什么地方?
吴悦:NLP技术本身就是商业化价值很高的一个技术了,比如以前搜索、头条推荐,都是NLP相关的技术。
NLP技术的突破一定会带来比较大的商业机会,因为语言是人类社会、商业活动过程中的最为重要的媒介,具备非常大的商业价值。
36氪:现在,追一的市场规划和目标是怎么样的?
吴悦:我们还是专注几个行业,比如金融、政务、运营商,再通过运营商去触达其他政企类客户。明年,我们争取盈利,一切以利润为目标。
Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved