出品 | 搜狐科技

作者 | 梁昌俊

“我现在状态很充实,发际线还在。”谈及攻克大模型以来的状态,科大讯飞副总裁、研究院院长刘聪日前在接受搜狐科技等媒体的交流中表示。

他还给自己定了两个新“身份”,第一个是首席演示官,每次大型车型发布会他都会登台演示;第二个是工具人,负责带领技术、工程等不同团队,保持产品和业务的一致性。

今年6月底,科大讯飞发布Spark Big Model V4.0,号称全面比肩GPT-4 Turbo,此次沟通会上,刘聪全面回顾了科大讯飞构建大模型的核心逻辑,并分享了对大模型技术及应用趋势的看法。

科大讯飞不会专门做文胜视频,差异化要坚持刚需+代沟

从2022年底成立大模型研究团队,到去年6月首次推出讯飞Spark大模型,再到一年时间升级到4.0,走在最前线的刘聪感觉到产品的发布比以前快了很多,但节奏控制得还是不错的。

“去年我们更多的是在对标和追赶,但今年的方向不一样了。”刘聪说,去年科大讯飞更注重探索在训练过程中,各种经验数据怎么处理,规律是否符合预期,以及如何把训练数据进行本地化等工作。

虽然依然沿用大基数模型+多场景应用的1+N路径,但除了文本生成、语言理解等通用能力外,科大讯飞开始更加注重与业务紧密相关的能力今期澳门开奖结果查询,比如长文本追踪、数学能力等。

“不可能什么都做到最好。”刘聪表示,科大讯飞在多模态方面会更注重语音和OCR,图像的优先级会低一些,视频也不会专门做这些,但会纳入虚拟人。

他提到,科大讯飞打造大模型的目标和逻辑是站在第一梯队的最顶端,同时把最重要的、最优势的点,从技术到场景,结合客户和用户的需求,形成各种工具链、平台、智能体,在形成产品乃至商业造血的同时,能够凸显大模型的能力。

他还强调,科大讯飞在本地化的投入是必然的,“我觉得国内没有哪家公司在这方面经验比我们丰富,去年我们在文本模型的本地化上下功夫,今年会往语音、视觉方面下功夫,本地化还有很长的路要走。”

目前国内大厂商、创业公司均已推出大型APP产品,一般定位为个人助理,且多为免费。

刘聪认为,当前基数很多大机型、应用都存在同质化现象,但用户是否能真正感受到自己的需求被深度满足,是否产生粘性,甚至不愿意切换,是检验应用是否能达到预期的一个很重要的标准。

对于是否要收费,刘聪表示,收费的前提是它是否给用户带来了价值用户愿意为此买单,而企业不应该因为认为应该收费就收费,应该站在用户的角度去考虑,而不是根据技术发展水平去逻辑。

同时他强调,要实现产品的差异化,必须走个性化路线,“我们的核心理念是刚需+代沟,不是玩玩而已,我们把刚需与科技结合起来,打造领先的产品。”

“科大讯飞研究院并不是闭门造车做技术,很多技术都要跟业务需求对应,内部的算法研发、工程引擎、服务平台、产品开发部门科大讯飞副总裁刘聪:从首席演示官到工具人,带领团队对标 GPT-4 Turbo,整个流程都需要对接在一起。”刘聪说。

应用应该注重有经验的场景,而不是是否是原生的。

目前,大模型已从技术竞争走向应用创新阶段,但外界还难以感受到大模型的落地风暴,业界所倡导的超级应用更是凤毛麟角。

“我觉得今年不能说没有疫情,但也不是大家想象的那种疫情,肯定是曲线的,这个需要耐心和承受力。”刘聪说,不管是技术发展还是实际应用,都会有一个理解、接受的过程。

他认为,一个产品要想跨越鸿沟,首先会由早期采用者使用,然后可能是追随者,技术成熟后由实用主义者使用,最后由保守主义者使用,此时它将成为标准。

“所以我们需要通过产品来培养用户和客户的耐心,单纯依靠技术来推动产品的使用是不现实的。”刘聪说。

他认为,大规模模型应用的核心是深入场景,聚焦急需场景,看用什么样的技术去支撑,技术支撑程度如何,通过场景推动技术的发展。

具体怎么做?刘聪强调,开发大规模模型应用的时候,还是要优先选择自己在行业中有优势和积累的场景。除非创业公司想抢地盘,否则不做好自己有优势的领域,再去开发新的场景也是没用的。在这个领域,风险是非常高的。

在产品打造路径上,除了通过大模型对原有产品进行升级改造外,业界还提出打造AI原生应用,这两种方式到底哪种运行速度更快呢?

刘聪表示,不用纠结到底是不是原生,或者越原生越好,核心还是看能不能更好地满足用户需求,给用户和市场带来增量价值,要搞清楚大模型在什么场合适合用,什么场合不适合用。

他提到,最近热议的911和99哪个更大,并不是大模型上下文预测只要懂技术就适合的,“大模型不是无所不在的,也不是无所不能的。”

刘聪认为,站在原生的角度,要优先寻找大模型能够发挥作用的场景,这需要考虑三个因素,第一是技术的可及性,大模型能产生哪些需求从不可及变为可及的价值。

第二是经济实用性,大规模推广要考虑成本等因素,并不是说模型越大越好;最后是应用边界,要考虑它带来的增量价值还是潜在的风险可能造成更大的影响。

今年引发热议的大屏应用之一便是人形机器人,科大讯飞提出2030年将机器人带入千家万户的目标,实现陪伴老人等功能。

刘聪认为,大模型让这一切变得可能很多,并将给类人机器人带来质的提升,比如能解决机器人长期执行任务的问题、提高完成复杂任务规划的能力、提高泛化性和交互性等。

“现在很多还是以展示为主。”刘聪说,人形机器人真正大规模投入使用还需要一段时间,成本太高,马斯克说要几万美元,这需要一个过程。

具体来说,除了硬件本身,算力成本也会增加,因为任务更复杂,有些场景下,人的形态并不是最合适的形态,他认为中国做机器人的压力可能更大,也涉及到国产化。

刘聪表示,科大讯飞不会因为人形机器人火爆就立刻研发、销售,而是会重点研发基于大模型库的机器人超级大脑平台,赋能行业伙伴,不会什么都自己做。

大模型进入考验耐心和耐力的阶段,GPT-5 在局部领域改进较多

从去年追上GPT-3.5,到现在追上GPT-4,刘聪越来越感觉到,中国和美国的大模型之间的差距正在缩小。

“无论是官方榜单,还是实际任务表现,无论是语言模型、多模态,还是语音、视频、搜索,中国都做得非常好,差距并没有那么大。”他提到,demo可能和最终结果不一样,实际应用在不同任务上差别很大,这也是我们暂时不敢发布Sora的原因。

刘聪认为,当前大模型技术和应用已经进入一个需要耐力和耐心的过程。

“GPT-5 投入巨大,周期也会比以前更长,它的能力肯定会不断提升,但最终跟我们现在的水平差距不会太大,提升可能会体现在某些部分,但不太可能像 GPT-3.5 到 4.0 那么大。”刘聪也劝业界不要继续太激进。

对于如何追赶甚至超越,刘聪认为,大模型时代,从企业角度看,要注重两个层面的创新,一方面要推动基于大模型、原创算法的创新,另一方面要推动基于场景的创新,通过系统性创新带来技术层面、产品层面的综合优势。

他还强调,要讲究成本效益,也就是投入与产出的逻辑,首先要关注行业的最新动态,但不是所有的事情2023澳门资料大全免费.,比如训练万亿级的模型,一定要到国外去做,另外要有效结合实践,做出正确的未来技术的判断,而应用层则要聚焦以我为中心的赛道。

“如何从外界获得关于人们投资大笔资金的信息,我觉得这个需要重视,没什么不好意思的,因为不可能每个人都经历过。”刘聪说。

随着GPT-2019的发布,业界对小模型的关注度越来越高,刘聪认为,大小模型并行开发是行业发展的必然趋势。

“有些任务可能使用小模型就可以完成,而有些任务则需要大模型2023年澳门特马今晚开码,这取决于任务的泛化能力和效率要求。”刘聪认为,不能一概而论大模型更好还是小模型更好,小模型的不断进步其实也依赖于大模型的发展。

他提到,科大讯飞并不着急研发更大的模型,希望通过对数据和规律的深刻理解,以及自身的实践经验和创新逻辑,让小模型比大模型表现更好。