“孙悟空的金箍棒和哈利波特的魔杖有什么不同点?”科大讯飞研究院院长刘聪向星火大模型V4.0提出了这个有趣的问题。 只见星火V4.0有条不紊地从材质、功能、使用方式上给出答案。而在每条答案的后面都附上了一个旗帜形状的小链接,点开便是答案的原文,不同于其他模型,这次能追溯到原文,甚至图片、视频、音频里的某段具体来源。 这就是科大讯飞首发的长文本内容溯源功能。官方称最新的星火V4.0在8个国际主流测试集中均排名第一,并在文本生成、语言理解、知识问答、逻辑推理、数学能力等方面实现对GPT-4 Turbo的整体超越。 今日在讯飞星火4.0发布会上,科大讯飞董事长刘庆峰宣布讯飞星火大模型7大核心能力全面升级,以及在医疗、教育、商业等多个领域的技术落地,希望从通用人工智能迈向每个人的“AI助手”,这透露出了科大讯飞的未来决心,其实背后挑战不少。 内容溯源功能香吗 在发布会一开始,刘庆峰首先抛出一组数据:从去年9月份正式上线至今,星火APP仅在安卓端的下载量就达到了1.31亿次,在国内工具类通用大模型App中排名第一。 科大讯飞并非AI长文本功能的先发玩家,甚至可以说如今长文本已经成为大模型的“标配”。 但在实际使用中,幻觉问题却逐渐凸显。 AI在回答问题时,会出现“一本正经地胡说八道”的现象。但对于我们用户来说,判断AI准确度的成本又非常高。 如果要从整套哈利波特图书中找到对魔杖的描述,大概能花掉一个人一整天的时间。而这对星火4.0模型来说,只需要几秒钟。答案和其出处一同生成。 更让人惊喜的是,内容溯源的功能不仅适用于长文本,还能够应用在长图文、长语音中,这无疑与其他AI搜索相比又拉开了一个台阶。 而在AI落地方面,科大讯飞也给出了自己的答案。 在科大讯飞最拿手的教育领域,讯飞星火V4.0对教育大模型进行升级,并发布了星火智能批阅机,以及进一步升级讯飞AI学习机两款硬件。 其中,星火智能批阅机外形酷似打印机,通过大模型能力,可以对多学科、多题型作业进行批改,甚至输出讲评课件。老师原先要90分钟才能批改完的作业,现在只要5分钟就能完成。 而搭载了星火大模型的讯飞AI学习机,现在也能够进行1对1答疑辅导。 其实,这样“解放”家长的功能,科大讯飞并不是首发。早在一个月前,GPT-4o的演示视频中就有所提及,但直至今日,该功能仍然只停留在OpenAI的演示页面上,而科大讯飞的学习机已经在刚刚过去的618中成为文具电教行业的销售额冠军,提升了AI的渗透率。 值得一提的是,刘庆峰重点强调了“星火4.0模型是基于我们国产算力平台训练出来的,每一行代码、每一个数据都是我们自己编写、自己清洗得出的。”这意味着,星火4.0 AI大模型是一个地道的“国货”,技术完全自主可控。 净利润压力剧增 在星火4.0发布之前,市场对科大讯飞的讨论还停留在因Q1巨亏3亿元,导致的对其盈利能力的质疑上。 实际上,科大讯飞今年发出的两份成绩单都不算好看。2023年科大讯飞营收196亿元,同比增长4.4%,归母净利润6.57亿元,但在扣除掉非经常性损益的5.4亿元(包括政府补助的4亿元),其利润率只有0.6%。 而今年Q1科大讯飞的盈利指标再次亮起红灯,Q1净亏损3亿元,去年同期亏损0.58亿元。 对此科大讯飞给出的原因和2023年净利润减少的原因基本一致:在通用人工智能认知大模型等方面投入导致。 大模型烧钱早已是行业共识。 Q1科大讯飞在大模型上新增投入约3亿元;整体的研发费用就占营业成本的37%。 “市值榜”指出,2023年,科大讯飞购置了17亿元的服务器设备,原本账面上余额不到3个亿。虽然科大讯飞称未来在算力上的投入增幅相较于研发投入会更小。但按照年报中给的折旧年限,新增的17亿每年至少要摊销3亿多。 持续性高强度投入的同时,从2022年开始,科大讯飞这两年的营收增速也开始明显放缓。 2019-2021年,科大讯飞的营收增速大约在27%-40%之间,但在2022年营收增速直接下滑到2.8%,尽管2023年业绩有所回升,但4.4%的增速也绝对算不上好看。 而今年Q1,科大讯飞的应收账款近120亿元,是营收的3.3倍。这与科大讯飞一直以来的大客户主要集中在政府、大中型企业和金融机构息息相关。 收入增长缓慢叠加成本压力高企,让科大讯飞的审计报告直接表示公司在持续经营能力上存在不确定性。 在高饱和投入之后,星火大模型的变现效果却首先落在C端硬件上。 这场发布会几乎2/3的时间都在强调叠加星火4.0在C端上的落地。其中就包括首款星火智能批阅机的发布。 财报数据也显示,2023年星火加持的C端硬件GMV增长超84%,开放平台收入增速达42%,开放平台及消费者业务已成为公司最大业务板块。 这无疑是科大讯飞目前最大的护城河。 而在人工智能产业,一向是一个体系对一个体系的竞争,一个生态对一个生态的竞争。 科大讯飞以智能语音技术起家,最先做好的业务是G端和B端,但想要真正撑起千亿市值的目标,商业生态系统才是核心驱动力。 教育、医疗、智能座舱……特别是最受消费者感知的AI学习机、办公本、翻译机等硬件在内,科大讯飞形成了多元化的智能硬件生态系统。 2022年11月30日,科大讯飞AI研究院副院长刘权看到了OpenAI对外发布ChatGPT的消息。一个星期后,他交出了一份关于ChatGPT 100多页的调研报告。在那场会议上,决定了科大讯飞要把资源All in大模型,也确定了“1+N+X”的发展战略。 “1”是核心的底座,“N”是科大讯飞自有赛道的自有产品,“X”便是生态。 彼时,讯飞研究院首席科学家魏思向刘庆峰下的保证书,是要在半年到一年内追平ChatGPT。 这是一场没有退路的赛跑。 大模型的技术迭代,即使相差三个月,就有可能造成与上一代产品之间的鸿沟。从2023年5月份发布星火大模型,短短一年内,星火就迭代了6次。 从这场发布会,科大讯飞展示了在C端生态上的无限可能。但在大模型这个战场力,市场对于厂商的含金量从来不止于技术的创新,近一年来,科大讯飞股价近乎腰斩。 截止6月27日收盘,科大讯飞报43.14元/股,较去年的最高点81.9元/股下跌47%,想要回答资本市场对其能否撑起千亿市值的疑问,科大讯飞还需要尽快赚钱来挽回投资者的信心。 最后一公里决胜局 在由ChatGPT掀起的大模型浪潮的这一年半时间里,不论是谷歌、腾讯这类大厂巨头,还是Anthropic这样的独角兽玩家,都在不断集资、调动资源,“重仓”AI。 然而,正如科大讯飞所面临的现状一样,加大投入研发只是个开场,如何平衡投产比才是正片。 信仰scaling law原则的AI行业默认,模型的规模越大,性能越高。作为新一代技术浪潮的基底,市场有观点认为,AI属于实打实的规模经济。用户越多,刺激技术迭代降低成本,占据更大市场。市场大,利润就大,就能支撑更大规模的技术研发,从而良性循环。 然而这一切的前提,是要有用户。 目前在AI的付费模式上,大部分厂商仍更愿意把目标客户放在B端。但一个最现实的问题是,PConline曾在AI相关展会上了解到,许多企业还未使用AI的原因是性价比太低。 以AI客服为例,对于电商、教育、咨询等行业的公司来说,虽然一个AI智能“客服”对线索转化率的提升有着显著的效果。但市场上的AI定制服务动辄需要几十万。并且,像手机卡一样,每月只有定额流量,用完之后还要加购流量包。在这样的价格下,不少中小型公司仍愿意使用人力资源。 在商业化需求的驱动下,今年5月开始,国内不少厂商开始通过价格战来抢占市场。阿里的通义千问、百度文心一言等大厂宣布降价甚至免费开放部分模型。 而近日,OpenAI宣布关停国内的API服务,这一操作无疑是为国内厂商们拓展用户又“添了把火”。消息放出24小时内,通义千问、kimi、百川大模型、腾讯云等数家大模型厂商纷纷提供“丝滑迁移API”服务,还推出迁移优惠,希望吸引来这批被“脱钩”的用户。 从价格战到“迁移API”,争夺用户的各种操作无一不展现着大模型厂商的商业化焦虑。在今天的发布会最后,董事长刘庆峰说到,希望用更少的算力、更高的效率,打造企业专属大模型,走完AI的最后一公里。 显然,有这样想法的厂商不在少数,对于“老实人”科大讯飞不仅需要踏实提升模型能力,做好软硬件服务,还需要在最后一公里上跑赢玩家。究竟谁能在竞争激烈的环境中胜出,PConline将继续跟踪。 |
原创栏目
IT百科
网友评论
聚超值•精选