
央广网北京6月26日消息(记者张棉棉)当前,全球各国人工智能大模型已呈现白热化竞赛态势。以“ChatGPT”为代表的大模型扎堆出炉。中国电子信息产业发展研究院近日发布《赛迪智库观点丨冷观人工智能大模型热》。
大企业蜂拥而上推出大模型的背后又潜藏着哪些问题?如何推动大模型相关技术的发展?又该如何建立健全大模型监管机制?总台中国之声记者张棉棉对话课题负责人、中国电子信息产业发展研究院未来产业研究中心研究员、高级咨询师钟新龙。
智库文章:《赛迪智库观点丨冷观人工智能大模型热》
智库机构:中国电子信息产业发展研究院
报告作者:钟新龙中国电子信息产业发展研究院未来产业研究中心研究员、高级咨询师
知天文晓地理的超级学者群
人工智能大模型,是一种能够利用大数据和神经网络来模拟人类思维和创造力的人工智能算法。它利用海量的数据和深度学习技术来理解、生成和预测新内容,通常情况下有数百亿乃至数万亿个参数,可以在不同的领域和任务中表现出智能。比如,我们熟悉的“ChatGPT”就属于“大模型”。这种大模型究竟能做什么?它和过去的人工智能又有怎样的区别?
记者:人工智能大模型对很多人来说,还是很有陌生感,能不能用通俗的语言再帮我们解释一下,究竟什么是人工智能大模型?
钟新龙:现在业界把它定义为通用人工智能大模型,什么叫通用人工智能?就是相当于大众心中一个无所不答,随时随地有回应的超级学者集群,这是一个非常平易近人且近似于拟人化的工具。一般来讲大模型通过学习大量的数据,然后理解和生成日常所用的自然语言。
比如汉语和英语,就是人类社会所使用的自然语言,包括平常见到的图像、音频或者其他类型的数据。而大模型就像是巨大的超级学者集群,也像人类学习各种样例一样。好比我们学习标准的范文文章,看标准的示例图片,听典型音乐,看典型视频等各种维度的信息,以分析现在人类世界的信息组成。
记者:这样的超级学者集群和过去的人工智能有什么区别?现在的“大模型”是否就相当于人工智能AI的底层应用?
钟新龙:是的,可以这么讲。因为通常这样来分,以去年下半年为一个时间节点,在此之前人工智能主要还是决策式人工智能时代。举个简单例子,比如我们想做语音识别或者语音转文字,这个是日常用户都能碰到的,还有图片转文字等,这些人工智能应用都是比较单一的算法,针对单一的场景是特定性质的,不存在场景迁移的可能性。再举个例子,我能不能做所谓的算法,满足泛化的任务需求,传统的这种决策式人工智能就做不到,因为只能用在特定场景,按特定模式做。
从去年下半年ChatGPT为例的大模型火了之后,业界把它叫作“通用人工智能大模型”。它能解决比较泛化的问题,而且最重要的是不需要用程序语言,比如常接触的C语言、Python或Java等程序语言。这是一个很突出的优势,因为程序语言不符合日常大众的使用习惯,大家日常用语肯定是用自然语言交流,比如中文、英语等。以这种大模型为例,它可以使用日常语言进行交流,这样就没有门槛,大家人人都能用,有什么问题都可以直接问,几乎绝大多数问题都能得到“像模像样”的回答,这就是这种通用人工智能大模型跟过去决策式人工智能根本上的不同。
大模型热潮涌来,成本等隐忧值得警惕
目前,在大模型领域,国内外巨头的竞争已经白热化。OpenAI已成为引领大模型发展的标杆企业,预计今年四季度OpenAI将发布更为高级的ChatGPT-5版本。5月24日,微软宣布Win11接入GPT-4;5月10日,微软的直接竞争对手谷歌推出新一代大模型PaLM2,已有超过25个AI产品和功能全线接入PaLM2;亚马逊与人工智能初创公司HuggingFace合作开发ChatGPT竞品——BLOOM;国内科技龙头企业也在密集发布自研大模型;百度发布大模型文心一言;阿里发布首个超大规模语言模型通义千问。这些大模型密集涌现背后究竟看中了怎样的商业价值?同时存在的最大隐忧又是什么?
记者:能帮我们先总结一下现在的大模型普遍特点是什么?
钟新龙:第一,比较显著的趋势是业界开始用大模型做应用赋能。比如微软的Copilot的Office,就是微软3月底宣布的。他们把AI放到Office应用里面来,能做到最基本的应用底层支撑。比如可以用对话的方式一键生成PPT,比如下命令快速处理表格等。国内其实有对标的,金山现在应该都开始进行内部测试了,也就是把大模型处理能力内置于WPS里面。
第二,AI底层应用趋势就是垂直行业的赋能。举个例子,在国外,我们知道像BloombergGPT其实就是典型的大模型赋能金融行业。从未来看,几乎所有的行业领域都要面临大模型重构,都会把行业智能根基根植于大模型之上。
当然这需要迭代应用开发的过程,也还需要时间沉淀的过程,可能未来3年至5年都会长期向这个方向努力,这是国际上的发展情况。
记者:这些国内外的龙头企业为什么都蜂拥而至研发大模型?他们看中大模型的哪些优势?
钟新龙:目前可能产业界主要聚焦这个点,也就是大模型的商业价值。说白了,做大模型应用开发最终还是要看商业价值。
当前比较初级阶段的应用,比如把类似于GPT的大型语言模型,把它接入自动化的客户服务和自动化的流程办公系统,或者做一些固定流程、固定模板的辅助工作,这样可以显著地提升效率和降低成本。比如做美术插画、文档定制,还有商城的平台客户服务等都可以做大模型的底层接入,会比传统的较为机械式的人工智能,获得更高的可用性和更强的有效性。
另外,由于经过这么多年的积累,特别是信息化数字化的长达10年至20年如此长的时间积累,所以我们相比历史上任何一个时期,都有更多的数据可以用,这才是训练大模型成为可能的必备要素。大模型即便放到历史维度中提前的某一个时刻,可能因为数据不够,训练的效果会不太好。
最后,目前来讲,在人工智能领域,几乎所有的研究团队,包括头部企业都在竞争开发最先进的大模型,而且不少头部大模型都开始走向开源开放。我想这种竞争是一种良性的竞争,它有利于推动技术的发展,也有利于推动技术的共享。
记者:国内外大模型集中出现的背后,技术层面又是否存在隐忧?
钟新龙:第一,所谓的成本问题,从训练成本来看,以ChatGPT为例,其训练成本一次大概就是数百万美金。在高度迭代和反复训练过程中,入门的门槛都是上亿级别的,甚至不包括算力成本。如果要包括算力成本,比如数万、数十万的专业计算卡,这就是数十亿的成本。如此高昂的成本,会把很多小型的研究机构或者中小型的公司直接排斥在外,这就会导致AI的研究和开发都集中在头部资源里面,加剧了不平等现象。
第二,目前众多的大模型的训练,其竞争会导致大量的能源消耗,比如碳排放,包括
Copyright 版权所有 Copyright 2013-2020 福建省云创集成科技服务有限公司 共建合作:中国协同创新网
All Rights Reserved. 运营维护:三明市明网网络信息技术有限公司 业务咨询:0598-8233595 0598-5831286 技术咨询:0598-8915168