当前位置: 首页 >> 资讯 >
谷歌最新 AI 大语言模型数据量扩充 5 倍-全球快播报
来源:新浪VR     时间:2023-05-18 04:10:25


(相关资料图)

5月17日,谷歌在其I/O开发者大会上发布的最新通用大语言模型PaLM2使用的训练数据,几乎是2022年的上一代模型的5倍。该模型采用了3.6万亿个令牌(token)进行训练。之前版本的PaLM发布于2022年,当时使用的令牌为7800亿个。

新的模型比之前的大语言模型更小,这就意味着该公司的技术效率得以提升,但却可以完成更加复杂的任务。PaLM2基于3400亿个参数训练,这项指标可以说明该模型的复杂程度。最初的PaLM则基于5400亿个参数训练。

因此,该模型在编程、数学和创意写作方面的表现更为优秀。

根据公开披露的信息,PaLM2比现有的任何模型都更加强大。Facebook在2月份宣布的LLaMA大语言模型采用1.4万亿个令牌。OpenAI上一次披露GPT-3的训练规模时表示,它当时基于3000亿个令牌。OpenAI今年3月发布GPT-4时表示,它在许多专业测试中展示出“与人类媲美的表现”。

谷歌和OpenAI都在努力吸引想要用聊天机器人代替传统搜索引擎,从而直接获取答案的用户。

谷歌在一篇关于PaLM2的博文中表示,该模型使用了一种名为“计算机优化扩张”的新技术。这就让大语言“更高效、整体性能更好,包括加快推理速度、减少参数调用和降低服务成本。”

该模型针对100种语言进行训练,可以执行更广泛的任务。它已经被用于25项功能和产品,包括该公司的实验性聊天机器人Bard。按照从小到大的规模划分,该模型共有4种,分别是壁虎(Gecko)、水獭(Otter)、野牛(Bison)和独角兽(Unicorn)。

随着新的人工智能应用快速进入主流,围绕底层技术的争议也越来越激烈。

谷歌高级研究科学家艾尔·迈赫迪·艾尔·麦哈麦迪(El Mahdi El Mhamdi)于今年2月辞职,主要原因就是人工智能技术缺乏透明度。本周二,OpenAI CEO山姆·阿尔特曼(Sam Altman)出席美国国会针对隐私和技术举行的听证会,他也认为需要设立一套新的制度来应对人工智能的潜在问题。

标签:

X 关闭

X 关闭