欢迎你:
个人中心
界面新闻援引CNBC消息,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。
$谷歌A(GOOGL)$
此文仅代表作者观点,点击可查看作者简介
版主: