【新要闻】谷歌新版PaLM2训练数据量为前一代5倍
(资料图)
5月17日消息,据《科创板日报》消息,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。
关键词:

【新要闻】谷歌新版PaLM2训练数据量为前一代5倍


天天热门:上海暂停笑果文化在沪全部演出,责令其深刻反省整改


莫言称给余华的颁奖词是ChatGPT写的,自己好几天也没写出来


腾讯第一季度营收1500亿元,调整后净利润325亿元


苏宁易购被强制执行1302万-热讯


腾讯近五年研发投入超2200亿元,专利数位列民营企业第二

相关新闻