新闻详情

谷歌PaLM 2在训练中使用的文本数据是其前身的近五倍

美国顾客新闻与商业频道(CNBC)

5月17日音讯,谷歌上星期宣告的大型言语模型PaLM 2运用的练习数据几乎是其前身的五倍,使其可以履行更高档的编码、数学和构思写作使命。

依据CNBC检查的内部文件,PaLM 2是谷歌在I/O大会上推出的新式通用大型言语模型,它接受了3.6万亿个token的练习。

谷歌之前版别的PaLM于2022年发布,并接受了7800亿个token的练习。

来历:

界面

← 返回新闻列表