据
美国顾客新闻与商业频道(CNBC)
5月17日音讯,谷歌上星期宣告的大型言语模型PaLM 2运用的练习数据几乎是其前身的五倍,使其可以履行更高档的编码、数学和构思写作使命。依据CNBC检查的内部文件,PaLM 2是谷歌在I/O大会上推出的新式通用大型言语模型,它接受了3.6万亿个token的练习。
谷歌之前版别的PaLM于2022年发布,并接受了7800亿个token的练习。
来历:
界面
据
美国顾客新闻与商业频道(CNBC)
5月17日音讯,谷歌上星期宣告的大型言语模型PaLM 2运用的练习数据几乎是其前身的五倍,使其可以履行更高档的编码、数学和构思写作使命。依据CNBC检查的内部文件,PaLM 2是谷歌在I/O大会上推出的新式通用大型言语模型,它接受了3.6万亿个token的练习。
谷歌之前版别的PaLM于2022年发布,并接受了7800亿个token的练习。
来历:
界面