专题:2024亚布力企业家第二十届夏季年会
8月30日消息,在2024亚布力企业家第二十届夏季年会期间,百度副总裁石清华对新浪科技表示,其实大模型的特性是很客观的,你教他什么他就回答什么,给他训练什么他就说什么,但是里边有一些价值观的事情要对齐。
“我们叫对齐,输出对齐,比如说一些普世大众的价值标准,是不能够胡说八道的;再比如涉毒、涉恐、涉赌等等三十几个门类敏感信息,我们需要一点点去对齐,对齐之后,文心一言才正式发布。”
石清华谈到,现在百度的文心一言每天有超过6亿次调用,日均处理tokens超1万亿,这个量级是非常大的,没办法人工干预,更不可能人工审核,所以大模型必须有最终输出的能力,而且最终输出能力一定要合理、合法、合规、合价值观。
“大模型就是一个学生,你教他什么他就会什么,但同时还要告诉他什么是对的,什么是不对的,我们的安全模块就像学生的思想政治教育工作,要明确什么东西能说,什么东西不能说。”他表示,这是大模型的正常训练,思想政治训练就是安全模块。
石清华表示,“我们是分成几层对齐的,第一个价值观对齐,是最大的对齐;第二个是行业对齐,不能回答一些违反行业普遍规律的问题。第三个是对企业的对齐,比如服务一个企业的大模型就要充分了解企业的情况和文化。
“普世价值观对齐,行业基本逻辑对齐,特殊客群对齐,训练大模型这些缺一不可,”石清华谈到。(刘丽丽)
新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。