联合早报

中国据报要求AI公司大模型强制审查 确保体现社会主义核心价值观


 新闻归类:中国聚焦 |  更新时间:2024-07-18 22:11

(北京讯)据英国媒体报道,中国政府正测试中国人工智能公司的大型语言模型,确保其系统“体现社会主义核心价值观”。

英国《金融时报》星期三(7月17日)报道,根据多名涉及审查过程的人士透露,中共中央网络安全和信息化委员会办公室(网信办)要求字节跳动、阿里巴巴、月之暗面和零一万物等大型科技公司和人工智能起步公司,参与政府对人工智能模型的强制审查。

知情人士称,审查内容涉及批量测试大模型对一系列问题的回应,其中许多问题与中国的政治敏感性和中国官方有关。

审查工作由网信办在中国各地分支机构的官员进行,包括审查模型的训练资料和其他安全流程。

网信办和上述企业没有立即回应《金融时报》的置评请求。

报道指出,中国正建立世界上最严格的人工智能监管制度,以监管人工智能及其生成的内容。另一方面,中国严格的审批程序迫使中国人工智能团队迅速学习如何最好地审查它们正在构建的大模型。

一名杭州人工智能公司的员工称,网信办有一支特别队伍负责审查工作,他们会来办公室,坐在会议室里进行审查。这名员工透露,公司大模型第一次没通过审查,原因不明,后来不得不向同行讨教。凭着猜测和调整,公司花了数月时间,第二次才通过审查。

另一名北京顶尖人工智能起步公司的员工说,公司的基础模型在回答问题时非常不受约束,所以进行安全过滤极其重要。要进行安全过滤,首先要从清除训练数据中有问题的信息,并开始构建敏感关键词数据库。

浏览热度: °

热点关注新闻

延伸阅读推荐

本站联系方式:nanluecom@qq.com
Copyright© 2016-2024
联合早报中文网手机端服务