12月21日,记者在蚂蚁集团科技伦理顾问委员会2023年度会议上获悉,蚂蚁集团大模型研发团队投入近20%的技术人员建设科技伦理,还与8所高校机构开展共建科技伦理知识体系,打造负责任的AI。

今年2月,蚂蚁集团在设立公司内部科技伦理委员会的基础上,正式成立科技伦理顾问委员会,由7名外部专家构成,为蚂蚁集团科技伦理建设给予方向性、战略性、针对性的指导建议。

蚂蚁集团资深副总裁、技术战略委员会主席倪行军在会上介绍了蚂蚁集团科技伦理建设的最新进展:与大模型能力建设和应用探索同步,蚂蚁集团持续投入人力和算力搭建风险评估、防御的机制及能力。目前大模型伦理建设人员占整体大模型技术人员的将近20%,未来将继续保持高水平和高强度的投入。此外,科技伦理委员会将联合蚂蚁技术研究院投入前沿伦理问题研究。

大模型催生了新一轮技术创新与产业变革,与之而来的安全问题不容忽视。据了解,蚂蚁集团从2015年就积极投入可信AI的技术研究。围绕“安全、合规、可控、可靠”的目标,目前蚂蚁集团建立了大模型综合安全治理体系,未来将保持人力资源和算力资源的持续投入、高强度投入,加强大模型安全治理。

打造负责任的AI 蚂蚁集团大模型团队投入近20%人力建设科技伦理  第1张

图:与会专家学者讨论大模型对社会环境的影响

打造负责任的AI还需要全社会的共同参与和努力。在今年9月的外滩大会上,蚂蚁集团与多家高校机构合作发起大模型伦理共建计划,目前已与8所高校机构合作开展共建科技伦理知识体系。

蚂蚁集团科技伦理顾问委员会的6位委员——中国科学院院士、清华大学人工智能研究院名誉院长张钹,中国信息化百人会执委徐愈,上海交通大学客座教授、国家新一代人工智能治理专业委员会委员李仁涵,中国社会科学院哲学所科技哲学研究室主任段伟文,浙江大学国际联合商学院院长、金融科技研究院院长贲圣林,浙江大学人工智能研究所所长、浙江大学上海高等研究院常务副院长吴飞,以及清华大学五道口金融学院副院长张晓燕,清华大学人工智能国际治理研究院副院长梁正,华东政法大学数字法治研究院院长马长山,同济大学法学院副院长、上海市人工智能社会治理协同创新中心秘书长徐钢,中国政法大学数据法治研究院教授、联合国高级别人工智能咨询机构专家组成员张凌寒等多位来自学界的特邀嘉宾共同参与研讨。与会专家一致认为,大模型的出现正在对经济社会发展产生积极影响,但也伴随着很多挑战和风险,其科技伦理建设至关重要、任务艰巨。

重视科技伦理建设已成为行业共识。据悉,除了蚂蚁集团,阿里、百度、商汤科技等国内科技企业已成立了科技伦理治理委员会或者人工智能伦理治理委员会。