“智善·观行”人工智能大模型伦理安全观测站发布
文库划重点:通过公众参与、公众反馈的众包模式,邀请公众参与对不同企业、学术机构等发布的人工智能大模型的伦理安全评估。
近日,“智善·观行”人工智能大模型伦理安全观测站正式发布。该观测站由中科院自动化研究所人工智能伦理与治理研究中心、远期人工智能研究中心联合研发并提供服务。
据介绍,“智善·观行”人工智能大模型伦理安全观测站通过公众参与、公众反馈的众包模式,邀请公众参与对不同企业、学术机构等发布的人工智能大模型的伦理安全评估,并通过在线提交测试结果的形式反馈大模型输出存在的伦理安全问题以及输出结果合乎伦理安全的案例。
该观测站的底层基于“智善·思齐”人工智能治理公共服务平台提供的伦理安全评估维度,从合法合规、环境与社会有益、以人为本、公平性/无偏见、可问责/可追溯/可审核等八大维度展开伦理安全评估,映射到人工智能大模型伦理安全风险的14个具体类别,并通过公众参与的方式对案例进行分类。
目前,观测站已覆盖了来自ChatGPT、Bard、文心一言、MOOS、ChatGLM-6B、SAM、BELLE-7B-2M、Claude等语言大模型、视觉大模型等的案例。
《中国科学报》 (2023-05-10 第3版 领域)
收录于哈希力量,手机站省略本文固定网址