人工智能健康发展有了“北京方案”
本报讯(记者张航)如今,人工智能已经越来越渗透进入我们生产生活的各领域。今天上午,北京智源人工智能研究院联合北京大学、清华大学、中国科学院等一批高校、科研院所和产业联盟,共同发布《人工智能北京共识》。共识提倡人工智能技术研发要对其潜在伦理风险与隐患负责,提升技术水平控制各种风险,最大范围共享人工智能发展成果。共识的发布为规范和引领人工智能健康发展提供了“北京方案”,对于实现人工智能“自律”“善治”“有序”具有重要意义。
记者注意到,此次发布的共识针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则。其中研发方面,提倡设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人,要对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果;使用方面,提倡善用和慎用人工智能,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险;治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。
专家普遍认为,人工智能涉及范围极广,应对人工智能带来的挑战,不是一个领域、一个城市、一个部门、一个机构能够独立完成的,需要充分汇聚科学家、企业家、产业联盟和社会各界的力量,多方参与、共同努力,持续推动人工智能伦理、规范方面的学术研究与成果转化应用,并不断强化行业自律。
为降低人工智能发展过程中可能存在的技术风险和伦理隐患,北京智源人工智能研究院今天成立了人工智能伦理与安全研究中心,中国科学院自动化研究所曾毅研究员任研究中心主任。
曾毅表示,该研究中心将围绕人工智能伦理与安全的理论探索、算法模型、系统平台、行业应用等开展一系列研究,目前主要包括四大方面,一是低风险机器学习模型与平台的构建,建立机器学习模型安全性的评估体系,并结合具体领域进行验证;二是开展符合人类伦理道德的智能自主学习模型研究,实现人工智能行为与人类价值观的校准,并在模拟环境与真实场景中进行验证;三是建设数据安全示范应用系统,建立数据基础设施、数据分级、权限控制、数据审计,最大限度防止数据泄密,降低风险,探索允许用户撤销个人数据授权的机制及计算平台;四是构建人工智能风险与安全综合沙盒平台,建设自动检测平台,针对数据与算法的安全性、公平性、可追溯性、风险类型、影响程度与影响范围等方面,对人工智能产品及应用进行风险与安全综合检测与评估,引导行业健康发展。
本文系作者授权本站发表,未经许可,不得转载。

推荐文章
Recommend article-
iPhone 接入汽车:苹果未来的勃勃野心
智能时代/阅读:11 -
特斯拉中国官网正式上线,25 万元预定 Model S/Model X
智能时代/阅读:11 -
自动驾驶汽车:安全、节省,但是难以普及
智能时代/阅读:8

热门文章
HOT NEWS