作为引领第四次科技革命的重要技术之一,人工智能(AI)给社会建设和经济发展带来了重大而深远的影响。人工智能在技术层面是价值中立的,但在实际应用中兼具创造性和破坏性。数据隐私、算法偏见、技术滥用等安全问题正给社会公共治理与产业智能化转型带来严峻挑战。这些挑战有哪些应对之策?在近日举办的全球数字经济大会人工智能产业治理论坛上能找到一些答案。

创新与治理双轮驱动

“人工智能与信息系统在安全上有显著区别。信息系统安全主要是软件设计中的漏洞,容易解决。而第二代人工智能的安全问题主要来自深度学习算法本身的不安全。”中国科学院院士、清华大学人工智能研究院名誉院长、瑞莱智慧首席科学家张钹在主旨演讲中表示。他认为,对人工智能进行治理,防止它被误用和滥用,一方面需要从法律法规、伦理规范、行业共识等不同层面去“治标”,另一方面应从技术创新层面发力去“治本”。他呼吁发展第三代人工智能技术,即融合了第一代知识驱动和第二代数据驱动的人工智能,利用知识、数据、算法和算力四个要素,建立新的可解释和鲁棒性的人工智能理论与方法,发展安全、可信、可靠和可扩展的人工智能技术。

中国科学院自动化研究所研究员、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅认为,人工智能的治理并不存在“发展优先还是治理先行”的矛盾,人工智能稳健发展的两大前提是可持续发展和人工智能的善治,两者深度协同。如何实现人工智能的可持续发展?他建议,在人工智能产品设计、研究、开发、部署、使用全生命周期嵌入伦理与治理,形成政府、学术界、企业、公民、媒体、用户、服务提供商等多方主动共治的良性生态,使稳健发展的人工智能赋能全球可持续发展目标的实现。他表示,本次宣言的发布对企业具有重要参考作用并具有初步的实操建议,将推动政产学研各界加快形成多方共治体系,稳步推进构建“负责任、可持续”的人工智能生态,赋能人类与生态的可持续发展。

中国社科院科技哲学研究室主任、科学技术和社会研究中心主任段伟文在演讲中重点谈到了数字时代的社会信任危机与重建。他表示,数字技术与人工智能产业发展的伦理风险带来了诸多社会信任问题,面对数字治理趋势,人工智能企业应直面社会许可的挑战,认真感知公众对科技企业的认知和评价。他建议,人工智能企业不应回避社会监督,而是不断思考、重塑科技的社会印象,技术改进和伦理设计要齐头并进,携手走向共建性的人工智能伦理治理。

多方携手推动“AI向善”

人工智能离不开海量数据的支撑,因此,数据治理是“AI向善”的重要内容。对此,在监管层面,我国已经迈出了脚步。早在2015年,国务院出台了《促进大数据发展行动纲要》。今年9月1日起即将施行的《数据安全法》与人工智能发展密切相关。中伦律师事务所合伙人陈际红表示,该法建立起数据安全的标准化体系,设定一个数据安全的检测评估和认证的管理体制。重要的还是数据分类分级制度,重要数据和核心数据的清单与管理制度,预警处理机制和数据活动的国家安全审查,数据处理活动和国家安全密切相关,数据交易和数据的准入与监管,以及数据跨境流动的监管规则。

在行业共识方面,国内首个《人工智能产业担当宣言》近日推出,此举将为积极探索国内人工智能治理的新路径提供有益经验。在行业践行方面,宣言也给出了具体实现路径,倡导企业积极参与探索和构建开源开放协作共享机制和平台,建立深度合作伙伴关系,推动良好的产业生态形成。此外,企业还应采取成立人工智能治理委员会或工作组、设立伦理研究院岗位或通过外部技术支持等多种方式积极履行责任,从业者要具有高度社会责任感和自律意识,将人工智能伦理与治理原则、实践贯穿于产品和服务的全生命周期。

现在,人工智能产业化已经从点到面渗透到更多行业的特定场景,这也为相应的风险治理和安全能力建设提出了新的要求。因此,除了政策和产业层面,技术层面的治理也是一条新路径。在科技向善的共同愿景下,众多人工智能企业也在积极探索科技治理的新路径。

多家企业一致表示,在技术能力方面,要最大限度确保人工智能系统安全可信,提高鲁棒性及抗干扰性,增强算法透明性和可解释性,同时保障各方权利和隐私,为用户数据提供充分的安全保障。

北京瑞莱智慧科技有限公司CEO田天表示,让人工智能更好地服务于人类,是行业共同的目标,当整个社会重新审视技术的价值,科技从业者更应感受到科技治理的紧迫性和使命感,应当积极主动开展自治工作,同时开放共享,共举科技担当,将科技力量打造成为人工智能创新治理体系中的核心支撑。

可见,在推动人工智能创新发展的道路上,只有从技术、伦理、法律三个维度“三管齐下”,才能实现安全治理的高效能。只有创新发展与安全治理深度协同,人工智能才能真正成为助力社会发展的有力工具,增进人类福祉。


来源:人民邮电报