楠木轩

美军启用人工智能伦理原则

由 俎巧玲 发布于 科技

据美“情报与侦察”网站5月4日报道,五角大楼已正式公布人工智能五大伦理原则,即负责、公平、可追踪、可靠和可控。无论作战还是非作战人工智能系统,均须遵守上述原则,否则美国防部将不予部署。

“负责”,指开发者和使用者须对人工智能系统的开发、部署、使用和造成的结果负责。根据官方指导文件,在开发阶段,开发者需为人工智能系统确定合理的活动界限。以自动驾驶系统为例,必须确定其剧烈运动的上下界限,以免在使用时导致事故发生。在部署阶段,使用者应为人工智能系统建立清晰的指挥链条,并明确操作者、指挥者的身份,避免发生混乱。

“公平”,指五角大楼应最大限度减少人为偏差对人工智能系统的影响。众所周知,机器学习的过程就是对人工输入数据的分析过程。如果输入者心存偏差,所输入数据必然不全面,人工智能系统就失去了公平的学习环境。比如,人脸识别系统要提高识别率,需要对大量面部影像进行对比和判断,如果被输入的面部影像只局限于某一性别或某一种族,势必导致人脸识别系统的准确率下降。

“可追踪”,指人工智能系统在其使用周期内的透明性,即从开发、部署到使用的各个环节都要留下准确的记录,比如研发手段、数据源、设计程序、使用档案等。技术专家或用户可对此进行研究。一旦发生故障,他们可从研发数据库或文档查找源头,及时、快速予以排除,避免人工智能系统失控。

“可靠”,五角大楼给出的定义是“安全、稳定和有效”。具体而言,人工智能系统的可靠性建立在“可追踪性”基础上,即当系统出现不稳定现象或效率下降时,技术人员应对系统数据库和传感器记录进行回溯追踪,找出与正常状态的不同之处并进行处理。比如,当自动驾驶系统出现不安全或不稳定苗头时,技术人员须第一时间调阅开发者为其规定的活动界限并与实际界限对比,对变化因素进行及时纠正。正常情况下,可靠的人工智能系统会在无法做出判断的情况下与操作人员或后方数据库进行沟通,以确定最终结果。

“可控”,指人工智能系统探测和避免意外发生的能力。五角大楼认为,可控的人工智能系统应具备足够的抗干扰能力,并在发生意外或其他针对人类的恶意行为时,通过自动或手动方式停止工作。这种能力在设计阶段就要嵌入人工智能系统。比如,一部自动驾驶车辆本不需要方向盘,但设计人员仍会安装方向盘,就是为确保发生意外时乘坐者能够切换为手动驾驶。