最后,透明度意味着一个系统使用的数据应该是可获取的,其中使用的算法也应该是清晰明确的。
人工智能伦理研究的兴起是令人值得高兴的进步,尽管目前正在提出的各种框架和体系实际的实施范围还有待观察。
谨慎地表达意愿
有关人工智能伦理的讨论有时候会让我们遗忘一个平凡的现实:人工智能软件就只是软件而已,我们不需要创造什么新奇的技术让软件出错。简言之,软件本身就有缺陷,没有缺陷的软件是不存在的:只是有的软件因为缺陷崩溃了,而有的没有。开发无缺陷软件是计算机领域的一项重要研究,发现和消除缺陷是软件开发的主要内容之一。但是人工智能软件为引入缺陷提供了新的方式。其中最重要的一点是,如果人工智能软件要代替我们工作,我们需要告诉它希望它做什么,这往往不像想象中那么容易。
大约15年前,我正在研究一种技术,旨在使车辆在不需要人为干预的情况下进行自我协调。听起来很酷炫,不过因为我研究的特定场景是铁路网,所以实际情况相对要简单一些。铁路网是环形网络,上面有两辆列车朝着相反的方向行驶。当然,火车和铁路都是虚拟的——没有实际的轨道(事实上连玩具轨道都没有)。假设虚拟的铁路通过一个狭窄的隧道,如果两辆火车同时进入隧道,那么就会发生(虚拟的)车祸,而我的目标是阻止这一切。我尝试开发一个通用框架,允许我向系统提出一个目标(本例中的目标是防止火车撞车),系统将返回一些规则,列车如果遵循这些规则就能保证目标实现(列车不会发生碰撞)。