iWeekly
7月20日,联合国秘书长古特雷斯(António Guterres)发布了一份总结性文件向各成员国提出倡议,敦促建立一个新的国际机构来管理与迅速发展的人工智能(AI)相关的风险。古特雷斯警告称"人工智能(AI)为世界的和平与安全带来潜在风险"。他引用国际社会过去为了和平利用原子能而设立国际原子能机构(IAEA)的例子,并呼吁"采取措施以减轻风险。其中包括建立国际机构"。古特雷斯的倡议总结了人类与AI、人类社会与技术进步之间的关系,向全人类提出了不得不回答的问题:AI的国际治理该如何进行?AI会为人类社会带来怎样的改变?人类在未来又该如何应对技术革新带来的危机和挑战?
AI国际治理
古特雷斯的倡议是在联合国安理会首次专门讨论人工智能治理的会议上提出的。他表示,联合国有机会为监控和监管人工智能制定全球一致的规则,就像联合国之前成立类似的机构来管理核能使用、提高航空安全以及应对气候变化一样,联合国在协调国际应对人工智能方面有着独特的角色。
他认为,在人工智能技术日益显现其潜在风险和益处之际,联合国应该创建一个新的国际机构来协助管理人工智能的使用。
古特雷斯警告称:“将人工智能系统用于恐怖主义、犯罪或国家目的的恶意行为可能导致可怕的死亡和破坏,广泛的创伤以及无法想象的深刻心理伤害。生成式人工智能在规模上具有巨大的利益和恶意潜能。其创造者们自己已经警告说,更大、潜在的灾难性和生存的风险还在前方。如果不采取措施应对这些风险,我们就对现在和未来世代的失职了。”
他强调了被称为"自律型致死兵器系统(LAWS)"或“AI兵器”的设定目标并进行攻击的行为,指出这种行为"违背伦理,也在政治上难以接受"。他呼吁在2026年前建立法律禁止的框架。
目前,AI国际治理尚不存在统一的国际规则,也没有统一的国际组织协调AI在各项国际事务上的应用。现状是各国在竞争中,寻求取得这一领域的领导者和规则制定者的地位。然而各国在AI领域的进取,也切实的在改变技术对于人类社会的影响。
科幻照进现实
LAWS及其部署可能带来的风险已经成为科幻文学和电影的素材,比如1927年的德国电影《大都市》和雷·布拉德伯里(Ray Bradbury)1953年的反乌托邦小说《华氏451度》。但LAWS已不再是纯粹的猜想。
一个现今正在使用自动武器的例子是以色列的“鸟人(Harpy)”无人机,它被编程飞往特定区域,搜索特定目标,然后使用一个被称为“Fire and Forget”(点燃后无后顾之忧)的高爆头将目标摧毁。
更具挑战性的例子是反乌托邦短片《屠杀机器人(Slaughterbots)》。这一短片讲述了小鸟大小的无人机可以主动寻找特定目标并在近距离处用一小块炸药射穿目标的头骨。这些无人机自主飞行,而且体积小巧灵活,不容易被捕捉、停止或摧毁。
这些“屠杀机器人”并不仅仅是虚构的故事。2018年,一架类似的无人机差点杀死了委内瑞拉总统,而且现在,有经验的业余爱好者花费不到1000美元就能建造出这样一架无人机。所有零部件都可以在线购买,并且所有开源技术都可以下载。这是人工智能和机器人技术变得更加可获得和廉价的意外后果。
LAWS已不再是纯粹的猜想。现在,人工智能系统可以独立使用数据,预测人类行为,收集情报,进行监视,确定潜在目标,并在虚拟战斗中做出战术决策。军事中的机器人应用已变得司空见惯,并且全面实现用于战争的自主机器人已是现实。现在的重要问题不是哪些LAWS可能存在,而是它们是否对人类构成“前沿风险”。
“前沿风险”
“前沿风险”是指在人类探索新领域(无论是技术、生态还是领土上)时可能出现的低概率高影响的威胁。这些风险的结果不容易预测(特别是对于没有专家见解的非专业群体),但它们有能力改变我们所知道的世界。这些前沿风险最好通过三种隐喻来说明:“龙王”(罕见的、高影响的事件,有些是可以预测的),“灰犀牛”(高度可能的、高影响的事件,只有在经过长时间的警告后才会发生),和“黑天鹅”(高影响的事件,几乎不可能预测)。全自动武器可能带来的前沿风险包括军队袭击的灾难性后果,以及在机器智能时代人类的存在危机。
机器会犯错,尽管比人类士兵犯错的次数少。但人类对其行为负责,而机器不会受到法律后果。由于有关战争的国际人道法(IHL)的复杂性,有可能释放出难以区分活跃作战人员、受伤士兵和投降者的机器,违反1949年《日内瓦公约》。
有人可能会认为,完全自动武器的想法已经违反了IHL。例如,马滕斯条款优先考虑人的尊严和士兵对同胞的怜悯能力。但由代码驱动的机器人目前还没有做出这种决定的能力,并且可能会违反规则。对于违反IHL的担忧还强调LAWS.可能会自行行动的潜力。这个曾经似乎是最富想象力的反乌托邦小说中的想法,近年来已经越来越受到关注。
埃隆·马斯克(Elon Musk)和理论物理学家斯蒂芬·霍金(Stephen Hawking)都警告说,有感知能力的人工智能可能发起接管并威胁人类文明。《联合国特定常规武器公约》和《新德里规则》第14条禁止使用可能脱离雇主控制的武器危及平民。尽管这种情况可能仍被认为不太可能发生,但这是一种可能对世界造成灾难性影响的前沿风险。
LAWS可能不会像新冠疫情、网络攻击或气候变化那样带来明显的灾难性风险,但我们需要运用新的视角来思考所有这些风险以及如何避免它们。我们需要更透明的风险沟通渠道;投资监管AI风险管理的机构,并制定检查军事技术发展。联合国可以规定军事部署的一定风险水平,并激励那些符合IHL的部署。这样做的重点应该不是完善战争艺术,而是通过技术学会遏制战争的发动。
新闻来源:美国全国电视新闻网(CNN)、《大西洋月刊》、达沃斯论坛
iWeekly周末画报独家稿件,未经许可,请勿转载