2400多位科学家联名宣言 承诺永不发展致命性AI武
军事
湖南新闻网
湖南新闻
2018-07-20 05:17

2400多位科学家联名宣言 承诺永不发展致命性AI武

  从产能“地狱”归来的马斯克,刚刚领衔2000多名AI专家签署了一份特殊协议。

  这份协议核心目的有且只有一个:承诺永不发展致命的AI武器系统。

  在瑞典斯德哥尔摩举行的IJCAL 2018上,由MIT著名物理学家Max Tegmark发起,其任职主席的生命未来研究所(Future of Life Institute,FLI)起草,该协议一经发出就应者如云。

2400多位科学家联名宣言 承诺永不发展致命性AI武

  包含企业领域的马斯克、DeepMind联合创始人哈萨比斯、穆斯塔法,Shane Legg;Skype创始人Jaan Tallinn;全球顶尖AI学者Yoshua Bengio、Stuart Russell、Jürgen Schmidhuber等2400全球AI科学家,都郑重签下了大名。

  就国籍和企业归属而言,他们分属90个国家、160多家AI企业或机构。

  这也是全球首个AI武器系统开发的民间反对组织,不出意外,也将是影响力最大的一个。

  《致命性自主武器宣言》

  这份协议全称《致命性自主武器宣言》(lethal autonomous weapons pledge),核心内容就是宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作,而且LAWS的研发及使用应当被严格禁止。

2400多位科学家联名宣言 承诺永不发展致命性AI武

  宣言称:人类个体生死的决定权,决不能交给机器。这一方面是出于道德层面的考虑,“掌控他人生死”这件让人产生负罪感的事,绝不能由没有感情的机器做出。

  而且致命的AI武器,不受人类干涉、自主选择攻击目标,可归责性与难度都前所未有,它们将成为暴力活动中的强大工具,尤其是与监控、数据系统相结合时。

  宣言还强调:致命性自主武器的特征不同于核武器、化学武器及生物武器,研发团队可以单方开启军备竞赛,而国际社会缺乏实行管制的技术手段。谴责并避免这场军备竞赛,是维护全球安全的优先考虑事项。

  所以今日签署之协议,也是呼吁各国政府及首脑为了地球的未来,共同商议抵制LAWS的国际规范、法律。

  “我们这些未参与LAWS的人,需要以更高标准要求自己:我们绝不参与或支持LAWS的发展、生产、贸易与使用。我们呼吁科技企业、组织及其领袖、决策者与其他民众,共同履行该承诺。”

  军方加速、学界反对、企业夹心

  AI致命的话题,早已不新鲜。

  在AI的所有应用场景中,这是最具争议的一个,而且由于不同组织怀抱不同利益诉求,状态非常尴尬。

  在军方,自主武器从2013年开始就开始在美国、英国、以色列和韩国等军方实验室中诞生。

2400多位科学家联名宣言 承诺永不发展致命性AI武

  区别于其他武器,致命性自主武器,能够在无人控制情况下,自主完成寻找目标、定位、击杀敌人这一整套工作,而AI系统和技术应用,是这些武器最强大的“驱动力”。

  一旦将这些武器派上战场,它们就能自主辨别敌人并给出致命一击,没有情感,没有更多判断,人类的生死权,在机器眼里就是二元的“敌人=死亡”。

  然而硬币另一面,这些武器也不是没有可能落入反派之手,或者被恶意指定攻击目标,结果也就不堪设想。

2400多位科学家联名宣言 承诺永不发展致命性AI武

  于是从AI致命武器出现开始,舆论反对的声音就未曾停歇。

  在科学界,斯蒂芬-霍金、马斯克等知名人士早在2015年就联合千余名AI学者、科学家等向联合国提交过联名公开信,警示AI致命武器潜在风险,以及正在发生的军备竞赛,呼吁颁布相关禁令。

  目前为止也有了一些初步结果。在2016年联合国《常规武器公约》审议大会上,AI致命武器首次被纳入讨论范围。

  其后今年4月举行的最近一次会议上,包括中国在内的26国发表联合声明,支持对AI致命武器颁布禁令。

  这一禁令已有先例:此前,出于人道、伦理原因及潜在的危害性,联合国已经对生物武器、化学武器及太空武器颁布禁令。

  但是,正式的AI致命武器国际公约,现在仍未达成共识。

  而且还将不少企业拖入军方和科研拉锯战的夹心层中。

2400多位科学家联名宣言 承诺永不发展致命性AI武

  今年4月,先是韩国国防公司Hanwha Systems和韩国科学技术院联合建立国防和AI融合研究中心,遭遇全球50多名AI知名学者联名抵制。