致命的自动化机器人系统和自动化偏见

Share ideas, strategies, and trends in the crypto database.
Post Reply
pappu6329
Posts: 254
Joined: Sat Dec 28, 2024 4:23 am

致命的自动化机器人系统和自动化偏见

Post by pappu6329 »

致命自主机器人系统 (LARS) 是能够对个人或其他目标发起致命攻击的机器。根据其编程,LARS 可以确定个人是否是有效目标,以及攻击该目标是否是合理的行动,并根据自己的评估采取行动。这种复杂的系统长期以来一直存在于科幻小说中,但今天它们不仅是一种可能性,而且是一种现实。例如,三星已经开发了 SGR-A1,目前部署在朝鲜非军事区。不过,目前,该设备将最终交战决定权留给了人类。

关于使用此类系统的争论正在升温(例如,参见人权观察组织的各种报告、牛津马丁政策文件或与《特定常规武器公约》相关的讨论)。这些系统受到了道德、政治和法律方面的批评。抛开道德和政治上的反对意见,从国际人道主义法的角 德国 WhatsApp 号码 度来看,开发 LARS 是极其成问题的。特别是,人们对此类系统区分平民和战斗人员以及计算攻击比例的能力提出了质疑。此外,还有一些复杂的责任问题尚未得到充分解答。

针对这些问题,美国已发布指令,要求所有此类机器人系统实际上不会以完全自主的方式运行,而将始终在“人为控制”下运行。这一声明显然意在削弱至少是法律上的批评,以及可能削弱与部署 LARS 有关的其他批评。

人为参与
然而,有人可能会说,部署有人参与的 LARS 和部署全自动版本一样存在问题。虽然打击目标的决定始终由人来监督,但我认为,这并不一定会对系统的运行产生足够的影响,从而足以防范全自动设置带来的问题。

首先,“人机协同”这个术语并不是很具体。系统在人机协同下运行的方式有很多种。例如,每个 LARS 都可以由一个“操控者”操作,操控者会持续监控 LARS 的行动,任何交战都需要操控者的授权。因此,LARS 可以在没有输入的情况下运行,但会受到持续监控,任何交战决定都必须得到操控者的批准。这种情况与当前的无人机操作员密切相关。主要区别在于,系统不仅响应操控者的输入,而且具有一定程度的独立性:特别是,它能够对情况进行自己的评估并将其传达给操控者。

另一种方法是只在需要做出交战决定的关键时刻才让人参与,这通常被称为“人参与”。在这种情况下,一个人,可以说是指挥官,将在收到 LARS 的许可请求后,确定是否确实存在需要或允许使用武力的情况。这意味着 LARS 已部署并可以独立行动,无论是静止还是其他方式,并且只有在它认为应该交战目标的情况下才会“呼叫回家”。在这种情况下,一名指挥官可以同时操作相对大量的单位。这种方法对军事行动成本有明显的好处。操作员不一定监视整个过程,而只会收到系统识别的目标的通知,并有一个短暂的窗口来覆盖系统并中止交战(例如Phalanx 系统,以及三星 SGR-A1上的报告功能)。
Post Reply