几家学术机构已经提出了AI杀戮开关,以防止整个天网发挥作用

当AI继续在您能想到的几乎每个空间中统治对话时,都出现了一个重复的问题:我们如何控制这项新技术?根据剑桥大学的一篇论文 ,答案可能在于多种方法 ,包括内置的杀戮开关和运行硬件的远程锁定。

该论文的贡献来自多家学术机构,包括剑桥大学的Leverhulme中心,牛津互联网学院和乔治敦大学 ,以及Chatgpt Creators Openai的声音(通过登记册) 。在包括有关销售AI处理硬件和其他潜在法规方法的更严格的政府法规的提议中,建议修改后的AI芯片可以“远程证明他们正在合法运营的监管机构,并停止运作 。” 

这是由在硬件上作为保障的船上的协同处理器来实现的 ,这将涉及检查需要定期续签的数字证书,如果发现许可证是非法的或过期的,则需要定期更新或降低硬件的性能。 

这将有效地使用来计算AI任务的硬件在某种程度上负责其使用的合法性 ,并提供一种“杀死 ”或征服该过程的方法,如果发现某些资格缺乏。

稍后,本文还建议一项提案 ,涉及一些外部监管机构的标志,然后才能执行某些AI培训任务,并指出“核武器使用类似的机制 ,称为允许行动链接 ” 。 

尽管许多提案已经具有现实世界中似乎有效起作用的现实世界 ,例如在中国等国家 /地区对AI芯片出口的限制征收的严格贸易制裁,但建议在某种级别的AI中,应在某种级别的AI中受到远程系统的调节和限制。

随着目前AI开发的目前状况 ,AI开发似乎正在以不断的速度发展,而当前的AI模型已经在整个竞技场中找到了用法,这些竞技场似乎应该考虑暂停。从发电厂的基础设施项目到军事应用 ,AI似乎在每个主要行业中都找到了席位,并且近年来,法规已成为一个热门讨论的话题 ,技术行业和政府机构中的许多领先声音在可能出现问题时反复呼吁进行更多讨论和更好地处理该技术的方法 。

去年年底,在上议院通讯和数字委员会的一次会议上,微软和元老板被询问是否可以召回不安全的AI模型 ,并简单地避免了质疑,这表明当前的答案是否定的。

内置的杀戮开关或远程锁定系统同意并受到多个尸体的监管,将是一种减轻这些潜在风险的方法 ,并希望我们当中的AI实施浪潮使我们当中的人们在夜间使我们的世界变得更好地睡眠。

我们都喜欢一个虚构的机器智能的故事 ,但是当涉及现实世界时,将一些保障措施发挥作用似乎是明智的事情 。不是这次,天网。我更喜欢您在沙发上喝一碗爆米花 ,这是您应该留在这里的地方。