霍金再次针对人工智能发出警告:每个机器人都应该有个终止开关
27日,霍金在GMIC北京2017大会的视频中发声,再次警告说,人工智能的崛起要么是人类历史上最好的事情,要么是最糟糕的。一旦人工智能脱离控制,受到进化限制的人类将无法与之竞争。为了确保人类可以控制机器人,研究设计人员应确保每个机器人都有一个终止开关, 在必要时能 “杀死”他们。