拖动时间轴点击获取起止时间码,截取片段时长
不能超过5分钟
×
1606 播放
超级人工智能是人类生存的威胁
时长:11 分钟
类别:智能产品开发与应用
简介:埃隆·马斯克认为,到目前为止,数字超级智能的出现对人类的威胁比核武器更危险。他认为人工智能研究领域必须有政府监管。高级人工智能的危险在2010年代末因史蒂芬·霍金、比尔·盖茨和埃隆·马斯克而广为人知。但只有马斯克可能是对人工超级智能表达担忧的最著名的公众人物。高级人工智能存在的风险是这样一种假设,即人工智能的重大进展有一天可能导致人类灭绝或其他一些无法恢复的全球灾难。