导航切换
专业
拖动时间轴点击获取起止时间码,截取片段时长不能超过5分钟 ×
点击获取开始时间:点击获取结束时间:
保存片段标题:
保存   |   分享
对不起,您不在IP段范围内,无法观看
1606 播放  
播放有问题?请戳这里
超级人工智能是人类生存的威胁

时长:11 分钟
类别:智能产品开发与应用
简介:埃隆·马斯克认为,到目前为止,数字超级智能的出现对人类的威胁比核武器更危险。他认为人工智能研究领域必须有政府监管。高级人工智能的危险在2010年代末因史蒂芬·霍金、比尔·盖茨和埃隆·马斯克而广为人知。但只有马斯克可能是对人工超级智能表达担忧的最著名的公众人物。高级人工智能存在的风险是这样一种假设,即人工智能的重大进展有一天可能导致人类灭绝或其他一些无法恢复的全球灾难。

相关视频:

观看记录: