首页 >> 国际 >> 国际焦点 >> 环球视野
霍金:人类应建立有效机制 防范人工智能威胁
2017年03月14日 11:30 来源:中国新闻网 作者: 字号

内容摘要:中新网3月 14日电据外媒报道,英国剑桥大学物理学家霍金日前在接受媒体采访时,再次强调人类建立有效机制,防止人工智能(AI)对人类的威胁进一步上升。据报道,霍金在接受采访时表示,包括AI在内的新科技若持续发展,可能会通过核战争或生物战争摧毁人类。霍金说,人工智能的发展可能帮助人类消除疾病,消除贫困,阻止气候变化,但是也可能产生人们不愿意看到的种种后果,包括产生自主武器,造成经济灾难,以及发展出同人类发生冲突时拥有自己意愿的机器。

关键词:人工智能;霍金;威胁;英国剑桥大学;接受采访;核战争;气候变化;联合政府;报道;媒体

作者简介:

    中新网3月14日电 据外媒报道,英国剑桥大学物理学家霍金日前在接受媒体采访时,再次强调人类建立有效机制,防止人工智能(AI)对人类的威胁进一步上升。

  据报道,霍金在接受采访时表示,包括AI在内的新科技若持续发展,可能会通过核战争或生物战争摧毁人类;人类则需要利用逻辑和理性去控制未来可能出现的威胁。

  霍金还就应对AI的威胁建议称,人类可以组成某种形式的联合政府来防范AI可能带来的威胁。

  数年前霍金已经表示,发展全面的人工智能可能导致人类的毁灭。

  霍金说,人工智能的发展可能帮助人类消除疾病,消除贫困,阻止气候变化,但是也可能产生人们不愿意看到的种种后果,包括产生自主武器,造成经济灾难,以及发展出同人类发生冲突时拥有自己意愿的机器。

  “简言之,强大人工智能的崛起可能是人类遇到的最好的事情,也可能是最坏的事情,但我们还不知道答案。”

分享到: 0 转载请注明来源:中国社会科学网 (责编:陈茜)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们