找回密码
 立即注册
搜索
查看: 550|回复: 0
打印 上一主题 下一主题
收起左侧

[探索频道] 霍金撰文称盲目发展人工智能或招致人类灭亡[1P]

[复制链接]

区版勋章 - 区版勋章

灰铜v1_05蓝铜v2_05蓝铜v1_05紫银v2_04绿金v1_01灰金v1_05绿银v1_01紫铜v1_05绿铜v3_05紫银v1_02蓝银v1_05绿银v3_05绿金v3_05宝血灵晶红铜v1_05

跳转到指定楼层
楼主
发表于 2014-5-5 22:44 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式




5月4日讯 据英国《独立报》报道,著名物理学家霍金近日在《独立报》撰文警告说,科学家如果轻视人工智能(AI)的潜在危机,会招致人类自身灭亡。

霍金在文章中指出,Siri、Google Now及Cortana等人性化软件,都显示科技界在发展AI方面,正以空前的投资额展开一场竞赛。他认同AI可以造福人类,消除疾病与贫。“成功创造人工智能将是人类历史最大事件,但若不懂如何去避开风险,这也将是最后的大事”。

霍金指出,AI可以驾驭金融市场、人类领袖,“甚至发展出我们不能理解的军事武器”,这类情况就像踩钢丝,可以是最好的事,也可能是最糟糕的事。
插件设计:zasq.net

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋| ( Q群816270601 )

GMT+8, 2024-6-2 03:22 , Processed in 2.086832 second(s), 50 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表