“恶魔”威胁终结人类 剑桥学子拔剑(图)

发表:2012-11-28 15:31
手机版 正体 打赏 0个留言 打印 特大


人类造出超级人工智能,有可能玩火自焚吗?电影里的终结者会走进现实吗?

电影里,施瓦辛格扮演的机器人“终结者”说:“我会回来!”

剑桥大学的学者决定严阵以待,确保人类不至于被自己制造的恶魔机器人毁灭。

这个“终结者研究中心”(centre for 'Terminator studies)的主要任务是研制如何抗衡可能导致人类灭绝的四大“恶魔”:人工智能(artificial intelligence)、气候变化(climate change)、核战争(nuclear war)和“邪恶”的生物技术(rogue biotechnology)。

这个中心的正式名称是“生存风险研究中心”(Centre for the Existential Risk,CSER)。

杞人忧天?

很久以前,人类自我毁灭就是科幻小说和电影的主要题材;科研发展也在不断“试水”未知领域、开辟新疆域。

最大的风险之一就是自掘坟墓。

如果这种担心在几十年前会被嗤为杞人忧天,那么现在剑桥大学设立这样一个防止人类灭绝的研究中心,或许从一个侧面印证了这种可怕情景并非纯属虚构。

这个中心由三人联合创办:里斯勋爵(Lord Rees),英国皇家天文学家,《我们的最后一个世纪》(Our Final Century)一书作者,以及互联网电话服务Skype的共同创始人之一扬·塔里安(Jaan Tallinn)。

里斯勋爵在他2003年出版的这本书里预言,人类表现出来的各种自残、自毁行为,最终可能导致2100年人类彻底灭绝。

灾难之盒?

还有一位创办人是剑桥大学知名哲学教授休·普莱斯(Huw Price)。

普莱斯教授曾经提醒人们,“超级智能机器”(ultra-intelligent machine),或称人工综合智能(artificial general intelligence, AGI),确实涉及人类存亡。

他说,AGI 有可能带来“潘多拉的盒子”(神话里盛满灾难的盒子,打开盒盖,灾难飞洒人世),我们对此务必重视;错过这个关键时刻,就可能陷入灭顶之灾。

当然,他承认现在谁都无法准确预计超级人工智能AGI可能带来哪些具体灾难,但这也正说明很有必要立项研究科技发展的“灾难性的一面”。

他在中心剪彩仪式上表示,剑桥大学已经存在了800年,为了后人能够庆祝它建校1000周年,现在就应该打磨抗击“人类终结者机器人”的利剑。

来源:BBC

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员


欢迎给您喜欢的作者捐助。您的爱心鼓励就是对我们媒体的耕耘。 打赏
善举如烛《看中国》与您相约(图)

看完这篇文章您觉得

评论



加入看中国会员

donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意