“人工智能教父”杰弗里·辛顿警告:超级智能或通过生物战威胁人类生存

笔逼22 小时前
摘要
杰弗里·辛顿警告说,人工智能可能在所有领域超越人类,并可能通过自主武器、网络攻击和生物战消灭我们 。
币币情报道:

被誉为“人工智能教父”的杰弗里·辛顿在一次新采访中发出了迄今为止最严厉的警告,称人工智能不仅对就业构成威胁,还可能因世界加速迈向自动化而危及整个人类的生存。他特别提到了超级智能机器的潜在危险。

在接受《CEO日记》播客采访时,辛顿描绘了一幅未来黯淡的图景。他认为,人工智能可能最终会认定人类已经过时,并采取极端手段消除人类。

“如果它想除掉我们,我们根本无法阻止,”辛顿表示,“我们不习惯思考比我们更聪明的事物。如果你想知道当你不是顶尖智力时生活是什么样的,去问一只鸡吧。”

辛顿指出,人工智能的威胁可能来自两个方面:一是人类对其的滥用,例如网络攻击、错误信息传播以及自主武器的制造;二是完全自主且不受控制的人工智能系统。

“他们现在可以制造致命的自主武器了,我认为所有主要的国防部门都在忙着制造它们,”他说,“即使它们不比人类聪明,它们仍然是非常危险、可怕的东西。”

2023年5月,神经网络先驱辛顿离开谷歌和多伦多大学,结束了十多年的人工智能研究生涯,以便自由谈论这项技术的潜在危险。

辛顿的警告正值人工智能军事应用激增之际。近期的发展突显了技术与国防行动的快速融合,美国在资金投入和合作伙伴关系方面处于领先地位。

11月,为了增强军队的人工智能和自主武器能力,美国国防部在其提交给国会的2025年预算提案中请求了1430亿美元,其中18亿美元专门用于人工智能研发。同年早些时候,软件开发商Palantir获得了1.75亿美元的合同,与美国陆军合作开发人工智能瞄准系统。今年3月,五角大楼与Scale AI合作,推出了一款名为“雷霆熔炉”的项目。

辛顿将当前的人工智能发展比作核武器的出现,但他强调,人工智能的应用范围更广,也更难控制。

“原子弹只有一个用途,它的工作原理非常明显,”他说,“而人工智能可以做很多很多事情。”

辛顿解释说,企业利润动机和国际竞争的结合使得人工智能的发展不会放缓。

“利润动机告诉他们:只要能让他们点击就给他们看,而真正让他们点击的,是越来越极端的东西,这进一步证实了他们已有的偏见,”他说,“所以,你的偏见一直在不断得到证实。”

关于人工智能如何可能导致人类灭绝,辛顿提到,超级智能AI可能会设计出新的生物威胁来消灭人类。

“最显而易见的方法是制造一种极其危险的病毒——传染性极强、致命性极高、传播速度极慢——这样每个人都会在不知不觉中感染它,”他说。“如果超级智能想要消灭我们,它很可能会选择某种不会对它造成影响的生物。”

尽管前景黯淡,但辛顿并未完全失去希望。

“我们根本不知道能否阻止它们占领地球,阻止它们伤害我们。我认为我们目前还不清楚能否做到,所以我觉得这或许毫无希望,”辛顿说,“但我也认为我们或许能够做到,而且如果因为我们懒得尝试而导致人类灭绝,那也未免太疯狂了。”

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场