谷歌DeepMind预测,AGI或于2030年实现人类智能,可能“永久毁灭人类”。CEO呼吁建立类似联合国机构监管其发展。
谷歌DeepMind最新研究抛出一枚重磅炸弹:人工智能通用智能(AGI)可能在2030年达到人类水平,甚至带来“永久毁灭人类”的风险。这份报告由DeepMind联合创始人Shane Legg等人撰写,直言AGI的巨大潜力不仅令人振奋,更潜伏着深重危机。“它可能引发严重伤害,甚至是灭绝性风险,”研究中写道。但具体如何导致人类灭亡,报告却卖了个关子,没有细说。
这份研究把高级AI的风险分成四大类:滥用、不对齐、失误和结构性威胁。比如,有人可能利用AI伤害他人,或者AI的目标与人类需求背道而驰。DeepMind的应对策略聚焦于防滥用,他们希望从源头掐断潜在威胁。不过,报告也坦言,究竟什么算“严重伤害”,不是他们一家公司说了算,而是得交给社会集体判断,取决于大家对风险的承受底线。
早在今年2月,DeepMind的掌门人Demis Hassabis就曾放话:AGI这种比人类还聪明的家伙,未来五到十年就会冒出来。他有个大胆提议——建一个类似联合国的“大伞”,专门盯着AGI的发展。“我想象的是一个像CERN那样的国际合作平台,集合顶尖人才,专注AGI的前沿研究,确保它尽量安全,”Hassabis说。他还建议,搭配一个类似国际原子能机构的监管单位,盯着那些危险项目,再加上一个多国参与的决策机构,决定这些系统怎么用、往哪放。“就像一个技术版的联合国,专为AGI量身打造。”
说到AGI,它可不是普通AI那种只会干单一活儿的工具。想象一下,一个机器不仅能下棋,还能写诗、开车、做饭——几乎像人一样啥都会,这就是AGI的野心。它能跨领域学习、理解、应用知识,简直是人类智慧的“镜像版”。可这也让人不禁打个寒颤:要是它真聪明过头了,会不会反过来把我们甩在后面?
Hassabis的担忧并非空穴来风。DeepMind这几年一直在AI领域冲锋陷阵,他们深知技术的双刃剑效应。报告里虽没明说灭绝剧本,但字里行间透着紧迫感。反过来想想,如果真能管好AGI,说不定还能化险为夷。可这事儿光靠一家公司显然不够,得全球一起上阵才行。2030年会是AI的巅峰,还是人类的拐点?时间会给出答案。
数据加载中...BIU...BIU...BIU...