QQ:355128452
  
导航菜单
  

新闻资讯

DeepSeek对“王一博案”道歉?假新闻!

7月4日消息,据彭博社报道,曾几何时,全球科技领域的顶尖专家们竞相追求的目标是打造“通用人工智能”(AGI),也就是在大多数智力任务上能媲美人类的AI。但如今,行业领袖们正悄然将目光投向一个更为雄心勃勃的新目标:“超级智能”(Superintelligence)。按照定义,这种AI不仅能力与大多数人水平相当,甚至在所有任务上都比所有人类更出色。尽管“超级智能”在AI领域并非全新概念,已存在了数十年之久,但近期它在AI领军人物中迅速流行起来,被视为一个更可及的目标。本周早些时候,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)将“超级智能”推向主流视野,并把它列为其赢得AI竞赛的战略核心。这是继“元宇宙”之后,扎克伯格又一次重大转型。他豪掷数十亿美元开发先进AI产品,组建致力于实现“超级智能”的新团队,并开出数百万美元的高薪,吸引顶尖研究员加入这项宏伟使命。投身于“超级智能”这场豪赌的不止扎克伯格。被誉为同代最杰出的AI研究员伊尔亚·苏茨克维尔(Ilya Sutskever)离开OpenAI后,便将自己的新公司命名为“安全超级智能公司”(Safe Superintelligence)。OpenAI首席执行官萨姆·奥特曼(Sam Altman)也开始频频提及“超级智能”。微软最近也将其在医疗诊断领域的最新突破描述为“迈向医疗超级智能的一步”。被誉为“AI教父”之一的蒙特利尔大学计算机科学教授约书亚·本吉奥(Yoshua Bengio)表示,尽管企业追捧AI新热词不乏商业动机,但人类正迈向“超级智能”是一个“科学事实”。本吉奥说:“我们已经见证AI系统能用超过200种语言相互交流,能通过所有学科的博士资格考试。”他认为,虽然AI目前还缺乏长期规划和战略能力,但“差距正在以指数级的速度缩小,这已成为趋势”。“超级智能”将带来激动人心的商业机遇,但如果一切按计划发展,随之而来的也有严峻风险。“超级智能的问题在于,掌控它的人将拥有凌驾于他人之上的巨大力量。”本吉奥说道。他新成立的非营利研究实验室LawZero旨在开发一种比当前主流模型更安全的AI。“而且控制它的可能并非人类,”他补充道,“也可能是按自身意志行事的超级智能体。”尽管如此,AI业内许多人士仍质疑“超级智能”这一术语定义模糊且有过度炒作之嫌。首先,“超级智能”与AGI一样定义不清:AI究竟需要在特定任务上达到何种能力才算跨过从“通用”到“超级”的门槛?(是达到大学本科水平?博士水平?还是诺贝尔奖得主水平?)更模糊的是我们何时能实现“超级智能”。毕竟,业界连实现AGI都未达成明确共识。奥特曼曾表示超级智能“近在咫尺”;而Anthropic公司首席执行官达里奥·阿莫迪(Dario Amodei)则预测,在多数领域超越诺贝尔奖得主的AI最快可能在2026或2027年出现。当然,这种预测也可能过于乐观了。人类实现所谓“超级智能”可能还需要几十年,甚至永远无法企及。去年离开OpenAI的AI政策研究员迈尔斯·布伦达(Miles Brundage)认为,“超级智能”一词的兴起背后有多种原因。他表示,一种解释是所谓的“AGI通胀”——鉴于许多人感觉AGI比以往更近了,转向更新的术语可能是一次“合理的迭代”。布伦达还补充道,“超级智能”也可以被看作是“对‘AGI’一词含义过于宽泛的回应”,在某些情况下,人们指的是“这些定义中最高端的那一类”。“超级智能”最近风靡业界的另一个原因或许在于,一个比AGI更远大的目标(外加巨额投资)有助于吸引稀缺的顶尖AI研究人才,因为这群人只想攻克最宏大的技术难题。“定义这些词汇时,评判的标准总是在变,”Menlo Ventures合伙人迪迪·达斯(Deedy Das)说。他表示自己更倾向于用“经济图灵测试”来考量:雇佣人类与AI完成相同工作,若产出无显著差异,“这算超级智能吗?我不知道,但这似乎是个合理且能被客观定义的目标。”目前无可争议的是,那些资金最雄厚、技术最顶尖的公司正在朝着比AGI更诱人、也更令人恐惧的目标迈进。但对普罗大众而言,生活一切如常。正如奥特曼最近所说:“人类即将创造出数字超级智能,但到目前为止,一切远没有想象中那么诡异。”(辰辰)