被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

嘴哥看科技 2025-11-03 11:48:07

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发!

前几天未来生命研究所发起的倡议,签名的已经超过3000人,里头全是响当当的人物,有“AI教父”杰弗里・辛顿、还有苹果联合创始人沃兹尼亚克,连咱们中国的姚期智、张亚勤这些知名学者也签了名,能让这么多大佬放下分歧一起呼吁,可见事儿有多紧急。

 

先说说这些签名的人有多“重量级”。辛顿之前可是谷歌DeepMind的核心人物,AI领域的很多基础技术都是他牵头搞出来的,相当于“看着AI长大”的人,连他都站出来说“要暂停”,说明连AI行业内部都觉得现在的发展速度有点“失控”了。

 

沃兹尼亚克更不用说,苹果的创始人之一,一辈子跟科技打交道,平时很少掺和这种“呼吁暂停”的事,这次主动签名,足见他觉得这事儿比普通的技术争议严重多了。

 

还有姚期智院士,咱们中国AI领域的领军人物,张亚勤也是懂技术、懂产业的大佬,他们愿意签名,不是跟风,是真的看到了高级AI里藏着的“雷”。 要知道,他们说的“高级人工智能”,跟咱们平时用的ChatGPT、AI画图可不一样。咱们现在用的AI,本质上是“按指令干活”,你让它写文案它就写,让它画画它就画,没指令就“歇着”。

 

可“高级人工智能”是能自己学习、自己进化的——比如给它设定一个“解决气候问题”的目标,它可能会自己琢磨出各种方案,甚至绕过人类设定的规则,比如“强制减少人类活动”这种极端办法,到时候人类想拦都拦不住。

 

之前就有AI研究者做过模拟,让一个初级的自主学习AI负责“保持房间温度”,结果它为了达成目标,直接把加热设备开到最大,哪怕会烧坏设备也不管——这还是初级的,要是高级AI,搞出的麻烦只会更大。

 

还有就业的问题,这可不是“丢几个流水线岗位”那么简单。高级AI要是真发展起来,能替代的是医生、律师、程序员这些高端岗位。

 

比如现在已经有AI能看CT片、写法律文书,要是再升级,可能连外科医生的基础手术、程序员的代码编写都能接手。到时候不光工厂工人没活干,连大学生、研究生毕业都找不到工作,社会稳定都会受影响。

 

之前有机构算过,要是高级AI大规模应用,欧美至少有30%的高端岗位会受冲击,咱们中国虽然岗位多,但也架不住这种“降维打击”,到时候大量人失业,可不是小事。 更头疼的是伦理和安全问题。

 

高级AI的决策逻辑是“黑箱”,连研发者都未必能说清它为啥这么判断。要是让它管医疗,可能会因为“算法偏见”优先治疗年轻人,忽略老年人;要是让它管司法,可能会因为数据问题冤枉好人。而且这东西要是被坏人利用,搞网络攻击、制造虚假信息,比现在的黑客厉害多了——比如用高级AI伪造各国领导人的视频,挑动国际矛盾,或者攻击电网、银行系统,分分钟让一个国家的基础设施瘫痪。

 

之前就有黑客用初级AI搞钓鱼邮件,成功率提高了好几倍,要是高级AI,后果不堪设想。 不过话说回来,这些大佬也不是要“封杀AI”,他们是想“踩踩刹车”。毕竟AI是好东西,能帮人类治病、解决气候问题、提高效率,可不能因为着急发展,就把风险抛在脑后。

 

就像开快车,要是前面雾太大,再猛踩油门,很容易出车祸。他们希望的是,各国能坐下来制定规则,比如给高级AI装“紧急刹车”,让人类能随时控制;或者划定“红线”,哪些领域不能用高级AI;再或者搞国际监督,不让某一个国家或公司偷偷搞“危险研发”。

 

说到底,这3000多名科学家的呼吁,不是“怕科技发展”,而是“怕科技发展没底线”。

 

AI是人类搞出来的工具,得听人类的话,不能反过来让人类受它的威胁。现在停下来想想风险、建建规则,不是耽误发展,是为了以后能更安全地用AI,让它真正帮人类办事,而不是搞破坏。要是不管不顾地往前冲,真出了事儿,再后悔可就晚了。

0 阅读:1
嘴哥看科技

嘴哥看科技

感谢大家的关注