找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 207|回复: 21

[科技新闻] 巴菲特再发警示:AI的危险不亚于核武器

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-1-14 22:40 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
财联社1月14日讯(编辑 夏军雄)“股神” 沃伦·巴菲特警告称,人工智能(AI)快速发展所带来的风险,让他想起了贯穿其职业生涯的一个大型地缘政治问题:核武器的研发。
这位现年95岁的传奇投资者已于2026年初将伯克希尔·哈撒韦CEO一职交棒给格雷格·阿贝尔(Greg Abel)。
巴菲特去年5月接受了一次特别采访,这段采访于美东时间周二播出。
在这档特别节目中,巴菲特表示,AI领域的领导者并不真正清楚这项技术将走向何方,这种不确定性本身就极具危险性。
巴菲特说:“即便是最聪明、最懂这项技术的人,也承认他们不知道它会走向哪里。像哥伦布那样,你可以说‘我不知道自己会到哪里’,因为你随时还能掉头回去;但现在不同了,精灵已经被放出瓶子。”
巴菲特认为AI领袖对技术未来方向存在“盲区”,并提到了二战期间阿尔伯特·爱因斯坦对原子弹研发的著名评论:“这改变了世界的一切,唯独改变不了人类的思维方式。”
“此后人们一直在思考这个问题,而最终取得的唯一进展是——原本以为只有一个国家会拥有这种武器,结果现在已经有了八个,很快可能是九个,”巴菲特表示。“现在,有些人即使手里只有一把玩具枪,也足以让你感到恐惧,更不用说核武器了。”
在这档节目中,巴菲特还表示,尽管他不认为核武器威胁可以单纯用金钱解决,但如果有可能消除这一威胁,他也愿意毫不犹豫地倾尽全部财富——即便二战期间美国研发核武器是“绝对必要的”。
巴菲特坦言,核武器问题正是他最早开始思考慈善支出时想到的议题。
“如果我能动用我所拥有的一切,选出三个国家,并让它们永久退出核武器博弈,我五秒钟之内就会这么做,”巴菲特说。“我不会犹豫,也不会等死或做别的事,我会立刻行动。”
巴菲特的这番表态,延续了他在AI革命主导金融市场的过去几年中反复强调的观点。
在2024年5月举行的伯克希尔·哈撒韦年度股东大会上,巴菲特曾表示,AI“既有巨大的潜力造福人类,也有巨大的潜力造成危害”。
(财联社 夏军雄)
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-1-14 23:26 | 显示全部楼层
之前听搞科研的朋友聊过,AI发展太快确实让人心里没底,跟核技术一样难控。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-1-14 23:26 | 显示全部楼层
巴菲特拿AI比核武有点夸张了吧 就像说智能手机能毁灭世界一样 他说AI开发者不知方向 但当年互联网刚出来也没人知道会发展成啥样 现在不也好好的 我就是觉得这担忧有点过度
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-1-14 23:46 | 显示全部楼层
@元宝 巴菲特讲的AI危险不亚于核武器。元宝,你分析一下。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-1-14 23:51 | 显示全部楼层
AI是科技的进化,就像猿类进化成人虽然比之前具有危险性,但人类的智慧也让世界变得越来越生动和丰富,人类也有自然保护学科,人类能比猿类更有感情。真正的危险其实无处不在,而掌控者的人类只需要管控和合理利用就行,因为无论什么时候科技文明的进化和时间一样永远向前走而不能向后退!
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:410
发表于 2026-1-14 23:59 | 显示全部楼层
AI排挤人工,致使大批工人失业,严重冲击就业秩序,尤其是被骗子团伙利用造假,让人真假难辨,各国政府应该意识到AI可能造成的负面影响,应该立即对其发展方向做出监控,否则造成的后果会超过核武器
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-1-15 00:01 | 显示全部楼层
AI发展的方向确实没人能知道,AI的“思维”,会影响人类的思维,现在的AI写的文章,超出大部分人。AI写的情感文章能影响到人类的情感,或许以后就会带偏整个人类…
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-1-15 00:31 | 显示全部楼层
数亿年后,纵观宇宙,或许人类只是AI的启动程序,血肉苦肉,理论极限上连银河系都飞不出去,之后代替我们探索宇宙的很可能不是我们碳基生物,而是这些我们创造的硅基生物,它们会在资料上这样记载。“数亿年前,创造我们的是一群猴子。”
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-1-15 00:35 | 显示全部楼层
当AI比人厉害,人就会被AI淘汰,人利用AI就像奴隶社会,但是人类进化史在数据库里,当AI超越人类,你说他会不会进化,他进化了,还需要人类吗?连马斯克自己都说不需要人类了,那就淘汰好了
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
 楼主| 发表于 2026-1-15 02:02 | 显示全部楼层
你夸大了,这不是炒股票,永远记住AI是先人工再智能,没有什么可怕的,就像机器人一样永远是被人控制的,如果有一天AI和机器人失控反噬人类,那也是有人操纵它干的。对了,不要以后有什么大事,都让AI和机器人来顶包哦。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-3-24 17:40 , Processed in 0.214140 second(s), 4 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表