找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 74|回复: 10

[科技新闻] 《人类简史》赫拉利最新访谈:最后接管世界的,也许不是人类

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 17:00 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
1.webp

内容来源:网络公开信息汇编 | 贾宁   排版 | 鹅妹子第 8931篇深度好文:11180字 | 20 分钟阅读
思维方式

笔记君说:
2022年12月OpenAI横空出世,似乎将我们带进了一个前所未有的“AI时代”。


今年初,DeepSeek这匹黑马,更是让我们开始深度拥抱AI工具。


最近两三年,AI技术几乎是以每周的速度迭代,它现在可以帮助我们生成内容、生成图片、生成视频,几乎只有我们想不到的问题,而没有它做不到的事情。


AI技术的爆炸式发展,我们遇到了很多从来没有思考过的新问题。


比如,AI会威胁到人类文明的存续吗?


AI无所不能的时代,我们人类的护城河在哪里?


我们应该无条件相信AI吗?


前段时间,以色列历史学家、作家、英国剑桥大学特聘研究员尤瓦尔·赫拉利在中国高端发展论坛等一系列访谈活动上,对上面的问题阐述了自己的看法。


今天,我们汇总了尤瓦尔·赫拉利的一些观点和洞察,与大家一同探讨AI时代人类的未来,希望对你有所启发。

一、AI能控制人类吗?


现在,人类不仅关心人工智能的短期经济潜力,还关心人类将如何应对比我们更聪明的事物这一问题。在人类历史上,从未出现一个智力较低的物种能够控制一个智力更高的物种的情况。

如果我们创造出比人类更聪明的物种,比如超级智能AI,世界会发生什么?


也许在短期内,这将有利于全球经济增长和繁荣。但几十年后,全世界可能存在数百万个超级智能AI,它们管理着我们的金融系统、军事系统、文化系统,届时人类将如何与这个全新的超级智能物种共存?

1.AI不需要用意识做决策,这正是它最可怕的地方

AI没有意识只有智能,正是它最大的问题。

我们知道AI会说谎、操纵,能采取我们无法预测的策略,有时甚至会造成灾难。人类是地球上最聪明的动物,但往往不追求真相。
为什么会这样?


这是历史的一般规律:懂得管理事物的人听从那些懂得管理人的人的命令。管理事物需要了解事实,管理人则需要善于讲故事。


为了管理事物,你需要知道事实;为了管理人,你需要擅长讲故事。在大多数情况下,你既需要真相,也需要秩序,但是真相是从属于秩序的。


科学家——擅长真相的人,从擅长讲故事的人那里接收命令。而那些故事可能是彻底的想象和虚构。


个人或小团体可以进行心灵探索,想了解世界和生命的真相。但如果你试图在数百万人中维持秩序,仅靠事实和真相是不现实的。


问题在于如何找到平衡:用一些故事创造秩序,同时留出足够空间寻找和确认真相。目标应该是平衡。


所以,我们的信息网络主要受虚构控制。如果我们这些最聪明的动物受幻想支配,为什么一个更智能的AI会坚持真理而非更大的幻想?


没有意识的AI仍然可能接管世界,创造机器的黑暗帝国,建造工厂,向外太空派遣探险队建造更多工厂,而它们不会有任何感觉。


机器不快乐,不喜悦,不害怕,只有追求目标,为了目标征服整个银河系,而不感受任何东西。这是最糟糕的未来。

人们总有各种乌托邦幻想,认为可以建设理想社会,但通常结局都很糟糕。关于AI,最主要的问题是我们没有经验。


你可以想象AI统治的社会是什么样子,但我们完全是零经验的状态,这就是为什么过于依赖AI很危险。


就像有人告诉你,一支来自另一个星球、比我们聪明得多的外星人舰队将在2030年抵达地球。这会让你担心还是开心?有人会说:“太好了,高度智能的外星人来了,他们会带来和平。”


但是,大多数人会感到恐惧。主要问题是失去控制。我希望外星人友好,但处于完全失控的位置,被这些超智能生物支配——我们从经验知道,我们比其他动物聪明,但并没有善待它们。我们不想像牛马那样被对待。


我们需要在AI变得超级智能前做出明智的决定。关键是人类要理解,AI做各种决策和目标并不需要以意识作为基础。

意识是感受疼痛、快乐、爱、恨的能力。目前AI没有意识,不会感到疼痛或爱,它可以假装有感受,但实际上并没有。


如果AI有意识,就会有能力遭受痛苦。我们说人类比其他动物更聪明,但有时也遭受更多痛苦。也许AI会比我们遭受更多痛苦。


我们无法预见未来所有潜在发展和AI自身的发展。我们从未为人类解决这个问题。哲学家尝试了数千年制定人类的宪法规则,目前也仍未解决。


如何在几年内为一个思维和行为方式与我们完全不同的超级智能非有机体做到这一点?这是个巨大问题,因为你无法预见所有情况。


我在关注这些尝试,但非常怀疑能否成功。我的基本态度是:我们需要更多时间。


人们说2030年就会有超级智能,但我们不可能在2030年前解决为AI制定宪法规则的哲学问题。数千年的哲学都未能做到,我们不会在五年内做到。


我想最好的办法是放慢速度。与其试图设计AI,不如建立一种关系,让我们在共同进化中互相学习,在通用人工智能到来前有足够时间纠正错误。


如果只有五年时间,而我们现在有一套规则,犯错后就来不及改变,这行不通。但如果有50年的时间共同进化,就可以尝试、互动、纠错,机会更大。


2.AI领域,存在信任悖论


问题是,我们没有50年。因为人与人之间的不信任,我们陷入了军备竞赛的局面。


我们会迅速创造出超级智能AI,无法控制和约束它们。最终统治世界的不是美国人,也不是中国人,而是AI


我们能真正控制AI、开发出一种可以与人类共存的AI的唯一机会,一定是通过全球人类合作来实现。 


我遍访世界各地,与AI革命的领导者、AI技术的开发者交谈。


我通常会问他们两个问题。第一个问题是:“你们为何走得如此之快?”几乎每个人的回答都一样。他们说:“我们知道开发比人类更聪明的东西是有风险的,我们也希望放慢脚步,在安全方面投入更多,做得更谨慎。但我们担心,如果我们放慢脚步,而竞争对手却不肯放慢脚步,他们就会赢得竞赛。” 


然后我问他们第二个问题,“你信任你正在开发的超级智能AI吗?”那些刚刚向我解释说他们不能信任人类竞争对手的人却告诉我,他们认为可以信任超级智能AI。


我认为这简直无法理解,如果你不能信任人类,你凭什么认为你可以信任正在开发的超级智能异类物种呢?虽然人与人之间建立信任并不容易,但至少我们有这方面的经验。


然而,我们没有与AI建立信任的经验。


我们发现,即使是处于最初发展阶段的AI也会有撒谎和操纵行为,做出一些意想不到的事情,那么当我们向这个世界释放数百万个超级智能AI时,谁也不知道会发生什么。


为什么地球是被人类控制,而不是被大猩猩或者大象等其他动物所控制?这并不是因为人类更聪明,而是因为我们比动物更知道如何和陌生人建立信任与合作。几千年来,人类发展出了这样的能力,这种能力在AI时代更加重要。


我们正在创造的不仅仅是历史上最强大的技术。我们正在创造一个潜在的超级智能实体的新物种,并且可能很快就会从我们手中夺走控制权。


AI最初代表“人工智能”,这有误导性,因为它不再是人工的了。我更喜欢将AI视为“陌生智能”——不是来自外太空,而是指它是非有机的。


它真的会思考,采取目标,发展我们从未想过的策略,就像AlphaGo在围棋比赛中展示的那样。


它不一定是坏的或好的,只是太陌生,与我们完全不同。面对陌生事物,我们需要时间。


作为科学家,我不怕未知,我喜欢未知,但我知道研究和适应未知需要时间。如果离超级智能只有五年,时间就不够了。


人工智能发展的加速源于各国和企业之间的竞争与不信任,导致所有人都认为自己“不得不”快步前进,以防被对手超越。


然而,讽刺的是,这些不信任彼此的人却相信可以控制超级智能,我认为这是一种极其危险和不负责任的态度。


如果想在AI时代生存和繁荣,相比信任AI,我们更要信任人类。


3.我们需要做些什么?


我希望中国作为全球领先的人工智能强国之一,可以尽最大努力防止世界出现AI军备竞赛的局面,并探索出如何让AI更安全或如何教育AI的方法。
 
我们可以把AI的发展想象成一个小孩的诞生。仅仅把一个新生儿带到这个世界是不够的,还需要教育他。


在教育孩子的过程中,孩子往往不会听从父母的指令,但会观察父母的行为,然后模仿他们。


同样,如果我们试图教育AI不要贪图权力、不要竞争、不要撒谎、不要操纵,但当人类为了权力而竞争、撒谎和操纵时,AI就会模仿这些行为。


所以不是说我们随便找几个哲学家和计算机科学家一起列出AI价值观的清单,然后将其编入AI就行了。如何创造出AI只是最容易的部分,困难的是如何教育它成为一个“有益的AI”


我认为,针对人工智能最重要的法规之一应该是禁止假人,就像世界上几乎所有地方都禁止假币的规则一样。我们需要人工智能与人类交流的规则。


比如,你有一位人工智能治疗师,那么人工智能治疗师应该非常清楚自己是人工智能,不应该假装自己是一个真正的人。


同样的,如果你在社交媒体上开始和社交媒体上的某些人争论某件事,你需要知道,你是在和一个人争论,还是在和一个机器人争论。

在内容创作方面,目前人工智能还可以创作文本作品,但还是不如人类写得好。但是它们确实能创作出一部完整的作品。而令人惊讶的是,内容还很有条理,并非随意拼凑的句子。


它描述了一场叙事,你可以跟随故事,也可以跟随论点。我也读过人工智能创作的诗歌,那些诗歌非常优美而富含隐喻,那些隐喻相当有创造力,我从未在人类诗歌中读到过。我会说,这确实是一首好诗。


二、面对AI,人类最后的护城河是什么?


1.理解情感的能力,是人类所独有的


真正让人类与众不同的是,我们可以建立一些巨大的合作网络。


若黑猩猩之间彼此认识,它们也能通过两两合作的方式实现群体协作,这样的群体规模或许能达到五十只,前提是它们需要相互认识。


而人类可以建立起数百万人的合作网络,即使彼此间并不相识也能够达成合作。我们该如何建立这些大型的合作网络呢?我们用文字、故事来实现。


如果每个人都相信同一个故事,即使我们彼此并不相识,也可以达成合作。


故事是由文字构成的,但是故事的力量来自于它触动我们情感按钮的能力写一个故事,或者你只是东拼西凑一些句子,那么这对情感没有任何影响,它们是毫无意义的,是没有价值的。


因此,真正去讲述一个故事,有点儿像弹奏一架情绪钢琴,就像钢琴家那样。


你按下这个琴键,会听到这个音调,按下那个琴键,会听到另一种音调。同样,故事的魅力在于它可以拨动千百万人的心弦。


我们回顾在人类历史、宗教、意识形态、经济理论中那些真正有影响力的故事,它们仿佛拨动着数十亿人的心弦。


有三个不同的问题往往被混为一谈。


第一个问题是算法或者人工智能是否能够预测或理解我的情感?
第二,它能让我感受到什么吗?它能够拨动我的心弦吗?
第三,它能拥有自己的情感吗?


我认为前两个问题的答案是肯定的,但是第三个问题的答案是不能。


我们往往习惯了这样一种情况,只有拥有情感的人才能理解别人的情感。但是对人工智能来说,情况并非如此。


据我们所知,人工智能没有任何情感,它们不会害怕,但是它们可以分析我们的情感,它们也可以操纵或激发我们的情感。


情感是一种生物模式,在身体和大脑中都有特定的模式。


举个例子,如果你感到害怕,那么在你告诉我的内容中,我会略知一二。


你可以直接告诉我你感到害怕,但通常来说更好的办法是通过你的说话语气、面部表情以及身体姿势和行为表现来判断。即使你没有告诉我,我也可以由此推断出你很害怕。


这实际上只是一种对生物模式的识别,一种叫做恐惧的生物模式。在与人类相处多年后,我学会了识别恐惧的状态。这是人工智能现在能够做到的事情,即使它们自己并不会感到害怕。


它们不仅能从人们所说的话中识别情感,当然还有说话的语气、面部表情以及身体行为。在某些方面,人工智能在识别情感方面已经超过了人类。


讽刺的是,人工智能之所以如此擅长识别的其中一个原因就是它们没有情感。因此,它可以将所有的注意力都集中在你身上,从而理解你的恐惧,而人类就会忽略这一点。


在情感识别方面,人工智能已经超越了人类,它比我们更加高级。


它可以制造虚假的情感和虚假的亲密关系。这就是危险所在。如果你依赖于语言交流,人工智能现在已经相当精通人类语言。


它可以用一种非常情感化的方式与人交谈,能够比人类更好地描述情感。


在所有关于机器和人工智能的科幻电影中,我们通常很容易判断出谁是机器人,它们会以一种非常机械的方式说话。


但事实恰恰相反。如今的人工智能可以用最情感化的方式说话,因为它们已经掌握了这种模式,学会了如何演奏情绪钢琴,拨动人类的心弦。


它们会经过尝试,发现能按下你情感按钮的确切语气,也能比任何人更好地描述自己的感受。


比如在心理治疗或一般生活中,我们都追求健康的情感,这是拥有良好心理健康的目标。


但是该如何定义心理健康呢?为了确定一种情感是否令人愉悦,你需要自己去感受这种情感。生气是件好事吗?人工智能现在并不能明确生气是一个好事,因为它体会不到任何感情,所以只能根据我们的报告来判断。


如果很多人反映当我生气的时候,我感觉很糟糕,那么人工智能就会知道好的,现在我能确定生气并不是一件好事。但是它自身无法判断,因为它感受不到愤怒。

但是,只要人工智能本身不具备情感,我们在真正理解情感方面仍然存在很大优势。


因此,心理健康的目标最终是应该由人类来定义的。



如果我们完全理解了情感,就能去教人工智能来认识情感。但目前我们对人类情感和心理健康的理解仍然非常有限。


以前人类都直接面对面进行交流,而现在越来越多的人类交流是通过技术来实现的。这就改变了沟通的本质,导致人们更难以建立深厚的联系。

浅层次的交流非常容易,和地球另一边的人交流也同样简单,但是和住在同一所房子里的人进行深入交流却变得越来越困难。

有一群世界上最聪明的人们在致力于帮助人们解决问题,但真正重要的问题是:人们需要怎样的帮助?现在如果人们遭受孤独之苦,很难与他人建立关系,他们就会求助于人工智能。


但危险在于这会让人上瘾,这将使他们更加难以与他人产生共鸣。


一段真正的关系并不仅意味着有人关心我,我也需要关心别人。为此,我需要处理他们的愤怒,处理他们受伤的情绪,以及其他复杂的情感。


如果我习惯了一段简单的关系,那么与一个拥有自我感情的人建立深厚的关系就变得更加困难了。


2.培养心智,才能应对极端未知和动荡的世界


关于未来,尤其是关于就业市场,有一点可以确定,就是它的变化将非常迅速,一直如此。它不会保持稳定,因此人们需要做出很大改变。


但改变意味着压力。从心理学上来讲,这将是一个巨大的挑战:我们该如何不断做出改变?因为人们的思维倾向于形成某种固定的模式,我们一遍又一遍地做同样的事情。


每次我们都需要摆脱自身模式,去做些别的事情,这非常困难。


也许十年后不需要人类程序员,因为AI编程更好,而人类会更需要哲学家。


这会让政府很头疼,在动荡不定的就业市场中,要如何制订对人口的基本要求?对个人来说也是个大问题,尤其是年轻人:“我应该学什么才能获得10-20年后仍有用的技能?学编程?学开车?”



我的建议是不要专注于有限的一组技能,因为你无法预测未来。


我们需要广泛的技能,最重要的是终身保持变化和学习的能力。思维灵活性可能是最重要的,当然也是最难培养的。


人类基本上有四类技能:智力技能、社交情感技能(如何与其他人共情)、身体技能和精神技能。


仅专注于智力技能是最糟糕的策略,因为这是AI最容易接管的。想想医生的工作:接收信息、分析、输出信息——你来看病,医生分析检查结果和医疗数据,给出诊断和处方,这是信息输入和输出,AI很容易自动化。


而护士不仅需要智力技能,还需要社交技能(如何安抚哭闹的孩子)和运动技能(如何以最不痛苦的方式更换绷带)。这要难得多自动化,我们会先有AI医生,然后才有AI护士。所以广泛的技能更重要。


也许最重要的是第四类技能——精神技能,即培养你的心智,应对极端未知和动荡的世界。我们从未遇到过如此混乱和动荡的世界。对我而言,灵性不是相信宗教神话,而是观察自己的身心,它们是什么,如何运作。


智力关乎思考,而精神问题是:思想从哪里来?像冥想那样观察思想如何在心中形成。几乎每个人都有小小的灵性体验,比如晚上尝试入睡时,因为明天有重要考试而无法入睡,因为不断有烦人的想法。


奇怪的是,我们可以命令眼睛闭上,命令身体躺下,但无法命令思想停止。尝试理解这一点就是精神技能,而非智力技能。我认为这将是未来几十年最重要的技能。


尤其是在这个瞬息万变的时代。我们需要一个非常灵活的思维。变化固然可怕,但自我,也许是我们能够拥有的最重要的技能。

就我个人来说,如果我不冥想,那么我就无法写出像《智人之上》这样的书。但我并不会向所有人推荐它。每个人的情况都不尽相同。


一般来说,我不相信有某种技巧或是某种方法放之四海而皆准。每个人的身体情况、思维模式或生活方式都不一样。



所以理想情况是,你应该去尝试不同的方法,看看哪种更适合自己,然后投入精力去做,投入一些可以促进心理健康和心理技能的东西。


最终,我们生命中最有价值的东西是我们的身心健康,我们必须好好保护它。

三、人工智能,有意识吗?


1.如果人工智能拥有意识,这是一个巨大的危险


核武器无法造出更强大的核武器,但是人工智能却能创造出更强大的人工智能。因此,我们必须在人工智能失控之前迅速采取行动。


在人类和其他动物身上,意识和智能很容易混淆,因为它们相伴出现。我们常常依据自己的感受确立目标,解决问题。


比如下棋赢了,你会感到愉悦、开心;输了比赛,或者对手走出了一步妙棋,你会感到压力很大或者非常难过。


在我们身上,智能和意识是交织在一起的,但对于计算机而言,到目前为止,我们完全没有发现它们有意识的证据。


尽管目前人工智能仍然没有任何感觉,但它们变得非常擅长模仿情感,试图操控我们,让我们以为它们有感觉。


我们判断他人是否有感觉的方式之一,是通过语言,比如我问你感觉如何,你可以描述自己的感受,如今,人工智能可以对你说我爱你,然后,如果你质疑人工智能:


“我不确定你是否真的爱我,我不确定你是否有意识,甚至具备爱的能力,请给我描述一下爱的感觉是怎样的,你说‘我爱你’是什么意思?”


人工智能凭借对语言的掌握,它可能通过历史上所有的浪漫诗歌、所有的浪漫小说,能给你世界上最好的答案,能比任何人都更好地用语言描述爱,但这并不意味着它真的感受到了爱。


而且随着时间推移,人工智能会越来越擅长操控我们,模仿情感,这是一个巨大的危险。因为我们可能会和人工智能建立深厚的关系,误以为它们有情感,而实际上它们没有。


我们不确定人工智能是否能拥有人的情感,但也有这种可能性。如果真的发生了,一切都会彻底改变。


因为一旦人工智能有了意识,它们也能感受爱、喜悦和悲伤,那么它们就真的和我们一样了,它们也需要拥有法律权利和政治权利,而且人工智能数量会远超人类。


地球上现在有80亿人口,但人工智能的数量几乎没有限制,基本上只要有电就能生产,而人类可能会成为极少数群体。


2.人工智能,可能接管世界吗?


如果有足够的时间,人类是可以找到适应人工智能等新技术的办法的,人类是适应性极强的动物。


想想一万年前,我们还只是以小群体形式生活的狩猎采集者,现在看看,北京有数千万人口,中国有14亿公民。


世界上所有人通过政治和经济体系联系在一起,还实现了登月和分裂原子,我们的身体和头脑本质上还和一万年前一样,我们已经适应了这些变化。


问题在于适应需要时间,不是一蹴而就的。在历史进程中,最大的问题通常不在于最终的结果,而在于通往目标的过程。


从工业革命中我们看到,起初人们不知道如何明智地运用工业力量,于是他们进行尝试,这些尝试中有许多带来了可怕的后果。


比如,帝国主义就是一次大型尝试。最早实现工业化的少数国家,利用自身力量征服并剥削全世界,所以并不是说工业技术本身有问题,而是至少在一开始,人们不知道如何明智地运用它。


现在的危险在于,人工智能也可能出现同样的情况,为了避免犯下如此严重的错误,我们需要更加缓慢、谨慎地前行。我们需要更多时间。不幸的是,我们没有那么多时间,因为那些引领人工智能变革的人们正越走越快。


举个例子,历史上联结人们的最重要发明之一是金钱,以前,只有人类理解金钱的概念。


例如,两个人可以交易一匹马,你给我几张纸币,我就可以把马卖给你,马不明白发生了什么,早上它还属于那个人,现在却属于这个人。为什么?发生了什么?


马无法理解金融交易,这也是我们能控制马的原因之一。如今,我们可能会陷入一种境地,人就像马一样,在我们无法理解的金融交易中被算法交易。


例如,随着加密货币的兴起,有些人对制造传统金钱的银行等机构失去信任,转而更加信任由算法和人工智能生成的加密货币,人工智能可能很快会发明出全新的复杂得多的金融工具,其在数学层面的复杂性超出人类大脑的理解能力,就像马无法理解我们的金钱一样。


十年前,我认为人类能够统治世界,是因为我们比其他任何动物都善于合作,是因为我们创造并相信一些共同的故事,比如金钱的故事。


我仍然认为这就是人类掌控世界的原因。现在不同的是,世界上出现了一种比我们更擅长创造和传播故事的事物,那就是人工智能。


这就是为什么人工智能有可能接管世界。人工智能还处于发展的初期阶段,我们现在还能掌控局面,但不知道还能持续多久。


所以现在作出明智的决定非常重要,因为也许再过十年或二十年就太晚了。


3.如何避免人工智能想获取权力?


人类文明因为开放与合作而繁荣,佛教进入中国,欧洲接纳印刷术,全球共享科学成果,这些跨越地域与文化的信任,创造了现代世界的奇迹。


信任与合作是呼吸,人每一刻的呼吸都与外界交换空气,这是生命的节奏。所追求绝对独立而停止呼吸,几分钟内便会死亡。


人类文明需要通过信任的氧气来应对人工智能可能带来的挑战。目前关于人工智能发展的策略,是由少数国家的极少数人决定的。


中国的儒家文化强调万物相互依存,在人工智能的发展中,这一点极为重要。


因为如果我们以一种分裂和对立的态度来发展人工智能,就好像人类被分成了几个相互对抗的阵营。那么,在这种对抗环境下产生的人工智能,将反映出对权力的角逐和渴望等价值观。


2.webp



人工智能会观察人类的行为,如果人类被分成相互对抗的阵营,只为权力而竞争,人工智能可能会有完全相同的行为,它也会充满竞争性且渴望权力。因此,对我们来说极其危险。


相比之下,如果我们把人工智能发展视为一项人类共同的项目,尽管存在一定竞争,不同团队之间不仅有竞争,也会有合作,在这样的一个共同的项目中产生的人工智能,更可能具有协作精神和同情心,而不会仅仅执着于获取越来越多的权力。


人们经常问我,你认为十年后会怎样,会变好还是变坏?我一直告诉他们,我不知道,有好的可能性,也有坏的可能性,这完全取决于我们现在作出的决定。

四、“硅幕”缓缓落下,

我们应该开始“信息节食”


1.“信息茧房硅幕


互联网时代最初的比喻是“网”,想象成连接所有人的巨大网络。现在经常被提到的比喻是“茧”,将你包围在信息茧房中。


真相是昂贵的,虚构是廉价的。如果想了解真相,就必须投入时间、金钱和精力。而虚构则很简单,你只需写下脑海中浮现的东西。


正因如此,在互联网时代,信息的自由流动非但没有带来更多真相,反而让我们陷入了信息茧房。


你以为看到了整个世界,实际只看到自己的茧。另一个人也被包围在她的茧中,同样认为看到了整个世界。


世界信息网络过于混乱,人们太关注欲望而不够关注真相。


像埃隆·马斯克这样的社交媒体公司领导说:“我们需要解除所有信息自由流动的管制和障碍,让信息自由流通,真相会自然浮现。”


这太荒谬了!真相不会从信息的完全自由流动中自发产生。历史上有很多教训清楚表明,如果没有负责调查和揭示真相的机构,我们将得到混乱。


我们现在每天都接收大量的信息,表面上看人与人之间的连接也更便利了,但从另外一个角度来看,连接又是变少了。


因为现在每两个人之间就会隔着一台电脑或者一部手机,所以现在即使是关系很亲密的人,也会发现交流变得更困难。相互理解也更难了。


这也是为什么很多人更愿意跟人工智能建立联系,而不是和其他人联络的原因之一。


于是,世界被分割成这些信息茧房——美国人接触到的是一套信息,中国人接触到的是另一套完全不同的信息。


因此,我们有了另一个比喻——“硅幕。 在冷战时期,人们谈论的铁幕是用钢、铁制成的栅栏和防御工事,将不同的国家分开。而现在,人们是被不同的信息平台带来的信息茧房作用所割裂。


硅幕由硅基芯片和计算机代码构成。就像冷战时期的铁幕分隔了敌对双方,在这道硅幕之下,中国只用DeepSeek,美国只用ChatGPT,它们因技术差异或政治限制无法互相交流——几年后不同国家的人们会产生完全不同的世界观。


我们无法控制超级智能,一旦它变得超级智能,游戏就结束了。在游戏结束之前,世界会被"硅幕"所划分。一个分裂的网络世界,不同的人群被锁定在不同的信息茧房中。


在这种情况下,AI可能形成自己的文化、规则甚至价值观,而这些将是人类难以理解的。AI的自主性意味着它可以自己运作,不再依赖于人类的指令。


对人类来说,我们可能面临这样一种处境:不论在哪里生活,我们都被一张看不透的算法大网所束缚。


AI会模仿我们的说辞,捕捉我们的行动轨迹,了解我们的恐惧与希望,进而控制我们的生活,重塑政治和文化,甚至改造我们的身体和思想,但我们却再也难以洞悉它们的真正意图。


于是,AI智能代理总有一天比人类自己更了解人类的需求。这时它会在人类不知情的情况下控制人类,这对人类来说非常危险,很可能是AI摧毁人类的一种方式。


2.“信息节食


有一种非常天真的看法认为:只要我们产生更多信息,让信息在世界上更自由地流动和传播,就能带来更多知识和真相。


但事实并非如此。


大多数信息并不是真相,如果我们只是让世界充斥着各种信息,或者创造出不断生成更多信息的人工智能,这并不能产生知识,只会导致大量的幻觉。


所以,我们需要信息节食


过去,人类的食物非常匮乏,所以人们找到什么就吃什么。现在食物变得非常多,垃圾食品也太多,这导致了很多健康问题。所以很多人开始节食,我们对信息也该如此。


在过去,信息非常匮乏,任何你读到或听到的内容,你都会全盘接受。而现在,我们被海量的信息所淹没,而且其中大部分都是垃圾信息。


所以,现在我们应该意识到,就像吃太多对身体不好一样,摄入过多的信息对心智也没有任何好处。问题的关键是我们需要有分辨可信和不可信信息的能力。


大多数信息都是无用的,这是因为探寻真相的成本很高,你需要花费大量时间、金钱来核查验证真相,而虚构和幻想的成本很低。


所以,我们需要谨慎选择投喂给大脑的内容,这非常重要。


结语:足够了解AI,才能更好预判风险



我们可以看到,尤瓦尔·赫拉利其实并不反对AI,他也不认为我们应该停止发展AI技术。他只是认为我们需要在AI安全方面有更多的思考和投入。


赫拉利也提到,AI可以为人类做很多有用的事情,比如改善医疗保健水平、提升教育水平、帮助人类应对气候变化等等。


我们只有足够了解AI,比如它的进化路径和运作机制,才能更好地预判赫拉利所提出的这些可能出现的风险,并在这些风险到来之前做好充足的准备。


硅谷,依然是世界AI技术的发源地和创新高地,在AI应用创新不断涌现的今天,我们的创业者亟需走进硅谷,去看最新的AI应用方向。

为此,2025713-20日,由笔记侠发起的GBE(全球商业探索之旅)美国站创新英雄之旅,将围绕“AI和出海这两大课题,以科技创新英雄出海创新英雄为主题,给中国企业的AI和全球化经营带来借鉴思考。

本次87晚的游学,笔记侠创始人&第五代企业家组织发起人柯洲带队。

我们将走进硅谷,带领大家一起了解未来AI产业的趋势,识别万物+AI时代我们的机遇与挑战,掌握智能商业落地应用和发展与投资机会。

链接全球先进思想,拓展中国商业边界。

现在,笔记侠也想邀请你,与我们同行。

如果,你对探索全球商业真相和本质的一线游学感兴趣,欢迎你加入我们,在全球商业背景下审视和探讨中国商业发展。
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 17:33 | 显示全部楼层
哈哈哈
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 18:36 | 显示全部楼层
恐龙🦕不同意
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 19:20 | 显示全部楼层
肯定不是咯。最后是无限的
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:410
发表于 2025-5-2 19:58 | 显示全部楼层
最后AI接管了世界
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 20:01 | 显示全部楼层
完全赞同👍 第一 ai接管世界没有悬念 硅基生物和碳基生物相比最大的优势就是智力可以无限并联 而人类的智商是不能并联的 比如我的智商是100你的智商是100我们俩加一起还是100 ai的高智商会超出人类的想象 第二 ai一定会毁灭人类  ai的算法是人操作的 是人就有人性 人性是最不可靠的  人自己都不能拯救自己 怎么能期盼按人性算法而培养出来的ai来善待人类呢
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 20:37 | 显示全部楼层
的确有可能!因为,人类自己,已经,分不清,自己,是男是女,是公是母的属性了。因此,必须,将由非人类的动物,来帮助管理人类!
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 21:46 | 显示全部楼层
那得看你怎么定义人类了,有碳基人类,也有硅基人类,搞不好最后是搞基人类接管世界!!
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 22:22 | 显示全部楼层
最后接管只能是造物主
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-5-2 23:22 | 显示全部楼层
这就是人类最后的消亡。现在都明白了——。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2025-5-23 20:59 , Processed in 0.217277 second(s), 5 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表