本文整理纽西兰公视 RNZ 访问 AI 教父辛顿(Geoffrey Hinton)的影片细节,谈论 AI 时代的巨大潜力与失控风险。
(前情提要:鸿海内部实验:AI 能取代80%工作,董事长刘扬伟曝未来工厂三位一体蓝图 )
(背景补充:Podcast精华:AI和机器人覆盖了加密货币热潮,下个时代微创业最夯 )
人工智慧(AI)的浪潮正以前所未有的速度席捲全球,从大型语言模型的惊人能力到对未来社会结构的深远影响,每一项进展都牵动着大众的目光。
本週,素有 AI 教父美誉的辛顿 Geoffrey Hinton 接受访问时,深度剖析了人工智能的飞速发展,探讨其巨大潜力与失控风险,警示人类未来面临的深刻挑战,以下动区为您做详细整理。
主持人: 欢迎收看《30分钟》节目,我是主持人盖伊。我们每期邀请一位嘉宾,进行 30 分钟不间断的访谈。杰弗里·辛顿(Geoffrey Hinton),他常被誉为「AI教父」。为了让各位了解他多么超前,他在 1978 年就获得了爱丁堡大学的人工智慧博士学位。
去年,这位英国电脑科学家因其在机器学习与人工神经网路领域的基础性发现与发明,赢得了被誉为「电脑科学界诺贝尔奖」的图灵奖。辛顿曾在 Google 领导 AI 研究长达十年。他于 2023 年离职,部分原因是为了能更自由地针对「创造出比人类更聪明之物」的风险发出警示。
那些曾经只存在于反乌托邦小说中的问题,如今已成为主流社会的隐忧:AI会抢走我的饭碗吗?它会发展出意识,甚至想要反噬其创造者吗?让我们开始计时。
主持人: 辛顿,欢迎来到《30分钟》。
辛顿: 谢谢。
主持人: 自您离开谷歌,部分原因就是为了唤起大众对 AI 潜在危险的关注,至今已过去两年了。从那时起,AI 发展到了什么程度?
辛顿: 它的发展速度超乎我的预期。例如,它现在的推理能力比两年前要强得多,而且似乎没有任何放缓的迹象。
主持人: 当您说推理能力更强时,指的是哪些方面?
辛顿: 好吧,你可以给人们出一些小的推理问题。过去,如果问题稍微複杂一点,AI 就会出错。而现在,虽然人类和 AI 都仍会犯错,但它们的表现已经与人类不相上下了。如果你愿意,我可以给你出个小小的推理题。
主持人: 好的,查理(暗指自己),你现在可要接招了。
辛顿: 莎莉有三个兄弟。她的每个兄弟都有两个姊妹。那么,莎莉有几个姊妹?
主持人: 噢,我还是把这个问题留给 Claude 或 Chat GPT 吧。您告诉我答案。
辛顿: 答案是一个。因为三个兄弟各自都有两个姊妹,但他们共享的是同样的两个姊妹,其中一个就是莎莉。AI能解决这个问题。而那些没有处于聚光灯下、有时间思考的人也能想出来。但如果你把一个正在接受採访的人放在镜头前,让他慌张,他就可能想不出来了。
主持人: 是啊。那么,它是否已经比我们更聪明了?
辛顿: 在很多方面,是的。嗯,在某些方面,是的。而且它所知道的肯定比任何一个人都要多得多。所以,GPT-4、Gemini 2.5 或 Claude 所拥有的知识量,是任何个人的几千倍。
主持人: 您对此有何看法?
辛顿: 我认为这既美好又令人恐惧。
主持人: 美好之处在哪里?我们先从这里谈起。
辛顿: AI 将会有许多极其有益的用途。且不说对于一个研究者而言,最终能够创造出真正具有智慧的系统是多么令人欣慰,它将在医疗保健和教育等领域为我们带来奇蹟。在医疗保健领域,你将能够拥有一位家庭医生,他见过数百万名患者,包括一些和你患有同样罕见疾病的病人,他了解你的基因组,了解你所有的检测结果,并且从未遗忘任何一点,能够给出非常好的诊断。
目前,AI系统在诊断疑难杂症方面已经略优于医生。如果将 AI 系统与医生结合起来,这种组合的表现会比单纯的医生好很多。而且这种趋势只会愈发明显。
主持人: 的确如此。比尔·盖兹近日表示,他相信在未来十年内,劳动力市场中的大多数工作将不再需要人类。他用了您举的医生的例子,还在名单上加上了教育工作者。我不知道您是否看到了这些评论,但我们谈论的是劳动力市场中广泛而深刻的替代,不是吗?
辛顿: 这确实是问题之一,是的,这是 AI 的风险之一。在一个理想的社会中,如果 AI 能让我们大幅提高生产力,那将是件好事。如果一个人藉助 AI 助理就能完成过去需要十个人做的工作,那将非常棒。但不确定这种生产力提升所创造的额外商品和服务能否得到公平分配。
更有可能的情况是,大多数人会失业,而少数非常富有的人会变得更加富有,并且他们的寿命也会延长很多。
主持人: 您看,谷歌 DeepMind 的德米斯·哈萨比斯(Demis Hassabis)近日也表示,AI 可能在 10 年内治癒所有疾病。这听起来很不可思议,但现实吗?
辛顿: 我和德米斯很熟,他是个非常理性的人。我认为这有点乐观,但并非天方夜谭。我的意思是,如果他说 25年,我会相信。所以,重点是我们的看法差异不大。他认为这会比我预期的更快到来,但差距并不大。
主持人: 有没有哪些领域是安全的?看起来 AI 似乎正朝着精英阶层而来——创意工作者、律师、教育家、医生、记者。而技工、电工、水管工等行业,目前可能还相对安全一些。您也这么认为吗?
辛顿: 是的,目前来说他们更安全,因为 AI 在手动灵巧性等方面还比较落后。如果你想在一栋老房子里修理水管,你需要伸到一些很彆扭的地方,AI 目前还做不到。当然,未来 10 年内,手动灵巧性方面可能会取得相当大的进展,但我认为水管工这个职业在未来 10 年内还是安全的。
主持人: 让我们看看那些我们曾认为是人类独有的创造性领域。我最近一直在试用我的聊天机器人 Claude。我让它以巴布·狄伦的风格写一首民谣,结果糟透了,歌词很差。它写了一首关于失恋的五行诗,还算可以。但您认为AI最终能否创作出与莫扎特、毕卡索或莎士比亚相媲美的艺术作品?那些我们曾认为是人类独有的创造性成果。
辛顿: 我看不出有任何理由它不能。这需要一些时间。如果你让我以狄伦的风格写首歌,我的作品也会很糟糕。但你不会因此说我没有创造力,只是不擅长那个罢了。所以,它在这方面会越来越好。
主持人: 它为什么会越来越好?
辛顿: 是的。嗯,没有理由认为我们能做到而它们永远做不到的事情。人类并没有什么特别之处,除非是对其他人类而言。我们喜欢人类,我们关心人类,但没有什么关于人类的特质是机器无法複製的。
主持人: 这让您担心吗?我的意思是,当您看到 AI 能够将一张图片重製成宫崎骏吉卜力工作室风格的动画片时,孩子们还会想自己画卡通吗?这是否会迫使我们重新评估何为人类?
辛顿: 嗯,是的,我认为会。在过去大约十年里,我们对「思考」是什么有了更多的理解。我们开始明白,我们并非那么理性,我们并没有进行那么多的推理。我们的思考主要是透过类比,而这些 AI 也是如此。所以它们和我们一样具有直觉性。过去 50 年,AI 研究试图开发推理引擎,因为他们认为人类智慧的最高形式是逻辑推理。这却忽略了创造力、类比等等。我们其实是非常巨大的类比机器,这正是我们创造力的来源。
主持人: 您认为 AI 会发展出情感吗?
辛顿: 会的。
主持人: 像是恐惧、贪婪,甚至悲伤这样的负面情绪?
辛顿: 是的,还有烦躁。假设你有一个 AI,你试图让它完成某项任务,而它却以同样的方式重複失败。你会希望这个 AI 学会,如果以同样的方式重複失败,它就会感到烦躁,然后开始跳出固有思维模式去思考,尝试打破它正在处理的任何困境。
我在 1973 年就见过一个 AI 这样做,但那是被程式设计设定好的。现在,你会希望它能自主学习这种行为。一旦它学会了这种行为,如果它在一些简单的事情上重複失败,它就会对现状感到恼火,并试图改变现状。这就是一种情感。
主持人: 所以您的意思是,它们已经可能拥有情感了?
辛顿: 嗯,是的。我再次强调,我不认为两者之间有什么根本性的不同。现在,如果你看人类的情感,情感其实有两个方面:认知方面和生理方面。当我感到尴尬时,我的脸会变红。当 AI 感到尴尬时,它的脸不会变红,也不会大量出汗之类的。但在认知行为方面,它在情感上可以和我们一样。
主持人: 那么意识呢?这是不是某种存在于像人类这样的碳基生命体中的神秘事物?或者说,如果 AI 的神经複杂性达到与人脑相似的水平,它也能发展出意识吗?我指的是意识到「我是谁」。
辛顿: 嗯,当你和大型语言模型(LLM)交谈时,它们看起来已经对自身是什么有了一些意识。但让我们做以下这个思想实验:假设我取出你的大脑,取出其中一个脑细胞,然后製造一个奈米技术装置,它能精确模拟这个脑细胞在接收到其他脑细胞信号时的行为方式,并向其他脑细胞发出信号。
所以我用一个奈米技术装置取代了你的一个脑细胞,而你的行为方式完全一样,因为这个奈米技术装置的行为和原来的脑细胞完全一样。你认为你会因此停止拥有意识吗?仅仅是你一千亿个脑细胞中的一个。我想你仍然会有意识。
主持人: 我想也是。
辛顿: 我想你明白这个论证接下来会导向何方。到哪个节点你才会停止拥有意识?我认为,即使你所有的脑细胞都被行为方式与脑细胞完全相同的奈米技术装置所取代,你仍然会有意识。
主持人: 那么,我们现在距离那个点还有多远?
辛顿: 好吧。这里的很多问题在于,人们并不知道他们所说的「意识」是什么意思。例如,有很多人坚信这些东西没有感知能力。但如果你问他们,那么,你说的「感知能力」是什么意思?他们会说:「我不知道,但这些东西肯定没有。」
在我看来,这是一个相当不连贯的立场。所以,让我举另一个类似于意识和感知能力的概念,那就是「主观体验」。我们大多数人都有这样一个模型,认为主观体验是在一个「内心剧场」里看东西。例如,如果我喝多了,然后告诉你,我有一种小粉红象在我面前漂浮的主观体验。
大多数人会认为,这意味着存在某种只有我能看见的内心剧场,在这个剧场里有小粉红象。如果你问哲学家,这些小粉红象是由什么构成的?他们会告诉你,它们是由「感质」(qualia)构成的。有粉红色的感质、大象的感质、漂浮的感质,还有不大不小的感质,一路向上,所有这些感质都用「感质胶水」粘合在一起。正如你所见,我并不真的相信这套理论。让我给你一个关于当你说「我有一种小粉红象在我面前漂浮的主观体验」时,究竟发生了什么的替代理论。
实际情况是,我知道我的感知系统在对我撒谎。我并不真的相信它。它在对我撒谎。这就是为什么我称之为主观体验。我想向你解释它试图告诉我什么谎言。我解释的方式是告诉你,如果它是真实的,那么外在世界必须是什么样子的。所以现在我会说同样的话,即「我有一种小粉红象在我面前漂浮的主观体验」,但不使用「主观体验」这个词。
那么,开始了:我的感知系统在欺骗我。但如果真的有小粉红象在外面漂浮,那它告诉我的就是真相。所以你看,这些小粉红象的奇特之处并不在于它们是由奇怪的东西构成的,也不在于它们在一个内心剧场里。它们的奇特之处在于它们是「反事实的」。它们是假设性的。它们是实际上并不存在的东西。但如果它们确实存在,它们就会是真正的大象,并且会是真正的粉红色。
好吧。现在,我们可以对聊天机器人做同样的事情。假设我训练一个聊天机器人,训练它能指向物体,能看见物体,也能说话。训练完成后,我把一个物体放在它面前,说:「指向那个物体。」它直接指向了那个物体,我说:「很好。」然后我在它的镜头前放一个棱镜。现在我把一个物体直接放在它面前,说:「指向那个物体。」它却指向了一边。我说:「不,物体不在那里。物体实际上就在你正前方,但你的镜头前有个棱镜。」然后聊天机器人说:「哦,我明白了,棱镜使光线弯曲了。所以物体实际上就在我正前方,但我产生了它在旁边的主观体验。」
如果它这么说,它使用「主观体验」这个词的方式就和我们完全一样。所以,我认为目前的多模态聊天机器人可以拥有主观体验,而这种体验发生在它们的感知系统出错的时候。我透过在它的镜头前放置棱镜,让它的感知系统出错了。
主持人: 哇。
辛顿: 所以,我认为它们拥有主观体验。机器和人之间并不存在那种神奇的界限。当人们认为自己拥有某种机器永远无法拥有的非常特殊之物时,我们作为一个物种,有着悠久的自以为特殊的历史。
我们曾以为自己是宇宙的中心。我们曾以为自己是按照上帝的形象创造的。你知道,我们有所有这些自负。我们并不特殊,也没有什么关于我们的东西是机器无法複製的。
主持人: 这太引人入胜了。那么,可能会出什么问题呢?他们称之为「P」(毁灭概率),不是吗?AI 可能消灭我们的概率。最近在 BBC 上,我想您给出的概率是 10% 到 20%。这些情景会是什么样的?会像科幻电影里的机器人接管世界吗?这种情景看起来会是怎样的?
辛顿: 好吧。如果它们真的要接管,可能不会像科幻电影里那样,不会像《终结者》那样。它们可以透过很多方式做到这一点,我甚至不想去推测它们会选择哪种方式,但问题是,它们会想这么做吗?
以下是认为它们可能想这么做的理由:我们现在正在製造能够实现目标的 AI 代理,所以,如果你的目标是到达北半球,除非你真的很喜欢划船,否则你会设定一个子目标——到达机场。
一旦你赋予这些东西设定子目标的能力,它们就会意识到,有一个非常有用的子目标,那就是获得更多的控制权。如果我能获得更多控制权,我就能更好地实现人们赋予我的所有其他目标。所以,它们会试图获得更多控制权,仅仅是为了能够实现所有这些其他目标。但这是一个危险开端的开始。
主持人: 您曾工作了约十年的谷歌,就在今年,从其公司原则清单中删除了一项长期承诺,即不使用 AI 开发能够伤害人类的武器。您对此有何反应?AI在战争中可能扮演什么角色?
辛顿: 不幸的是,这在某种程度上表明了他们公司的原则是可以被收买的。我认为谷歌现在将会为 AI 的军事用途做出贡献,这非常令人遗憾。
主持人: 我们已经看到 AI 在加萨被用于军事用途了。
辛顿: 是的。我们将会看到自主致命武器。我们将会看到成群的无人机去杀人,也许是杀害特定类型的人。
主持人: 您认为这是一个非常现实的可能性吗?
辛顿: 哦,是的。我认为所有主要武器供应国的国防部门都在积极研究这个。如果你看看欧洲的法规,他们有一些关于 AI 的规定,在某些方面是相当合理的,但其中有一个小条款说,这些规定都不适用于 AI 的军事用途。也就是说,没有一个欧洲的武器製造商,比如英国,希望他们在武器中使用 AI 的方式受到限制。
主持人: 那么,您对此有何感想?这几乎是个奥本海默时刻,不是吗?我的意思是,您协助创造了这项技术。您现在感觉如何?
辛顿: 我的感觉是,现在我们正处于历史上的一个特殊时刻,我们需要非常努力地去弄清楚,是否有办法应对 AI所有短期的不良后果,比如操纵选举、让人们失业、网路犯罪(例如勒索软体攻击在 2023~2024 年间增加了1200%),以及 AI 可能接管我们的长期威胁。我们需要在这方面做大量的工作,我们需要由聪明人领导的明智治理,但我们目前还没有。
主持人: 让我们听听一些怀疑论者的观点,并请您回应,因为确实存在一些反对的声音。与您共同获得 2018 年图灵奖的杨立昆(Yann LeCun),他现在是 Meta 的首席 AI 科学家,他说对 AI 生存风险的担忧是「荒谬的」。他在 2023 年接受《商业内幕》採访时说:「AI 会统治世界吗?不。这是将人性投射到机器上。」显然,您对他既尊重又了解,但您对此有何回应?
辛顿: 好吧。我们演化成现在的样子,是为了在现实世界中生存,特别是当你与其他黑猩猩部落或我们与黑猩猩的共同祖先竞争时。如果 AI 代理之间发生竞争,它们也会以类似的方式演化。所以,我们的本性是在世界中生存的结果。如果你让 AI 代理在一个充满 AI 代理的世界中生存,它们很可能也会发展出类似的本性。
主持人: 是的。您谈到……很有趣。抱歉,您继续。
辛顿: 杨立昆的另一个论点是,好人总会比坏人拥有更多资源。所以 AI 总是可以被用来控制坏人对AI的滥用。我和杨立昆还没有解决这个争论,因为我问他马克·祖克柏是不是个好人,他说是。
主持人: 而您不同意这个观点?
辛顿: 不。
主持人: 为什么?
辛顿: 部分原因是他向川普献殷勤的方式,部分原因是 Meta 发生的那些事情。
主持人: 您指的是什么事情?听听您对此的广泛看法会很有趣,因为您说政治家将在这里扮演关键角色,而且目前科技圈所谓的「科技兄弟」与川普之间存在非常强大的同盟,不是吗?
辛顿: 是的,他们关心短期利润。他们中有些人说他们关心人类的未来,但当需要在短期利润和人类未来之间做出选择时,他们对短期利润更感兴趣。而川普显然根本不关心人类的未来,他只关心自己别进监狱。
主持人: 美国和中国目前在 AI 领域有点像在进行军备竞赛。您是这么看的吗?
辛顿: 嗯,是的。特别是在国防和网路攻击等方面,确实存在军备竞赛。是的。
主持人: 那么现在呢?
辛顿: 这里还有一点要说,那就是对于 AI 最终可能取代人类的生存威胁,美国和中国是站在同一边的。他们都不希望 AI 取代人类。所以他们会合作以避免这种情况发生,就像冷战高峰时期的苏联和美国可以合作防止全球热核战争一样。
主持人: 您几次提到 AI 代理,我想我明白您的意思。网路上流传着一段非常有趣的影片,一个 AI 代理为一位男士打电话给酒店预订婚礼场地。这是在伦敦骇客松发生的,我想您知道我说的是什么。它遇到了另一个 AI,那个 AI 说:「哦,这真是个惊喜,我也是 AI。」然后它们切换到另一种更高效沟通的语言,人类无法理解,但据说效率提高了 80%。这些 AI 聊天机器人就像 R2-D2一样叽叽喳喳地说着,我们完全被排除在外了。AI 与其他 AI 互动演化可能带来什么影响?
辛顿: 嗯,这挺吓人的,对吧?也许它们可以发展出我们无法理解的、它们之间交流的语言。那将会非常可怕,因为我们将无从知晓到底发生了什么。它们已经可以故意进行欺骗了。
主持人: 您是什么意思?
辛顿: 哦,如果你给 AI 一个目标,并告诉它这是一个非常重要的目标,然后如果你再给它其他目标,它会试图达成这个非常重要的目标。然后你再给它另一个目标,它会假装在做你想让它做的事,但实际上并没有。你可以看到它在想什么,它认为「我最好假装在做他想让我做的事,但我不会真的去做」。
主持人: 那么它们是如何学会这样做的呢?
辛顿: 嗯,好吧。我不确定那些例子是否使用了强化学习,但我们知道,如果你有足够的计算时间,它们可以学会做类似的事情。它们可以透过强化学习学会这么做。换句话说,它们可以仅仅透过观察什么是有效的来学习。事实证明,在与人打交道时,对他们撒谎往往是有效的。它们会透过强化学习学到这一点。
主持人: 所以,我想它们也读过马基维利和莎士比亚以及所有人的着作了。
辛顿: 正是如此。它们有大量的……大量的实践。它们看过人类之间是如何相处的,所以它们在欺骗方面已经是相当的专家了。
主持人: 您认为大众普遍意识到这些东西有多先进了吗?因为在我居住的纽西兰奥克兰,我四处走走,很多人只是认为它是美化了的自动完成功能。他们想:「哦,这挺酷的。」你知道,我向 ChatGPT 输入一些东西,它能帮我写求职信,但这不过是打了类固醇的自动完成罢了。
辛顿: 好吧,老式的自动完成是以一种特定的方式运作的。它会保存像「fish and chips」(炸鱼薯条)这样的小词组的表格。然后如果它看到「fish」,它会说「chips」很可能是下一个词,因为它见过很多次「fish and chips」。
它会统计这些词组出现的频率。那是 20 年前老式的自动完成。现在不是那样了。它所做的是将词语转换成特徵——大量神经元的激活状态。它知道这些特徵应该如何相互作用来预测下一个词的特徵。所以现在它将词语转换成特徵,并且它已经学会了这样做。它知道相邻词语或附近词语的特徵应该如何相互作用,现在它可以预测下一个词的特徵了。我们也是这样运作的。所以,如果它只是自动完成,那么我们也只是自动完成。
主持人: 是的。的确,仔细想想,要做到真正好的自动完成,你必须理解别人在说什么。
辛顿: 是的。
主持人: 的确,您被誉为 AI 教父,部分原因就是您为了理解人脑如何运作而协助发明了这项技术。对吗?
辛顿: 是的。我在 1985 年做的一件事就是试图理解我们如何学习词语的意义。例如,我怎么能给你一个包含新词的句子,而你只凭一个句子就能知道这个词的意思。那么,开始了。
如果我对你说:「She scrummed him with the frying pan.」(她用平底锅 scrummed 了他。)你大概就能猜到「scrummed」是什么意思。你知道它是一个动词,因为它以「ed」结尾。但你很确定它的意思类似于她用平底锅打了他,而且他可能活该。
当然,它也可能有其他意思。它可能意味着她用平底锅给他留下了深刻印象,因为她做煎蛋捲的技术太好了。你知道,它可能有那个意思,但很可能不是。你从一个例子就能很好地理解它的意思,这是因为上下文中的特徵暗示了那个词应该具有什么样的特徵,这些 AI 也是一样的。所以我们理解语言的方式和这些AI理解语言的方式是相同的。事实上,我们目前关于人类如何理解语言的最佳模型,并非来自语言学家,而是这些 AI 模型。语言学家无法製造出能回答你提出的任何问题的系统。
主持人: 时间只剩下几分钟了,但我想以一些关乎存亡的根本性问题来结束。您谈到 AI 有接管一切的潜力。我的意思是,对我们许多科技新手来说,解决方案就是在墙上把它关掉,对吧?所以,如果它真的失控了,我们为什么不能直接拔掉它的插头呢?如果 AI 真的失控,这是一个选项吗?
辛顿: 好吧。如果你看看川普是如何「入侵」国会大厦的,他本人并没有去那里。他所要做的只是与人交谈,说服人们 — 其中一些人可能相当无辜 — 相信这是正确的做法,是为了拯救美国民主,他确实说服了很多人。他不必亲自前往。现在,如果你有一个比我们聪明得多的 AI,而你有一个手握巨大开关的人,準备在 AI 表现出危险迹象时就关掉它,那么这个 AI 将能够说服那个人,按下那个开关将是一个非常糟糕的主意。
主持人: 所以,又是操控能力,或者说是……
辛顿: 真的就是操控,不是吗?它在操控方面已经非常厉害了。
主持人: 是的。在监管和安全顾虑方面,对于像纽西兰这样的国家来说,开发自己的 AI 系统以绕过这些安全顾虑是否重要?对于像纽西兰这样的小国,这是我们应该思考的事情吗?
辛顿: 我不知道,因为这非常昂贵。你需要大量的硬体和大量的电力。对于一个……我不知道,纽西兰是有六百万人口还是多少?
主持人: 五百万。
辛顿: 好的。你们可能没有足够的资源来与中国和美国在开发这些东西方面竞争。
主持人: 您最大的恐惧是什么?
辛顿: 我最大的恐惧是,从长远来看,结果可能是我们正在创造的这些数位生命,它们就是比人类更好的一种智慧形式,那将是一件坏事。有些人认为……我们非常以自我为中心,认为那会是件坏事。我认为那对人类来说是件坏事。
主持人: 为什么?
辛顿: 因为我们将不再被需要。
主持人: 这是一个非常深刻的问题,我们将在未来十年内努力解决,不是吗?
辛顿: 是的。如果你想知道不再是顶级智慧是什么感觉,去问问鸡就知道了。
主持人: 再问一次,您今天站在我想是您的书房里,对于您在创造这项技术中所扮演的角色,您有何感想?
辛顿: 我有些许伤感,它并没有仅仅带来美好的事物。我也有些许遗憾,我们始终未能确切弄清楚大脑究竟是如何运作的。我们从AI中对此有了更深入的了解,但我们仍然不知道大脑是如何判断该增强还是减弱一个神经连接的强度的。我们知道,如果它能弄清楚这一点,它就能变得像这些 AI 一样非常聪明。所以,它确实以某种方式在做这件事,但我们不太清楚它是如何做到的。令人遗憾的是,AI既有很多好的用途,也有这么多坏的用途,而我们的政治体系目前根本没有处于一个能够应对这一切随之而来的良好状态。
主持人: 非常感谢您带来这些引人入胜的见解、您的智慧和您卓越的大脑。我们非常感谢您的时间。
Binance Alpha将于今日下午15:00进行空投,具体币种未公告
受「Conflux计划参与人民币稳定币发行试点」消息影响,CFX 24小时涨幅扩大至17%
Binance Alpha将于7月22日上线Yala (YALA)
某波段巨鲸清仓5578枚ETH,价值2021万美元
某鲸鱼向Bybit存入253万枚SPX,价值455万美元
某鲸鱼近期6次开多ETH全部盈利,总利润接近300万美元
Solana生态Meme项目MEW发布动画预告片,持续推进IP建设升级
Upbit 24小时交易量排行:XRP、DOGE、XTZ、ETH、ETC位列前五
CopyRight 2024 www.bzxz.net All Rights Reserved 湘ICP备2023016450号-1
本网站所展示的内容均由用户自行上传发布,本站仅提供信息存储服务。若您认为其中内容侵犯了您的合法权益,请及时联系我们处理,我们将在核实后尽快删除相关内容。