用户登录投稿

中国作家协会主管

当我们谈论人工智能时,我们在谈什么?
来源:《当代文坛》 | 方维规  2026年05月09日11:52

摘 要

人工智能的迅猛发展,引发世界各地AI专家的担忧。他们呼吁暂停人工智能开发,担心AI一旦有了意识,可能带来是否赋予机器责任与权利等伦理问题。AI技术正在影响我们的个性和日常生活,为我们提供各种新的可能性,但它并没有我们想象的那么智能,因为它不可能拥有人类独有的智慧。在强人工智能还未到来,弱人工智能使得我们生活更轻松的当下,人类的优势依然胜于AI。人类最大的成就正是在这个极为复杂的世界中找到方向并发展自己。

关键词

人工智能;意识;权利;智慧

人工智能(AI)的发展不断刷新人类对“机器智能”的认知。我们今天谈论AI时,关心和面对的都是些什么问题呢?从图灵的“机器能否思考”之问,到电影《机械姬》和现实中的ChatGPT,能够见出“智能机器”从幻想到现实的演变,不少从前的科幻已经变成现实。人们惊叹AI出色的拟人化表现,又担忧其潜在风险。尽管现在的AI在可计算的任务上表现出超强能力,但它仍然缺乏意识和情感。人类智能植根于文化、感官体验和社会互动,而AI缺乏血肉之躯,这使它难以真正模拟人性,也不会像人类一样富有想象力。

AI改变我们生活的速度令人惊叹,但也暴露出一个根本问题:创造力无法自动化,它需要人去思考、感受和创造。AI工具或许可以提供帮助,但它们无法取代我们的思考和原创性。人类不仅能识别符号,还理解其意义和目的,而AI目前仅停留在表层逻辑。真正的智能不仅是算力,更是对复杂世界的理解与同理心。AI的发展道路不是注定的,它会受到人类价值观的引导或误导。问题的核心不只是技术,更是价值观和道德问题。哲学家们提出的关键问题是,创造类人AI可能带来伦理困境:如果AI真的获得了意识,我们该赋予它什么样的权利和责任呢?一旦机器能“感受痛苦”,人类就必须将其纳入道德考量。面对可能越来越“像人”的机器,我们应守住人性的底线。

一 机器出手之后

蓝色外星人宇宙飞船曾是世人对“人工智能”的想象,直到1996年国际象棋特级大师卡斯帕罗夫被AI系统“深蓝”(Deep Blue)击败,这种刻板形象才有所改变。20年后,AlphaGo击败了韩国的世界顶级围棋选手李世石。其实如乔姆斯基(Noam Chomsky)在2023年5月3日的一次访谈中所说,对于国际象棋这样的封闭系统来说,人们早在20世纪50年代就已充分认识到:随着大规模算力的进步和长期开发,迟早可以设计出一个程序来击败在记忆容量和思考速度上受到限制的国际象棋大师。

关于人工智能或者会思考的机器人的想法早已有之,拉普拉斯(Pierre-Simon Laplace)于1814年就已提出破译世界形态的全知机器概念。英国计算机科学家、“恩尼格玛”密码破译者图灵(Alan Turing)在1940年代做过基础研究,设计出一种简单的测试程序来识别AI系统,他想知道机器如何拥有人工智能。1950年,他给出了答案:一个人面对一台看不见的机器提问,当无法区分是人还是机器在回答时,便能证明存在人工智能。图灵当时预测这会在2000年前后发生。

这个实验也是电影《机械姬》(Ex Machina)关注的焦点。科技公司“蓝皮书”的负责人挑选的一名程序员对女性机器人“艾娃”进行图灵测试,看她体内的AI系统是否具有人类心智和感知体验,或者她只是在表演。艾娃低垂着眼帘,向面前的男子表白:“我想和你在一起。”特别挑选的连衣裙,只能让人看到她脖子处的金属身体。她犹豫了一下,然后问道:“你想和我在一起吗?”这位年轻的电脑迷证实了这台机器具有人工智能。然而,机器欺骗了他。机器出手之时,也预示着机器统治人类时代的来临。

《机械姬》的制作者称影片中的科技公司为“蓝皮书”,这肯定不是巧合。维特根斯坦曾用蓝纸板装订了他的思想草稿,称之为“蓝皮书”,探讨了“什么是痛苦”“什么是思考”“什么是观点”等重要问题。维特根斯坦告诫说,我们不能指着树木或房屋等物体来回答这些问题。没有任何物体可以让我们找到某人是否痛苦的答案。答案只能在人类社会和语言互动中找到:“只有像人一样才有痛苦可言。”换句话说,能够感受痛苦的汽车,才会知道撞上水泥墙是什么滋味儿。

人造大脑的出现,源于人类复制自我的愿望。AI艾娃是人类的一个梦想:一个会思考、有感觉的AI生命体。一台有思想、意识、意志、情感的机器,按照人的形象塑造而成。研究人员将这种机器称为“强人工智能”或通用人工智能。但到目前为止,它们只在电影和书籍中出现。有可能制造出像人一样探索世界的机器吗?甚至是拥有自我意识、意志和情感的机器?开发人员面临哪些挑战?通往类人机器的道路会是什么样的呢?是不是只要有足够的算力、足够复杂的神经网络,机器终有一天会发展出意识呢?人类能意识到这一点吗?

我们能窥见机器是否有意识吗?多半不行。这是查尔默斯(David Chalmers)在接受《法兰克福汇报》的一次采访时说的。这位澳大利亚哲学家和数学家是心灵哲学领域的世界知名专家之一。然而,他并不排除有朝一日机器会有意识的可能性。从设计理念来看,ChatGPT和类似程序能够“学习”的东西是无限的,“为什么意识不能在这个过程中出现呢?”持这类观点的人还真不少。在他们看来,如果AI的最终结构与我们相似,经历类似的学习过程,实际表现得像我们,那么很难否认它的思想和感觉与我们相似。为什么机器就不能做到这一点呢?

最迟自美国OpenAI公司于2022年底发布基于AI的网络应用程序ChatGPT以来,人工智能可谓尽人皆知。它是一个自然语言驱动的聊天机器人,使用人工智能实现类似人类的对话。ChatGPT等聊天机器人给出的答案非常逼真,很难分辨和人说的话的差异,肯定能通过图灵测试。根据加州大学圣地亚哥分校的最新研究成果(2025年3月),73%的测试参与者被骗了,或者说彻底输给了AI,误以为OpenAI的GPT-4.5是真人,它似乎成功通过了图灵测试。

也是最迟随着ChatGPT的发布,或者2024年初成功植入脑机接口,人们急切地提出谁是行为主体及其责任的问题,并重新引发了关于AI及其潜在风险的公开辩论:AI独立自主并且不再受控制的时候会发生什么?如何再去看待和评估人类的作为?AI真的拥有意识会发生什么?它们是否也能拥有与人类相似的权利?谁该对负面影响和可能的危害负责?这些问题绝非无关紧要,也不是对进步的怀疑。世界各地的AI专家近期都对不受控制的AI技术竞争表示担忧,并在一封公开信中呼吁暂时停止人工智能的开发。

德国波鸿大学研究人工智能的哲学家韦伯-古斯卡(Eva Weber-Guskar)在2020年的一次访谈中说:尝试制造有意识的AI不但是危险的,而且毫无意义。这有可能带来负面影响和痛苦。一旦我们面前有了这样一个存在,那就需要将之纳入道德考量。任何能够感受痛苦的存在,都不应无缘无故地遭受痛苦。这位哲学家看不出人们有什么理由创造这样的“生物”,甚至看起来像人的生物。这确实让很多人担忧。早在1970年,日本机器人专家森正弘就把对机器人、人工智能和虚拟形象的恐惧描述为“恐怖谷现象”。并且,人们后来发现,新技术成就越像人类,世人对它的接受度就越低,例如人形机器人比动物形态的机器人更会遭到拒绝。

二 机器能像人类一样聪明、独立吗

今天,人工智能是一个热门话题。曾长期只出现在科幻小说中的东西,已经成为我们日常生活中的一部分。在某种程度上,我们已经身处前人想象的科幻世界。在20世纪60、70年代的西方,人们观看科幻电影时会想:哇,这太神奇了!这会在什么时候发生?2050年?但现在我们有一种感觉,越来越多从前的科幻想法在当下是可能的,让人感觉生活在科幻世界里。人工智能实际上也早就是一个重要话题,至少在流行文化中如此:我们都知道《终结者》系列电影,或者《黑客帝国》。今天的科学是什么,虚构又是什么?AI是什么,到底可以用来做什么?

AI已经进入许多领域,在研究、技术和众多公司中无处不在。各种搜索引擎完全依靠AI运作。图像识别,语音识别,还有自动驾驶和泊车,今天已经有很多事情可以让AI来做。它还能区分恶性和良性皮肤癌,控制军用无人机。未来,它们可能会在家居中陪伴我们,做护理机器人。这就引发了许多问题:AI系统会比我们更聪明吗?他们必须模仿人类能力才能做到这些吗?我们可以从中获得关于人类智能的什么信息呢?聊天机器人用大量人类生成的文本数据进行训练,所以它们学会生成文本、像人类一样对话也就不足为奇了。如果你问ChatGPT是否具有意识,或者以不同的方式挑战它并观察它的反应,那你可以发现,现在的AI系统太擅长模仿人类了。

人很容易被诱惑,说得直白一点,人是可操纵的,他很愿意相信自己看到的一切,而且总觉得自己是对的。不仅如此,人总是想要更多,这在人类历史中屡见不鲜。他遵循的是更多、更远、更大、更快的逻辑。只要还有可以尝试的可能性,他就一定会去尝试。见之于强人工智能领域,即机器可以模拟人类的一般智能,甚至有意识、有情感、有自我认同,这实际上更像科幻小说。专家们正在谈论它,人们也许五十年、一百年或二百年后才会拥有这样的系统,它也可能永远不会出现。强人工智能的目的是帮助我们做出更好的针对性决策。在海量数据的帮助下实现自动化辅助和咨询,无疑是非常了不起的成就,但它仍然不具备人类的认知能力。也就是说,人工智能并不像许多人想象的那么智能。

AI的一大优势是它的速度。但在关键方面,它仍然不如人类。它无法用不同的方式解释同一种情况,不能解决使用者在理解方面的具体问题,也无法决定哪种文本或图像设计最适合所需的心情,它缺乏人类的品质,比如想象力和同理心。然而,我们无法阻止人们爱上AI系统、与它们共存或让机器人来安排日常生活。假如这一切都将发生,成为一种常态,社会将会改变,这也将会是社会面临的挑战。这意味着价值观将发生变化,人们会另眼看技术,很多新的问题将会出现。当人们赋予这样的系统以个性或个人地位时,就会产生一定的关系。这意味着人们会照顾这些系统,特别是软件与硬件结合在一起,创造出看起来很可爱或会眨眼的机器人时,责任关系就会出现。你想照顾这个设备、这个机器人、这个“生物”。

技术的自我优化,是否或何时会让它自我赋权?这在社会科学对技术的评估中引起争议,许多国际研究中心和委员会相继成立,旨在探讨AI支持的技术的机遇和风险。这大概也是很多专家强烈警告不要进一步开发AI的原因。应该说,人们看到的威胁与其说是AI的问题,不如说是人的问题。因此,有学者认为AI技术的设计和使用,完全是我们的价值观问题,而不是技术可行性问题。我们是否能让计算机做梦,以便它像人类睡觉时一样重复和巩固记忆?只有当认知系统在没有人类编程的情况下开始“梦想世界”时,机器才能发展出一种脱离人类的自主能力,人类也就无法控制它了。最迟到那时,我们将面临一个问题,即应该赋予智能机器什么权利。

对我们来说,风险仍然是“科幻小说”。人们无法想象,我们在科幻片里见过的事情,目前正在发生,或将要发生。不过我不认为,我们的价值体系会受到根本性动摇,也不相信世界会崩溃。我们在电影里见过世界末日,但世界还在。对我们来说,电影中想象的人类终结只是为了给人提供愉悦,会让人兴奋,但也可能让人害怕。我们无法想象真正的末日或者真正的角色转换,仿佛机器人将成为统治者,人类是奴隶。但我们必须考虑后果和影响问题,为的是现实地、有意义地回答这些问题。重要的是在社会的所有领域和系统中维护和保障人的尊严。

只要人类还能对技术的使用冷嘲热讽,对它做漫画化处理,那么人类还是可以的。机器的暴动还有待时日,AI作为生活伴侣替代品也不太可能在短期内实现,通往强大AI的路肯定还很长,强人工智能、具有个性的机器,这些都是未来的东西。相比之下,弱人工智能早已成为我们日常生活的一部分,陪伴我们上网、购物、乘坐公共交通工具。它们还可以做一件事,而且做得很好,比如经过语言训练的ChatGPT给人带来的帮助。总之,它们可以让我们的生活变得轻松一些。

三 AI很诱人,但并不像人们想象的那么智能

近年来,AI技术的飞速发展使得人们越来越难区分AI生成的内容和人类生成的内容。这一趋势在自然语言处理(NLP)中尤为明显,AI驱动的程序能够生成与人类创作的内容难以区分的文本。学生写论文时碰到的问题,机器可以不费劲地处理,软件生成的文本与学生写的文本几乎没有区别。我们总是期望学生写作能有创意,即跳出互联网“档案”中已有的相关论述框架,但对学生来说这个要求过高:电脑不是已经做得很好了吗?为什么一定要胜过大家都说的东西呢?如此,高等院校都在担心出现大量电脑生成的学期论文和毕业论文。

创造力一直被视为人类特有的,但随着ChatGPT这类新程序的出现,人们不禁会问:AI是否能产出一定数量的新想法?这或许取决于我们如何使用AI工具。如果我在某个项目中遇到困难,我可以问聊天机器人有什么办法、都有哪些知识,甚至提供一些新的思路,是否有我想不到但有道理的想法?AI算法能够以适应性方式“解决”问题,但它无法理解某个问题为什么是问题,或者为什么某个问题比另一个问题更重要。他缺乏区分重要问题和次要问题的判断力。换句话说,人工智能可以很好地处理与知识有关的一切,却无法提供智慧。就智慧而言,它永远不会超过我们,因为它不可能拥有智慧,智慧是人类独有的。

很多人都担心AI早晚会接管世界。其实,人工智能让人担心的是使用它的人类智能,而不是被电脑征服的可能性。武装自己与之对抗的最佳方法,实际上就是要弄清楚:这东西是如何运作的?它的弱点在哪里?最重要的是理解AI是如何生成知识的:那是基于已发布数据的模式识别过程,而非深层次的见解。AI本身缺乏对它所表达的内容的内在理解。迄今开发的所有人工智能程序都只能预测“下一个词”或“下一个像素”,因而无法创造新知识。AI会将人类以数字形式存储的所有信息拼凑到一起,前提是这些信息可以通过互联网或专门数据库来获取。AI会找到一些正确且有用的信息,但也有很多不切实、不明确甚至虚假的信息。当然,AI也会复制所有偏见。这就是为什么大量程序员不得不通过审查AI来删除淫秽、仇恨、暴力等内容。

人工智能系统看起来越来越像人在工作,但“思考”方式截然不同,因为AI不懂语义、概念和内容。一个很好的例子是,它能在两种语言之间进行翻译,有时还译得很不错,即使它不了解或不理解这两种语言的词汇和语法;也就是说,它根本不懂、不会说这两种语言。但对我们人类来说,词汇和语法是学会外语的基本前提。与一种普遍认识(“机器学习”或“深度学习”)相反,AI实际上并没有在翻译过程中学习。诚然,许多心理学家所理解的学习,仅为条件反射、模仿或习惯化。可是按照这种定义,学习只是枯燥的重复(“死记硬背”)。真正的学习意味着通过思考或理解来掌握知识。

这在语言习得中也显而易见。小孩并不是通过听数十亿文本和统计分析来学习说话的。他们学习语言,同时也慢慢发展出复杂的思维,通过自己的经验和观察,把想法“存储”在记忆中,并将各种想法与听到的语言符号和词汇牢固地联系起来。小孩需要的语料少得惊人,肯定不需要AI系统中海量的世界文学。小孩无需翻阅语法书,在模仿和使用中学习语言。智力上的进步使得小孩能够识别名称中的事物,并在脑海中将事物和名称合为一体:不需要想象一棵树来理解“树”这个词的意思,甚至可以说,“树”这个词在小孩的大脑中就是一棵树。

AI通常能比许多人更全面、准确地解释什么是树,但它在解释时不说话也不思考,只是在使用一个包含“树”这个语言符号的“词汇表”,该表出自收集的无数资料。我们只能记住有限数量的名字、细节、数字、模式等,而AI在这方面似乎不受限制。如果我们将AI用于日常事务,它会是一个非常有用的工具,至于那些高层次的思考,比如道德评价、推理、权衡重要和不太重要的事情,那就另当别论了。尽管ChatGPT这类聊天机器人能像人一样与我们“交谈”,但其编程并不能产生逻辑思维。相反,如果小孩懂得“向后”和“跳”这两个词,他们便会向后跳。对于迄今的神经网络来说,这种逻辑思维好像还无法实现。AI在以新的方式来组合逻辑连接时还有问题。

AI不能成功判断,因为判断需要借助语言将主语与其特征(谓语)区分开来,比如“玫瑰是芬芳宜人的”。正确的论断能够确立事物的特性,解释能将事物与其表象或发生形式区分开来。黑格尔会说,一个人拥有事物概念,就能在思想意识中把握现实。人类可以做到这一点,人工智能却不能。动物当然也做不到,尽管它们也有想法,但它们没有我们所理解的语言。语言能使我们思考各种事物,即使思考时没有内心独白。当然,内心独白也是可能的,有时甚至很有帮助,尤其是在琢磨复杂问题时,就像我们在此讨论语言与思维的关系一样。

人工智能很诱人,但从长远来看,它会压缩我们自己的自由塑造空间和自主性,也削弱我们的责任感。在很多情况下,角色转变了:机器做决定,人仅在管理系统。人们往往倾向于选择便捷之路,所以喜欢将决策权外包给机器,却忘了这可能会导致糟糕的决策。盲目地追随机器,会使人对充满不确定性的未来准备不足。殊不知,人类的优势远胜于AI:我们的独特能力,如直觉、同理心、信任、批判性和抽象思维,以及对环境和规范的评估等,能够帮助我们在特定情境下做出正确的决策。

四 机器人会取代人类吗

下一手好棋或对数学的精深把握,能做这些事情的人常被视为聪明人,我们多半从特殊能力来定义智力。事实上,AI技术在某些方面已展现出超出人类的能力,它能轻松地做一些事情,因为它处理的是简单的逻辑规则。虽然卓越的国际象棋棋手可以从数以万计的棋局中汲取经验,但AI可以轻松处理数百万盘棋局。这使得深度学习系统能够发现人类很难甚至无法发现的统计规律。但到目前为止,这仅适用于有限的、明确定义的任务。比如在国际象棋中,方格、棋子和规则的数量都是有限的,游戏处于什么状态和下一步可能的走法是明确的。

可以假设,AI系统原则上能够处理任何精确定义的单项任务。只要有足够的学习示例,它能做得比人类更好。然而,如果任务的定义模糊,那会发生什么呢?如果先学习任务,而规则或目的却随着时间的推移而变化,又会发生什么呢?在框架条件不明确,任务、规则或目的发生变化的情况下,人类是否就比AI有绝对优势?毫无疑问,AI几乎可以学习所有内容,但无法理解很多东西。它由数字和数据组成,这还不足以理解在这个世界上做“自我”是什么感觉,人工智能无法思考自身。

不少对人类来说困难的事情,机器做起来却很容易,反之亦然。在我们眼里,许多技能是很自然的,比如骑自行车,需要敏锐的感觉、快速的定位、精确的身体控制、前瞻性规划,还需要自发的反应能力。我们都有这种能力,并且能把各种因素协调得很好。目前来看,AI还很难把握有些在我们看来不费事的技能,至少未必能做得像人一样自如。人脑使用的策略不止一种,它可以“凭直觉”行事,也可以根据逻辑结构来思考。就此而言,我们实际上不只有一个大脑,而是有好多个。

与AI系统相比,我们的一些看似很平常的能力实际上是很复杂的。例如,驾驶员能够在各种天气和光线条件下,观察交通状况并驾车穿过凌乱不堪的建筑工地,而且凌乱的状况是动态的、复杂的。自动驾驶汽车能应对这种情况吗?诚然,用于识别物体、人员、面部以及交通状况的特殊系统有了快速发展,人们希望未来的自动驾驶汽车在正常交通中发生事故的可能性比普通驾驶员更少。但这不仅需要功能齐全的特殊系统,还需要能够协调系统并检测严重错误的常识。这正是人类与当今AI系统的不同之处。

就模式识别而言,AI系统在识别物体或翻译语言时,有足够的结构和足够的数据可用。其他不少流程还无法轻松高效地实现数字化,比如有些最简单的事情:爬楼梯或倒饮料,我们只能见到机器人笨手笨脚的表现。不可否认机器人确实在某些技能上能够超越人类,但在人类所做事情的范围和灵活性等方面,AI还无法接近人类。尽管计算机科学家追求的强人工智能是能够在世界上自我定位、自我规划的机器,像人一样灵活地适应变化,但机器只有在大量练习之后才能做有些事情,或者还是做不到。

美国哲学家莫里斯(Charles Morris)在其符号理论中,将符号分为三个层次:符号(句法)、符号含义(语义学)和符号用途(语用学),他称之为“符号学”。举一个简单的例子:当一个人接近红绿灯时,他识别出红灯(标志),他明白自己必须等待(红灯的含义),他知道为什么必须等待(红灯的目的)。无论是否愿意,人们总是从这三个层面进行思考。AI也能做到这些吗?也就是不仅会喋喋不休地说话,而且理解所说的东西;不仅能应用规则,还能理解其逻辑;不是计算情绪,而是能感受情绪。

人工智能与人类智能之间的根本区别是,人类智能植根于文化。我们的思想和概念是历史形成的,是社会生活方式的一部分,只有在特定文化中长大的人才能真正领悟其内涵。与AI相比,人类智能的涵盖面要广得多。人知道红色是一种颜色,世界上哪些物体或生物、植物通常是红色的,谁最喜欢这种颜色,这是一个完整的知识网络。还有对细微差别和幽默感的理解。有些东西只有身体和感官印象才能掌握,也就是认知心理学中所说的“具身认知”(embodied cognition)。你能感受到痛苦才知道它是什么。如果你不能感同身受,同情心也不会产生。

从生物学来看,人类拥有一种植根于大脑的认知结构。自我保护的机制能够确保呼吸、体温、卡路里摄入量等,这导致对食物、睡眠、身体不受伤害以及性欲、好奇心等基本需求。各种情绪也与此有关。作为社会生物,我们有感觉、情感和同理心。这是当今所有AI系统所缺乏的:即使它接受过这方面的训练,充其量只能模拟一些基本的需求和情绪。人与AI的最大区别是,人有血肉之躯。机器人与人类有着本质区别,所以AI永远无法达到人类智能。如果某个人痴迷于机器人,而且觉得这么过日子很好,那就该爱上机器人才是,为什么不呢?

AI靠我们“喂”给它的内容而生存,无论多么微不足道的细节都会被记录下来并得到评估。这样,AI会越来越了解我们,并能越来越有效地满足我们的需求。这样的AI系统与我们有多相似?人们对此只能猜测。意识体验的神经生物学基础尚未被充分破译,利用当今的AI技术复制人类的意识经验还不可能。有人认为,AI系统做不了很多事情,是由于它缺乏意识经验,这种观点也许过于简单,因为人类也会无意识地处理很多事情。更重要的是,AI不需要维持生物性平衡来维持自身,因此不需要任何调节机制,而人类的基本需求促使我们去探索物质和社会环境。

人工智能——数字时代的灵丹妙药?从革命性的文本生成器到逼真的图像模型,进步似乎永无止境。但数据耗尽时会发生什么?当AI只能以它自己生成的数据为食时,又会如何呢?其实,曾经取之不尽的互联网输入资源几乎已经用完。如今使用的训练数据越来越多地包含AI自己创建的内容。这听起来很实用,但却很有问题:一个不断自我“回收”和“循环利用”的模型,创造的是自己的现实,最终只会产生噪音,而不是高质量的成果。如果没有新鲜的尤其是高质量的数据,AI模型就有可能在自己的回音室中萎缩。换言之,如果没有新鲜内容,AI就会停滞不前,而且这个时刻来得比许多人想象的要快。

我们不只是被动地感知物体,而是主动探索,并预测我们可以用它做什么。我们的感知受到文化和经历的影响,而想法正是基于感知和感觉。在社交能力方面,科技永远不会比人类更先进。诚然,AI技术正在影响我们的个性和日常生活,为我们提供各种奇特的、新的可能性。无论它在何处为我们做事,总还存在许多未解的问题,所以我们要保持警惕,危险的是认为“一切皆有可能”。人类最大的成就不是下棋,而是在这个极为复杂的世界中找到方向并发展自己。

(作者单位:重庆大学人文社会科学高等研究院/博雅学院。原载《当代文坛》2026年第3期)