梅里·马达沙希:人工智能、文化与可持续发展之间为何不存在天然平衡
2026-04-07 国际创意与可持续发展中心

梅里·马达沙希

前联合国秘书处高级经济官员

国际创意与可持续发展中心咨询委员

华南理工大学、广东外语外贸大学、

暨南大学客座教授

  人工智能在极短的时间内,已从技术创新的边缘领域跃升至日常生活、公共管理、经济战略和全球治理的中心。它日益深刻地影响着人们沟通、学习、消费、创造、与机构互动以及想象未来的方式。其应用现已深入教育、医疗、安全、城市规划、通信、文化生产、环境监测及公共服务管理等多个领域。在许多社会中,人工智能已不再仅仅被视为一种新兴技术,更是一种具有重构社会关系、加速决策进程、重新定义效率与进步内涵的组织性力量。

  这种扩张也催生了关于其巨大潜力的主流叙事。人工智能常被描绘成一种变革性工具,能够帮助人类大规模解决复杂问题——从资源分配、气候建模到教育普及、公共卫生和经济优化。在可持续发展的语境下,它日益被定位为加速实现目标的工具:能够改进数据分析、加强预测能力、支持基于证据的政策制定,并使各种系统更具响应性和效率。在这种观点下,人工智能不仅是一项技术突破,更可能成为实现可持续发展目标不可或缺的盟友。

  然而,这种信心基于一个值得更审慎审视的假设:即人工智能可以被整合到发展的各个维度,而不会根本性地改变发展所依赖的人类意义、社会价值和文化框架。问题不在于人工智能是否能执行有用的任务——显然它能。更困难的问题是,对人工智能日益增长的依赖,尤其是在涉及身份、记忆、创造力、教育、正义和社群等领域,是否会重塑我们追求发展所处的规范环境。

  正是在这一点上,文化变得至关重要。文化不仅仅是众多部门中的一个,也不仅仅是与经济和社会目标并列需要保护的艺术表达或遗产集合。文化是社会产生意义、传递记忆、协商身份并定义其珍视之物的领域。它塑造了社群如何理解尊严、责任、归属感、正义、延续性与变迁。从这个意义上说,文化并非外在于发展,而是发展得以被理解、获得合法性并具有可持续性的条件之一。

  然而,在我们这个时代的主流发展框架中,文化在制度上仍处于边缘地位。在《2030可持续发展议程》的原始架构中,尽管各方多次呼吁给予文化更明确的规范性承认,但它并未被列为一项独立的目标。这一遗漏颇为耐人寻味。这表明,那些最可衡量、最易管理、最便于技术官僚掌控的方面继续获得正式的优先地位,而人类生活中那些阐释性的、关系性的、植根于历史的维度,在政策设计中仍较难被看见。当前对人工智能的热情可能会加剧这种失衡。

  人工智能的文化限度

  因此,本文的核心论点虽直接但影响深远:人工智能与文化之间不存在内在的平衡力量。人工智能和文化遵循不同的逻辑,服务于不同的人类功能。人工智能擅长抽象化、预测、分类和优化。文化则存在于阐释、模糊性、记忆、伦理判断、象征意义和生活经验之中。人工智能可以支持发展的特定方面,甚至可能有助于保存或传播文化材料,但它无法取代人类赋予发展意义的阐释框架。我们也不能假定技术的扩张会自然而然地尊重文化的深度。若要在人工智能与文化之间建立任何平衡,必须通过治理、批判性反思,以及重申人类目标对技术逻辑的优先地位,来有意识地构建。

  这种紧张关系的第一个迹象,出现在人工智能与可持续发展本身相关联之时。当前许多讨论假设人工智能可以作为可持续发展目标的中性加速器。在某些领域,这无疑是正确的。人工智能可以支持数据分析、资源分配、环境监测、物流、基础设施规划和行政协调,能够在海量数据集中识别模式,提高压力下系统的效率。这些都是有意义的能力,不应被否定。

  但可持续发展目标不仅仅是一项技术议程,它也是一项关乎人、社会和规范的议程。它不仅关乎服务的提供,更关乎尊严、包容、正义、韧性和集体责任的条件。这正是人工智能局限性显现之处。当问题是优化问题时,人工智能很有用;但当问题涉及价值观、社会信任、伦理判断、文化合法性或结构性不平等时,它则远非如此有用。在这些情况下,重要的不仅仅是政策是否有效,更在于它是否被接受、被理解、被共享,并植根于其所影响人群的现实生活。

  重新思考人工智能与可持续发展目标之间的关联

  这就是为何人工智能在可持续发展目标议程的几个重要方面基础薄弱。

  关于目标5:性别平等,人工智能在某些方面可以通过识别薪酬、机会、代表性、教育和服务交付方面的差异来协助实施,可以支持数据收集,揭示排斥模式,帮助机构发现可能被掩盖的不平等。但这里的局限性是深远的。人工智能系统是在已经包含性别偏见的社会所产生的数据上训练的。结果,它们可能继承、复制甚至在技术中立的表象下强化歧视。用于招聘、信贷、安全、福利分配或绩效评估的自动化系统,如果底层数据反映了过去的排斥,就很容易复制不平等的假设。更根本的是,性别平等不仅仅是一个发现问题,它涉及权力、法律、制度改革、代表性和社会转型,需要改变机会、话语权、保护和社会规范。人工智能可以帮助揭示不平等模式,但无法独自改变产生这些模式的结构。在这个意义上,它可能有助于诊断,却无法带来解放。

  关于目标11:可持续城市与社区,人工智能无疑有助于管理交通流量、能源使用、废物系统和城市规划模型。然而,可持续社区并非仅靠优化就能建成。一个城市之所以可持续,并不仅仅因为它"智能",而是当人们感到自己属于它,当遗产受到尊重,当公共空间支持社会生活,当多样性得到保护,当发展不抹去记忆和身份时,它才是可持续的。这些问题首先是文化问题,然后才是技术问题。一个人工智能系统可以改善城市管理,却可能对城市对居民的意义漠不关心。过度依赖数字模型可能会催生更高效但更缺乏人性的城市环境:更多监控、更多标准化、更多商业理性化,而较少关注地方历史、社区特色和非正式的社会实践。从这个意义上说,人工智能可能强化了城市管理,却未能强化社区。而没有社区,可持续城市的概念就变得空洞。

  人工智能的局限性在目标12:负责任消费和生产中甚至更加明显。在操作层面,人工智能可能非常有用,可以优化供应链、减少浪费、改进库存管理、监控资源使用、预测需求并支持循环经济实践。在这个意义上,它可以帮助提高生产系统的效率,减少可衡量的低效形式。然而,目标12不仅仅是关于效率,它也关乎改变生产和消费文化本身。不可持续的发展不仅由技术浪费驱动,也由过度消费的习惯、一次性生活方式、短期利润激励以及将幸福等同于不断扩张的物质获取的社会规范所驱动。人工智能可能有助于更有效地管理这些系统,却未触动其深层逻辑。在某些情况下,它甚至可能通过使生产、营销和消费者定位更精确、更有利可图来强化这种逻辑。因此,人工智能可以在一个不可持续的模式内减少浪费,却不一定改变模式本身。它可以在不质疑过度消费的情况下优化消费。

  类似的矛盾也出现在目标13:气候行动中。人工智能在气候建模、灾害预测、能源预测和排放监测方面可能极其强大。然而,气候行动最终的成功或失败不仅仅取决于数据,还取决于行为、政治意愿、公众信任和共同牺牲。这些是深刻的文化问题。生态转型需要生活方式、消费习惯、社会优先事项和集体想象的改变,取决于社会是否愿意重新思考便利、增长、流动性、浪费以及代际责任。人工智能可以为这些辩论提供信息,但无法产生维持这些辩论所需的伦理承诺。它可以告诉社会正在发生什么,却无法决定社会愿意放弃、保护或珍视什么。气候行动还依赖于团结和责任的叙事,需要人们感受到与地方、与未来世代、与彼此之间的联系。这种联系是文化的、道德的和历史的,并非源于算法计算,而必须通过教育、艺术、公共话语和社会制度来培养。我在此不愿涉足另一场辩论,即人工智能本身可能通过数据中心及其巨大能源消耗的扩张在多大程度上加剧气候挑战。目前尚无解决方案和出路!

  或许目标16:和平、正义与强大机构,在团结和责任方面最为敏感。虽然人工智能可以在有限但有意义的方面支持这一目标,例如帮助检测欺诈、改进文件管理、识别行政瓶颈、加强信息获取、揭示与腐败、暴力或机构低效相关的一些模式,但这可能也是过度依赖人工智能最危险的领域之一。和平、正义和强大机构依赖于合法性、公平性、问责制和信任。这些不是技术产出,而是政治和道德的成就。人工智能可能加快程序,但不会创造正义;它可能对风险进行分类,但不会创造合法性;它可能处理机构数据,但无法替代伦理判断或民主责任。还存在一种危险,即人工智能恰恰加深了目标16试图克服的问题。算法画像、预测性警务、不透明的行政决策、自动监控和有偏见的风险评分,都可能损害而非保护权利。在脆弱或两极分化的社会中,此类使用可能进一步削弱对机构的信任。

  即使在目标4:优质教育中——人工智能常被誉为强大的均衡器——同样的问题也出现了。人工智能可以个性化学习,拓宽信息获取渠道,协助教师和机构提供教育资源。然而,教育不仅仅是信息传递,它还关乎形成判断力、同理心、创造力、公民意识以及包容差异的能力。这些不是可以通过智能系统完全设计出来的产出。一个学生并非仅仅通过接收优化后的内容就变得受过教育。教育仍然是一个关系性和文化性的过程。如果教育越来越多地通过推崇速度、预测和标准化的系统来中介,那么风险不是无知,而是狭隘化:学生可能更擅长驾驭信息,却在阐释、反思和道德辨别方面变得更弱。

  在这些可持续发展目标中识别出的弱点并非偶然。它们揭示了人工智能逻辑与文化本质之间更深层次的不匹配。一旦将文化理解为意义的领域而不仅仅是信息,人工智能在发展领域中的局限性就更容易识别。在多个可持续发展目标中观察到的困难不仅仅是技术不完善或数据不足的结果,它们指向一个更结构性的问题:在挑战可以被转化为可衡量变量、可预测模式和可优化流程的地方,人工智能非常高效;但在进步依赖于阐释、社会合法性、伦理判断、历史记忆和共享价值的地方,它的效率则低得多。而恰恰是这些后者的维度属于文化的范畴。

  理解文化与人工智能的区别

  从这个角度看,文化不是发展的外部补充,也不是在设计技术系统之后才考虑的装饰性维度。它是社会据以定义何谓福祉、正义、责任、归属和进步的解释框架。文化塑造了社群如何理解其需求、如何协商优先事项、如何记忆过去以及如何想象未来。因此,文化不能被视为人工智能驱动发展模型中的次要变量。它恰恰是发展意义得以在社会中构成的领域。

  这就是为什么必须谨慎地概念化文化与人工智能之间的关系。两者不在同一个认识论或规范性层面上运作。人工智能通过抽象化、编码化、预测和优化来运作,依赖于将现实转化为数据、识别规律、以及基于统计推断或形式化规则产生输出。相比之下,文化不能简化为可以被计算系统完全捕获、标准化或处理的信息。它是历史积淀的、社会体现的、象征性中介的,并通过生活经验被不断地重新阐释。

  这一区别至关重要,因为当代的讨论常常仿佛文化只是另一个可以应用计算工具而无概念损失的部门。然而,文化不仅仅是遗产、语言、习俗或艺术表达的仓库。它是社群赋予世界意义、协商身份、传递价值观、并将自身置于与过去和未来的关系中的动态媒介。它不是静态的,也不是中立的。它通过争辩、重新阐释、选择性记忆和变化的社会关系而演变。其连续性不在于机械重复,而在于人类更新、争论和重构既有生活形式的能力。

  人工智能带着相当的技术力量进入这一领域,但阐释能力有限。它可以对图像进行分类、生成文本、模仿风格、重建文物,并在海量材料中检测模式。然而,这些能力不应与任何深层文化意义上的"理解"相混淆。识别一个模式不等于把握其意义。再现一种形式不等于继承了该形式获得意义所依赖的历史意识、象征密度或社群依恋。人工智能可能以日益精湛的技巧模拟文化表达,但这种模拟仍然不同于参与一个充满记忆、价值和经验的活生生的世界。

  因此,问题不仅仅在于人工智能有局限。更深层的问题是,人工智能的力量本身可能助长一种对文化的误导性概念。当通过数据提取、模式识别、可扩展性和优化这些操作范畴来接近文化时,存在着一种风险:只有那些对机器来说可读的文化生活方面才被视为相关。细微差别、模糊性、沉默、反讽、仪式深度、少数群体的意义以及依赖语境的阐释更难被形式化,因此更可能被边缘化。通过这种方式,文化的技术中介可能逐渐重组什么在文化上被视为可见的、有价值的或可保存的。

  当人工智能嵌入传播和治理系统时,这种担忧变得更加严重。文化不仅被表达,它还被流通、排序、过滤、翻译、存档和制度化。一旦算法系统通过推荐系统、自动翻译、内容审核、搜索优先排序或文化分析来大规模塑造可见性,它们就不仅仅是传播文化,它们开始构建文化出现的条件。什么被放大、什么被边缘化、什么被归类为真实的、什么被变得全球可读——这些不再是纯粹的人类判断,而日益受到根据技术、商业和地缘政治优先级设计的架构的影响。

  这涉及到了一个不容忽视的权力问题。人工智能系统并非文化中立的工具。它们在特定的制度和经济学背景下开发,在不均衡分布的数据集上训练,并在充斥着语言、可见性和影响力不对称的环境中部署。结果是,它们可能使主导语言优先于边缘化语言,使编码化知识优先于口头传统,使标准化表述优先于地方性意义,使具有商业价值的内容优先于具有文化重要性但数字化程度较低的表达形式。因此,问题不仅仅是狭义上的技术偏见,而是更广泛的可能性:人工智能可能在将自身呈现为中性基础设施的同时,强化文化承认的等级制度。

  这并不意味着人工智能在文化生活中没有位置——显然它是有位置的。但是,问题在于,日益增长的对人工智能的依赖是否完全合理地改变了文化被承认、被珍视和被传递的条件。一旦提出这个问题,议题就不仅仅是技术能力本身,而变成了文化自主性、伦理治理和知识责任的问题。

  如果前面的讨论表明可持续发展的许多维度依赖于文化意义、社会合法性和人类阐释,那么一个重要的悖论就立即显现出来:文化对于许多可持续发展目标的实现不可或缺,然而在目标本身的架构中,它在制度上却仍处于边缘地位。尽管学者、实践者和文化组织多次呼吁,文化并未在《2030年议程》中被确立为一项独立的可持续发展目标。这一遗漏不仅仅是行政性的,它反映了当代全球治理中对发展概念化方式的一个更深层次的困境。

  可持续发展目标被设计为普遍的、可衡量的、与政策相关的,并且能在高度多样化的国家背景下进行政治协商。文化并不那么容易契合这个模型。其意义是语境依赖的、历史层叠的,并且常常抗拒标准化。与基础设施或排放不同,文化无法通过普遍指标完全捕捉而不损失使其具有社会重要性的很大部分。

  这有助于解释为什么文化常常在口头上被承认,而在制度上仍然薄弱。它经常被援引为身份、遗产、创造力、包容性和社会凝聚力的跨领域维度,但这些承认很少转化为发展政策中同等的规范地位。

  然而,具有讽刺意味的是,文化悄然支撑着所有目标的成败。健康方面的进步依赖于信任、行为、沟通和当地对风险的理解。教育方面的进步依赖于语言、身份、权威和社会目标。性别平等的进步依赖于规范、价值观、象征性角色和变革的合法性。和平与正义的进步依赖于记忆、承认、归属感和机构的道德权威。气候行动的进步依赖于公众想象力、代际伦理,以及重新思考消费和责任的文化意愿。换句话说,文化并非对实施而言是边缘的,它塑造了实施被接受、抵制、适应或变得持久的那些社会条件。

  那么,为什么在可持续发展中提升文化地位的努力一再失败?部分答案在于政治上的谨慎。一个关于文化的独立目标将引发棘手的问题:谁的文化?哪些价值观?何种形式的承认应在全球层面制度化?

  另一部分答案在于对测量的焦虑。全球议程青睐于可追踪的东西。然而,文化恰恰在其超越度量简化的地方最为强大。结果,文化常常被更易测量的变量所取代,即使这些变量无法完全解释发展成果是否具有社会根基或历史可持续性。

  这一遗漏对关于人工智能的辩论具有重要影响。如果文化在可持续发展目标框架中已经处于弱势的正式地位,那么将人工智能作为实施工具的热情高涨就可能加深这种失衡。可衡量的变得更为可见,可优化的变得更为可控,数据丰富的变得更具可操作性。在这样的条件下,与发展最密切相关的文化方面可能变得更加容易被忽视——不是因为它们不重要,而是因为它们更难被转化为计算术语。

  因此,挑战不仅仅是将文化更显眼地插入现有的政策语言中,而是认识到可持续发展从来不仅仅依赖于技术交付。它依赖于人类阐释变化、认可规范、传递记忆和想象一个值得持续的未来之能力。这些是文化能力。没有它们,发展可能变得更可衡量、更数字化、更具行政效率,同时变得不那么有意义、不那么扎根,并最终不那么可持续。

  因此,认为人工智能与文化会自然而然地找到一种富有成效的均衡,是当前政策话语中最令人安心却最少被审视的想法之一。然而,本文的分析表明并非如此。人工智能与文化之间不存在固有的平衡机制,因为两者由不同的驱动力所引导。

  从这个意义上说,政策制定者、学者、教育者和文化机构面临的挑战,不是抽象地歌颂伙伴关系,而是治理不对称性;是确保为计算而设计的系统不会悄然重新定义植根于意义的领域;是认识到可持续发展,如果要保持真正以人为中心,就不能仅建立在技术加速之上,还必须保护那些文化能力和伦理能力——人类社群通过这些能力来决定进步是为了什么。

  人工智能与文化之间的未来关系,不会仅由创新来决定。它将由社会是否愿意将技术力量置于人类目标之下来决定,而非使人类目标适应技术逻辑。只有在这些条件下,人工智能才能继续作为发展的工具,而不是成为一种抽空发展之文化与道德实质的力量。

标签: