2025年中央城市工作会议明确提出建设便捷高效的智慧城市,要求以数字化技术提升治理现代化水平,最终满足人民群众对美好生活的向往。在此背景下,人工智能(AI)正深度融入北京、上海、广州、深圳等超大城市的治理过程。
清华大学建筑学院城市规划系教授、自然资源部智慧人居环境与空间规划治理创新中心主任田莉指出,这一技术变革为破解“大城市病”提供了辅助工具,可以为重塑城市治理逻辑,落实精细化、科学化治理理念等提供支撑。
田莉介绍,作为区域经济社会发展的核心载体,超大城市的引擎效应显著。但规模效应的背后,是治理复杂度的几何级数增长:人口频繁流动、交通拥堵常态化、公共资源(住房、公共服务设施等)分配失衡、突发事件应急响应等问题交织,构成了对治理能力的系统性考验。
传统治理模式依赖静态数据和经验判断的决策方式,难以跟上城市动态演化的节奏。公共决策多局限于专家与政府内部讨论,公众诉求难以有效纳入决策闭环。典型如部分公共服务设施(变电站、垃圾场等)仅依据“技术最优”原则选址,因缺乏居民深度参与引发抵触,既影响项目推进,也损害公共信任。而传统公众参与模式又面临高成本困境,仅城市更新中的意愿调查,就需耗费大量时间与经济成本,难以实现高效协同。
清华大学与自然资源部智慧人居创新中心研发的HumanIS2.0系统,正是基于这一理念的探索。该系统将现实人口数据扩展为成千上万具有不同职业、需求特征的“虚拟市民”(个体AI智能体),通过大模型训练和快速的可视化推演帮助决策者观察不同住房/公共服务设施布局下单个不同“市民”的出行选择,与城市路网整体流量变化的联动关系;新地铁线路开通后,周边公交、道路接驳的潜在瓶颈;限行或收费政策对不同群体出行方式的差异化影响……这种“如果…会怎样?”的情景模拟,让规划方案从“静态蓝图”变为可实时调整的“动态沙盘”,推动政策设计更精准、更贴合民生需求。
田莉强调,AI赋能城市治理仍需正视三大局限:一、复杂系统难以模拟。城市是包含价值取向、突发事件、文化背景的复杂有机体,AI难以精准模拟“黑天鹅”事件(如突发疫情)或社会文化等的影响。二、“黑箱”信任难题。AI模型内部决策逻辑的不透明性,可能影响公众对涉及利益分配决策的理解与信任。三、数据与伦理风险。模型效果依赖数据质量,存在隐私泄露、数据偏见隐患;过度依赖技术可能导致系统故障时的治理脆弱性,且需兼顾不同群体的技术认知差异。
因此,超大城市的“智慧治理”应该是“专家智慧+AI助力”的深度融合,这需要学术界提供理论支撑、管理者引领实践方向、技术界持续创新,最终实现技术理性与人文关怀的平衡。
AI通过模拟海量个体与宏观系统的互动,让城市管理者看清政策背后的连锁反应,预见潜在风险,最终做出更科学、更精细、更贴合人民需求的决策。在不久的将来,随着“专家+AI”协同模式的不断推进,有望助力超大城市治理从“被动应对”走向“主动预见”,提升超大城市治理能力的现代化水平。