温馨提示:本站为天鹅湖票务官方授权演出订票中心,请放心购买。
你现在的位置:首页 > 演出资讯  > 舞蹈芭蕾

算法的尺度:人机共舞的世界,如何找到和谐共生的法则?

发布时间:2025-04-30 12:11:22  浏览量:3

算法,已然成为一股深刻改变世界、重塑未来的核心力量。生成式人工智能的崛起正以前所未有的速度帮助我们提升效率、释放创造潜能。算法推荐系统则通过精准推送与数据分析,悄然改变着我们的社交行为与信息获取方式。算法这只无形的手正在悄然渗透进我们日常生活的各个环节。

4月20日至4月27日,三联书店举办了第七季“三联·新知大会”,以“算法的尺度:智能时代的共生法则”为主题,带领公众深入理解算法背后的本质及其对社会的多维影响。从“算法的本质”“算法与社会”“算法与法律”“算法与经济”四个维度展开的四场跨界论坛,汇聚了计算机技术、社会学、法律、经济等领域的十三位顶尖专家,共同分享前沿研究成果和见解。

值得一提的是,本届新知大会的主题源自三联书店即将推出的算法系列丛书。该系列包括四本专著,分别从法律、社会、技术和经济等角度全面解读算法对日常生活的多元影响。

“这套丛书是国内首次系统性探讨算法与社会各领域互动关系的学术普及读物”,三联书店编辑介绍道,“我们邀请了包括这次参与活动的一线学者撰写,通过严谨而生动的分析,帮助读者理解算法时代的挑战与机遇,促进公众理性认知技术变革,探索智能时代人与技术的和谐共处之道。”

经主办方授权,下文整理发布四场活动的相关报道。

整理撰文|李永博

AI时代的法律与治理,

需要更多的“分寸感”

“未来契约:AI时代的法律刻度”活动现场。

在算法决策日益渗透的时代浪潮下,法律如何找准自身定位,界定人与机器交互的边界?4月20日下午,在主题为“未来契约:AI时代的法律刻度”的首场活动上,中国社科院文化法制研究中心研究员周辉、北大法学院副教授戴昕、清华大学公共管理学院副教授陈天昊和对外经济贸易大学法学院教授张欣从多元视角剖析了人工智能时代的法治问题。

很多人都会关心的一个问题是,在算法遍布的日常生活中,法律究竟扮演着什么样的角色?中国社科院文化法制研究中心研究员周辉指出,法律关注的是社会关系的调整,而无论是数字时代还是人工智能时代,算法使得人与人的连接更加广泛,并由此产生区别于物理空间的线上空间的新型联系。算法在商业模型发挥的巨大作用已经无需赘言,从法律的视角来看,我们还期待算法在社会问题的治理中可以发挥相应积极的作用。对于公共信息的传播、触达以及应急事件的处理等社会治理问题,社交平台如何快速地传达给相应用户,这背后其实也需要算法的计算和资源的匹配。同时,随着生成式人工智能的兴起,算法“黑箱”及结果的不确定性造成的问题日益凸显。这使得我们不得不追问算法决策背后的逻辑,以及它对个体权益和公共利益可能带来的负面影响。

算法“黑箱”的背后,直指算法治理的核心问题之一:算法的透明性。对外经济贸易大学法学院教授张欣犀利地指出,尽管算法“黑箱”常被诟病,但人类大脑的决策过程才是更难解释的“黑箱”。我们之所以信任医生、律师、法官的判断,在于其背后有信誉机制和权力制衡的保障。然而,面对算法决策,传统的信任基础和制约机制面临失效的风险。

在算法决策中,“谁掌握了过去,谁就掌握了未来。”通过对“卢米斯诉威斯康辛案”的分析,张欣提出算法透明并非简单的技术公开,而是建立一种机制,让用户能够理解、评估并干预影响自身利益的算法决策。虽然实现完全透明面临技术复杂性、商业秘密保护等重重挑战,但追求“有意义和负责任的算法透明”对于构建系统与用户之间的信任至关重要。

围绕“智能趋势下AI对齐和治理”,清华大学公共管理学院副教授陈天昊在活动中分享了自己的前沿思考。从技术演进的视角,陈天昊分析了AI大模型从“越大越强”到“小而精”的发展趋势,以及未来模型本地化部署、多模态交互和与大平台深度融合的可能性。在这层意义上,“AI对齐”就是让模型与人对上话,不仅是技术层面的频道对接,更是价值层面的深度契合。陈天昊举例,若大模型误解了用户意图,这可能导致决策偏差,甚至绕过规则“说谎”。因此,陈天昊建议法律为个人使用AI设定行为底线、明确智能体(Agent)的责任归属,以及强化人工智能应用生态的综合治理。正如乌尔里希·贝克在《风险社会》所指出的,现代性是一座巨大的火山,我们在享受人工智能带来的便捷时,感受不到地下不断喷涌、随时可能爆发的岩浆,治理者的责任就在于尝试让其放慢速度,为社会适应和制度调整争取宝贵的时间。

最后,北京大学法学院副教授戴昕从法律议题的连续性角度,呈现了AI治理中的重要考量。戴昕回忆道,30年前的《互联网法》早已涉及隐私与公平问题,今天的AI法律挑战不过是旧题新解。问题的关键在于,在新的技术条件下,我们对安全、公平、效率等价值的期望和容忍度发生了变化。

通过自动驾驶的安全标准、司法领域的智能应用以及算法中的偏见与歧视等案例,戴昕阐释了法律如何在不确定性中寻求新的平衡。AI的普及正在赋能个体,使得许多曾是精英专属的能力变得普惠化,这必然引发社会预期的变化,进而推动法律规范的重构,例如著作权、信誉机制以及个人助理带来的法律挑战。因此,理解技术对法律的影响,不仅要关注技术的进步,更要理解人类自身在技术发展中的需求变化与自我认知。

在随后的跨界对谈中,专家们就算法带来的社会问题是技术本身造成还是社会原有问题在数字空间的投射展开讨论,并探讨了在算法治理中政府与平台的角色分工与协同。如戴昕所言,新的技术常常是反思传统法律问题的契机,面对算法带来的不确定性,法律需要掌握微妙的“分寸感”,而非僵化的明确规则。

化解信息茧房焦虑,

首先要提升算法透明度

“算法炼金术:当代社会的隐形架构师”活动现场。

算法是否在制造“信息茧房”?平台又如何应对网络暴力与谣言?4月23日晚,在第二场主题为“算法炼金术:当代社会的隐形架构师”的活动上,中国人民大学新闻学院副教授董晨宇和抖音内容策略运营经理李晓涵围绕这些话题,揭开算法在社会生活中的运作机制。

去年,网络主播已经成为一个我国认可的新兴职业分类。对于数量庞大的平台创作者,他们是如何看待算法的呢?中国人民大学新闻学院副教授董晨宇结合自己团队多年来对网红的田野调查,给出了出乎意料的答案。根据对头部和腰部网红的访谈,董晨宇发现,平台创作者关注的不是变幻莫测的算法规则,而是如何“伺候好观众老爷”,以及如何踩准社会情绪的节点。网红口中的“流量”是一个具有本土色彩的概念,并非简单等同于算法分配。实际上,流量的来源可以分解为基础流(粉丝数)、算法流、事件流和购买流,在实际运作中,算法流的权重并非压倒性的。相对于算法本身,我们更应关注的是算法的透明性,以及如何让更多社会主体参与到算法的治理协商之中。

算法是否有可能带来“信息茧房”问题?董晨宇从学术研究的角度指出,信息茧房的概念在学术界已存在争议,实际上真正的“茧房”更多源于用户自身的信息获取习惯和对公共事务的低兴趣度。最后,董晨宇总结道,“算法从来不是黑箱,算法是乐高积木”,让公众了解和认识算法的外部形态和搭建逻辑,可能是我们未来要努力的方向。

从行业实践的维度,抖音内容策略运营经理李晓涵带来了“平台视角下的算法”的分享。李晓涵认为,算法的广泛应用是信息爆炸时代的必然产物,推荐算法的核心在于提高信息分发效率和用户体验。平台追求的是用户的“长期价值”,而非短期的停留时长或点击量,这决定了算法需要平衡精准推荐与内容多样性之间的关系。

李晓涵坦承,算法也存在被滥用的风险,如“骗互动”和“炒作争议话题”的行为,平台需要通过内容治理算法设置护栏,识别和抑制不良流量。她以红楼梦解读长视频的爆火为例,说明平台正努力通过算法扶持优质的中长篇内容,并鼓励用户通过搜索、兴趣设置和负反馈等方式,主动参与算法导航,实现社区共治。

抖音平台的红楼梦解读长视频。

算法是道法自然的产物

像数学般蕴含美感

“道法自然:人工智能背后的算法赋能”活动现场。

神经网络如何模拟人脑学习?大模型用什么“语言”思考?4月25日晚,中国科学院计算机网络信息中心的廖方宇首席科学家、香港科技大学(广州)协理副校长熊辉、中国科学院计算所高级工程师尹芷仪等技术专家深入浅出地解析AI背后的算法原理。

“算法是道法自然的产物,像数学一样蕴含美感”。香港科技大学(广州)协理副校长熊辉以充满哲思的方式开场,他通过“快慢学习”模型,解释了对抗生成学习算法如何融合人类两种学习方式的优点,实现人脸生成等实际应用。熊辉教授进一步将算法原理与《易经》的易理相比较,阐释了监督式学习算法捕捉事物的“不易”、聚类算法实现信息的“简易”,以及强化学习在“探索”(exploration)与“利用”(exploitation)之间取得平衡,应对世界的“变易”。他还以乾卦为例,将模型训练与人生学习过程相类比,指出在欠拟合与过拟合之间寻求平衡的“中庸之道”同样适用于算法。

AI与人类思维有何本质差异?中国科学院计算技术研究所高级工程师尹芷仪带来了关于“人工智能与人类思维的异构共生”的分享。自1956年达特茅斯会议上的讨论开始,人工智能的本质是通过数学建模与计算模拟,赋予机器感知、决策、执行等类人或超人的能力。在信息处理方式、模式识别和学习迁移上,人工智能与人类思维还是有显著差异:目前的机器缺乏情感和意识,其决策完全由预设程序和训练数据驱动,而人类拥有丰富的经验和情感,能够进行长期目标驱动的规划。尽管如此,尹芷仪主张,人类依旧需要学习如何与机器协作、共进,因为在未来,人机共存是必然趋势,并将实现认知、行为、社会结构层面的深度融合,即“人机物三元融合”。

与早期确定性的算法不同,人工智能算法通过学习人类知识和文化,开始体现出人文主义的色彩。中国科学院计算机网络信息中心首席科学家廖方宇在活动中指出,开发者在算法中注入自身的理解、偏好和文化背景,这使得算法并非完全中立,可能对文化多样性产生影响。人工智能算法的出现,标志着技术与人文主义的真正交汇,它以一种新的途径认识物理世界,并可能产生新的知识。因此,在算法研发过程中,我们应注重语料的包容性和正向性,以引导算法向善发展。

在随后的讨论环节,专家们就推荐算法如何理解内容、算法的价值导向等问题展开了热烈交流。熊辉认为,推荐算法的核心在于精准匹配,通过了解用户和内容的需求,提高匹配效率。尹芷仪补充道,算法通过学习用户行为和内容特征来理解和匹配,但完全精准理解内容代价巨大,更多是基于向量空间的计算。廖方宇强调,算法的价值导向与开发者的选择有关,语料的正向性对算法的学习结果至关重要。

谈及如何引导算法向善时,嘉宾们认为,除了立法监管和平台治理,对AI从业者进行科技向善教育,从小培养孩子利用AI、与AI差异化共存及创新的能力,是应对未来挑战的关键。熊辉特别指出,DeepSeek的开源模式降低了AI应用的门槛,为各国发展AI应用提供了巨大机遇,中国应抓住这一新质生产力发展的机会,推动AI赋能千行万业。

算法“引擎”如何

驱动数字经济发展?

“算法引擎:数字智能与经济发展活动”活动现场。

算法如何影响市场机制和商业模式,从而与我们的日常生活发生关系?这些影响和变革对就业和财富发展会产生什么样的影响?4月27日晚,在第四场“算法引擎:数字智能与经济发展活动”上,中国社科院研究员李勇坚、中央财经大学教授欧阳日辉与抖音应用算法负责人冉蛟深入探讨算法对经济的深远影响。

抖音应用算法负责人冉蛟从互联网企业一线带来了算法赋能商业创新的案例。从通过推荐技术彻底改变短视频分发逻辑的抖音,到将推荐技术引入小说行业并重塑商业模式的番茄小说,再到基于内容推荐构建全新电商业态,冉蛟回顾了字节跳动在算法应用上的探索历程。

冉蛟认为,算法的核心在于提高信息匹配效率,这不仅为用户带来了更个性化的体验,更为海量内容的创作者提供了被发现的机会,打破了传统中心化的分发模式。冉蛟以《我与地坛》《被讨厌的勇气》等书籍在抖音上的爆火为例,指出算法实现了个性化书单的推荐,为传统出版行业提供了新的图书宣发渠道。

中国社科院财经战略研究院研究员李勇坚从宏观经济学视角深入分析了算法对经济发展的双重作用。在推动增量增长上,亚马逊等平台的案例和数据证明了算法在提高库存周转率、降低空驶率、缩短等待时间等方面具有的巨大价值。李勇坚特别指出,算法带来的消费者福利和企业营销成本下降并未完全体现在GDP中,算法对经济发展的贡献仍然被大多数人低估。

另外,李勇坚认为社会不应过度放大对算法替代就业的焦虑,因为技术进步往往伴随就业结构的调整,虽然算法因为提高了效率而导致一部分人失业,但算法也给社会带来了一系列的新工作,因此效率提高并不一定带来就业的消失。有中等技能的人可以用新技术武装自己,甚至可以承担专家的任务。

中央财经大学中国互联网经济研究院教授欧阳日辉从经济治理的视角对算法的健康发展提出了自己的见解。欧阳日辉比较了国内外算法治理实践,指出欧盟采取“规则先行”策略,而美国更倾向于“分散和多元治理相结合”,中国则在发展与治理之间寻求动态平衡,并更多依靠部门规章进行管理。

欧阳日辉进一步指出,算法治理应采取技术与规则的“双轮驱动”模式,协同推进技术创新和规则完善。此外,算法治理需要构建“共建、共治、共享”的新格局,政府、企业、行业协会和公众都应积极参与同时杜绝“一刀切”的算法治理逻辑,倡导采取更加柔性的分级管理方式。

在互动讨论环节,嘉宾们就信息茧房的成因与破解、优质内容的算法分发、算法定价与歧视以及算法对劳动者权益的影响等热点问题进行了深入探讨。在算法定价问题上,嘉宾们认为适度的价格不一致可能存在,但也存在一定商业合理性,这取决于平台能否把握好尺度,并在治理中引入价值观的考量。李勇坚则强调算法设计应融入人文关怀。我们仍然需要不断思考的是:提升效率是否也会加大对劳动者的剥削?比如外卖小哥的过劳,零工经济下的劳动保护和基本福利的缺失。“当算法本身具备判断和决策能力的时候,我们需要教算法价值观。这些问题需要嵌入到算法当中,这是未来一条特别重要的路。”

本文经主办方授权整理发布。

整理撰文/李永博

校对/杨利