短视频个性化算法带来的伦理问题
摘要
随着短视频平台如TikTok、YouTube Shorts和快手的兴起,个性化推荐算法已成为数字内容分发的核心动力。这些算法通过深度分析用户行为和兴趣,极大提升了用户体验和平台活力,但同时带来了信息茧房、算法不透明、数据隐私和认知自主权受损等一系列伦理争议。鉴于该领域技术快速迭代和社会影响持续深化,系统性的理论整合与实证评估变得尤为迫切。本文综述了短视频个性化算法的技术基础、用户与平台交互机制、信息茧房效应的生成与社会后果、算法黑箱与隐私风险,以及弱势群体面临的特殊困境。论文总结了平台与社会层面伦理冲突的表现,评析了当前多样性提升、隐私保护、透明化设计、法规政策和用户教育等多维治理路径。综合来看,短视频个性化算法正在重塑社会信息结构与认知模式,对公共舆论、文化多样性和社会公正提出了新挑战。本文的系统梳理与评价有助于澄清算法伦理困境的本质,指明理论与技术创新、政策完善、用户赋权和全球治理等未来研究方向,为建设包容、公正、可持续的数字平台生态提供理论支撑和实践启示。
1. 引言:短视频平台个性化算法的兴起与伦理困境
随着人工智能和大数据技术的飞速发展,短视频平台的个性化推荐算法已成为数字媒体生态变革的核心动力。TikTok、YouTube Shorts、快手等主流平台,通过对用户行为、兴趣及社交网络的深度挖掘,实现了内容推送的高效个性化,极大提升了用户粘性和平台活力。然而,这一转变也带来了诸多引人关注的伦理议题。首先,算法通过对用户偏好的持续学习和加权,形成信息茧房和回音室,导致个体暴露于“单向度”内容,信息多样性受损,社会对话的空间被压缩、。其次,推荐机制复杂且高度不透明,用户对算法逻辑难以获知,从而削弱了认知自主权,平台算法权力形成新的技术中介结构。此外,用户在享受个性化推送便利的同时,也不得不面临个人数据被大规模采集与利用、隐私边界模糊化的现实风险。
理论上,认知自主权理论强调用户能否理解和主导算法对自身内容消费的塑造过程;信息多样性模型关注信息生态的开放性与多元性;而伦理困境则聚焦于利益平衡与公正性议题。多项研究指出,不同用户群体(如青年、边缘群体)在算法环境下认知自主权受损状况存在显著差异,这一领域尚未被充分定量刻画和理论阐释、。与此同时,伴随生成式网络和AI内容策展等前沿技术的发展,平台个性化算法的效能和复杂性持续提升,但也进一步加剧了伦理悖论与治理难题、。
总体而言,短视频平台的个性化算法正在重塑社会信息传播结构与公众认知形态。围绕信息茧房、算法不透明与数据隐私三大伦理问题,学界日益关注平台责任、算法透明度、用户自主权,以及信息多样性和公平性的保障,亟需从理论与实证两个维度深化分析。这一框架为后续关于算法机制、信息茧房现象、认知自主权受损、数据隐私风险及平台治理机制的专门讨论提供坚实基础。
1.1 算法想象与家庭化:构建用户信任与伦理张力
在数字平台时代,短视频个性化推荐算法已深度嵌入用户的日常生活,并重塑其媒介体验与信任建构方式。有鉴于此,当前学界主要运用“算法想象”(algorithmic imaginaries)与“家庭化”(domestication)理论,探讨用户对这些技术的理解和驯化过程。算法想象聚焦于用户如何通过叙事建构对算法的意义和运行逻辑的想象,表现为对“为你推荐”内容的归因、猜测与社群分享;而家庭化理论则强调,用户将算法融入自身生活常规,试图通过日常实践“收编”或“驯化”算法,但往往经历持续的权力与认知张力 ,。
一方面,用户通过讲述自己与推荐算法的“故事”,在集体层面形成对算法特性的认知框架。这些叙事不仅帮助缓解技术不透明带来的焦虑,也为个体之间建立信任以及批判性讨论算法权力提供了语境 。另一方面,家庭化过程揭示,用户在试图将算法嵌入日常生活时,常常体验到“控制权有限”的现实困境。例如,尽管用户通过持续点赞、评论、浏览来“调教”算法,希望算法表达个人偏好,实际却发现算法时常难以完全与自身道德和兴趣相契合,甚至陷入“被动接受”技术主导内容供应的局面。这种驯化的非完全性,不仅暴露出算法透明度的不足,还凸显了用户认知自主权的受限 。
值得注意的是,短视频平台的个性化算法影响不仅是认知和情感层面的,还指向算法正义与技术伦理。在以青年群体为主的内容生态中,许多人通过对平台算法运行的主动探索,逐步学习数据逻辑和推荐机制,并借助社交、内容创作及社群讨论,对算法的公平性、透明度及数据权益提出批判和倡议 。因此,算法的家庭化过程并非消极顺应,而是充满认知抗争与道德进退两难。例如,用户希望通过日常活动影响内容流,但平台的黑箱化设计和数据驱动推荐逻辑,使“自决”变得有限且充满不确定性。
理论框架的对比进一步揭示,算法想象强调用户对技术意义的主动建构,家庭化理论则关注技术嵌入带来的日常伦理张力。结合认知自主权、算法透明度等议题可以发现,用户在信任构建过程中并非完全自发或理性行动者,往往在技术“嵌入—适应—抗议”的循环中,体验到信任的动态生成与家庭化的限制。这种过程不仅塑造了用户对平台的信任逻辑,也为后续关于算法正义、技术透明度和伦理规范的深入讨论奠定了理论与认知基础。
2. 短视频平台个性化算法机制与技术基础
短视频平台的个性化算法机制与技术基础奠定了现代内容分发与用户参与的高度自动化框架。以深度学习为主导的推荐算法不仅依赖于用户各类行为数据,还不断拓展至多模态数据的高效采集与融合,例如结合视觉、音频、文本及用户的复杂交互痕迹。TikTok、YouTube Shorts、快手等主流平台在技术结构上展现出对短时动态兴趣建模、长期偏好匹配与社区互动等方面的独特取舍,其推荐系统在数据采集粒度、模型设计和内容推送节奏上趋于分化。这一多模态建模与个性化推荐的深度结合极大提升了推荐准确度和用户参与度,但同时也引发了对认知自主权、数据敏感性与隐私保护的新一轮伦理挑战。
2023-2024年,联邦学习及差分隐私等前沿技术在推荐系统中的应用取得重要进展。联邦学习允许平台在不汇总用户原始数据的前提下进行协同优化,有效缓解隐私泄露与本地过拟合问题。差分隐私通过引入噪声保护用户数据,使模型在保障个性化体验与隐私安全之间实现一定的平衡 ,尽管技术应用中不可避免存在推荐效果损失的权衡问题 。近年部分研究还提出了基于生成式流网络(GFlowNet)的新型个性化推荐框架,结合多候选生成与流动优化原理,在响应效率、推荐多样性与供给差异化等方面展现出潜力 。
然而,当前个性化推荐系统在解释性、反馈闭环、细粒度交互信号建模等方面仍存在突出技术空白。例如,平台对用户微观行为(如犹豫、容忍、反悔等信号)的理解尚未普及于主流算法实践,导致用户决策权受限,算法透明性不足,且容易加剧信息偏见与回音壁现象 。因此,如何在多模态数据驱动下统筹隐私保护、认知自主、算法公平与平台生态平衡,是当前及未来短视频平台个性化算法机制亟须解决的关键议题。
2.1 推荐算法原理与多模态数据采集
短视频平台的个性化推荐算法已成为驱动内容分发和用户参与的核心动力,其基础在于多模态数据的高效采集、深度融合建模与持续优化。在推荐算法原理上,主流平台普遍采用深度学习为核心的框架,集成了用户行为建模、内容特征抽取以及多样性的反馈机制。用户行为的捕捉不仅包括基础物理交互(如点赞、停留时长、转发历史),更扩展至观看时的微表情、语音交互甚至生理信号,这些多模态数据为更精细的用户建模提供了数据支撑 。具体而言,以TikTok、YouTube Shorts为代表的国际主流平台在推荐算法结构与美学导向上呈现出显著差异。TikTok倾向于强化短时动态兴趣的捕捉,采用端到端的视频、文本与音频特征联合建模,匹配用户即时兴趣点。而YouTube Shorts则更注重与账户长期偏好的匹配,平台更侧重基于账号历史建模及内容家族体系的推荐层级,而Kuaishou则在算法上兼顾内容多元分发,通过分片用户画像与社区互动信号提升冷启动内容的曝光概率。技术实现上,生成流网络(GFlowNet)框架的应用,使个性化推荐能够以多候选生成与流动过程优化为核心,实现更优的资源调度与个体差异化供给,在视频质量、响应效率与用户满意度之间取得均衡,这种新型方法扩展了短视频推荐系统在高度并发场景下的优化可能 。
多模态数据极大提升了推荐精度,但也带来了用户认知与隐私的敏感性挑战。平台需同时处理数据异质性、本地过拟合及隐私威胁。例如,Federated Prompt Personalization(FPP)式联邦学习,通过本地模型微调结合差分隐私保护,可在不直接回传原始数据的情况下实现多方协同优化,有效防止模型内因提示窃取引发的隐私泄露 。然而,技术实现中噪声注入必然损及个性化推荐的准确率,导致隐私性能权衡成为算法设计的关键难题 。以差分隐私与密钥共享技术支撑的多层级适配算法,正在尝试兼顾分布式学习过程中的模型泛化能力与个体敏感性的保护边界。当前推荐系统解释性不足,是影响用户信任与认知自主权的技术瓶颈。主流平台在算法解释机制上多以“黑箱型”深度模型为主,缺乏有效反馈闭环,使用户难以理解内容推送逻辑,从而减弱信任度。这一问题制约了平台在敏感内容推荐、个体化定制服务甚至监管合规上的透明度建设。尽管部分技术方案正探索由模型层级到用户界面的透明化机制,但在多模态高维数据驱动的短视频场景下,如何平衡推荐精准度、可解释性与用户决策参与尚缺高效解决路径。
2.2 用户交互信号与个性化模型优化
短视频推荐系统极度依赖于用户交互信号来驱动个性化模型的持续优化。与传统长视频或文本推荐系统主要依赖于点击、收藏、转发等显性反馈不同,短视频平台更加强调细粒度交互信号的捕获,如观看时长、快速划过、反复观看、犹豫停留以及容忍低相关内容等隐形行为。这些信号不仅反映用户对具体内容的即刻兴趣,还提供了用户耐心阈值、认知负载以及选择疲劳等心理层面的间接测量。然而,尽管短视频平台在数据采集维度上极为精细,当前主流推荐系统依然主要聚焦于便于量化和收集的直接信号,而对于用户行为背后的深层动机和脉络理解尚显不足。例如,用户可能出于无聊被动滑动内容,其连续停留时间无法简单等同于偏好强度,这种信号解释的误差容易放大推荐模型的固有偏差,诱发回音壁、信息茧房等伦理风险。
近年来,基于A/B测试和多模态日志分析的实证研究表明,隐性反馈信号采集的缺口,已成为提升短视频推荐满意度和多样性的重要瓶颈。以TikTok为代表的平台数据揭示,用户对于推荐结果的时序分布非常敏感,内容推进节奏稍有失衡,即触发用户滑动耐心急剧下降,甚至出现心理上的抵触,进而负向影响对算法公平性和平台透明度的感知。部分实验尝试补充注入“犹豫”、“滑过-反悔返回”等行为特征入模型,结果表明这有助于纠偏模型对极端兴趣热点学习的倾向,改善内容过度集中推送现象,但同时也加大了特征工程复杂度和系统实时性的技术挑战。
在模型优化过程中,技术团队不仅要扩充行为标注体系,还需考虑训练阶段与上线(serving)阶段信号分布的动态不一致,即“反馈延迟”与“用户状态漂移”加剧了模型难以精准调优。此外,目前针对推荐系统的透明化审计工具多局限于可解释性层面的静态可视化,对用户交互信号的多维动态追踪和伦理风险的溯源能力有限。这暴露出现有模型训练和监管机制对新型行为信号捕捉手段的不足,也暴露了监管和算法安全治理的技术短板。
从认知自主权的理论视角来看,当前主流短视频平台只浅层嵌入了点赞、评论、举报等有限的互动回收机制,尚未实现对用户个体在推荐流程中的能动性激活。例如,对“自己为什么会看到这条视频”的解释机制,大多流于简单标签或标签云的呈现,无法实质性提升用户对个性化系统控制感与选择权的认知;而用户交互能否反向影响模型决策边界,目前也缺乏开放透明的接口和反馈闭环。因此,未来需要模型与用户认知之间实现更丰富、可控的权力分配,既要强化行为信号的深度理解,也要推动平台开放更多反馈调整和用户自定义机制,从技术和制度双轮驱动个性化推荐伦理治理的可持续发展。
2.3 推荐驱动的内容分发与平台生态
短视频平台以个性化推荐算法为核心,深刻重塑了内容分发机制、平台生态及信息流转链路。与传统社交传播链路不同,推荐驱动模式下,用户的兴趣偏好成为内容分发的首要依据,平台通过大规模机器学习模型实时捕捉用户的互动数据和消费轨迹,进而构建高动态性的内容推送路径。创作者在这一闭环系统中,其内容的可见性与流量获取高度依赖平台的推荐决策,形成“算法-创作-消费-再算法”的反馈循环。此过程不仅改变了创作激励机制,也使创作者行为趋向迎合算法偏好,从而影响内容的类型、风格与呈现方式。
以TikTok、YouTube Shorts与快手为代表的短视频平台,在内容推荐与分发逻辑上表现出共性的“数据驱动高耦合”特征。TikTok利用极细致的交互信号(如停留时长、互动类型、转发路径等)对用户画像进行迭代性更新,即时动态调整推荐序列。这一机制促使用户与内容间的适配度不断提升,导致内容生态倾向于高同质性、大众娱乐化和情感浓度集中的主题 。YouTube Shorts的推荐系统同样依赖数据挖掘与内容分析技术,但在多样性保持方面较长视频内容展现出更弱的能力:短视频推荐结构更易形成热门主题聚集、政治敏感性话题集中传播,降低了信息多样性和跨群体的内容渗透 。快手则在内容分发上尝试“去中心化”与社区共建,并设计部分算法权重兼顾社交关系网络,但受限于主流算法推动,仍不可避免地进入以流行内容为核心的循环推送格局。
平台生态演化与推荐闭环带来的影响集中体现在两个层面:其一,平台对创作者的能力塑造和激励机制存在结构性引导。以抖音为例,平台通过“流量分发-创作收益”线性链条,引导创作者自我训练与内容创新能力逐步向市场需求和算法喜好靠拢。随着创作门槛与内容标准化程度提升,原创性与文化表达的多样性受到压缩,导致内容生态趋于标准化、流水线式生产,创作者文化自主权受限 。其二,用户端的认知自主权和信息接触范围日渐受限。推荐系统倾向于推送用户已表现出偏好领域的内容,个性化强化机制进一步强化信息茧房和观点回音壁效应,限制了用户接触异质信息与多元视角的机会 。
此外,比较分析不同平台算法机制对于信息多样性模型的影响,可以发现算法设定的初始权重、内容冷启动策略、个性化强度等参数,是决定平台生态多样性与均衡水平的核心变量。实证研究表明,过强的个性化推荐不仅无法提供广泛的信息覆盖,还会在政治、文化等敏感话题中放大偏见与极端化倾向。这一现象对平台责任、信息治理和公共舆论健康提出了新的伦理挑战。最终,针对推荐驱动型内容分发生态,学界与业界均呼吁加强平台透明度建设、完善可解释性算法设计(XAI),以及提升用户对内容选择的自主权,以缓解日益严峻的信息多样性危机和认知封闭问题 。
3. 个性化算法与信息茧房效应
短视频个性化推荐算法对信息茧房效应的加剧机制,已成为当前算法伦理领域关注的核心议题。随着TikTok、YouTube Shorts、快手等主流平台在全球范围内实现以行为驱动的深度个性化,其推荐系统利用大规模的用户反馈(如点击、停留时长、互动等)不断调整分发策略,致使用户更频繁暴露于契合已有兴趣、认知与情感需求的同质化内容。这一机制带来“协同-内容过滤协同闭环”悖论,一方面提升了平台流量与用户粘性,另一方面则收窄了用户可见信息的多样性区间,加速了信息茧房(filter bubble)与回音壁(echo chamber)效应的形成。
针对不同平台形成机制、群体极化与偏见等后果,国际数据实证与模拟研究揭示出短视频推荐在个体(个体内多样性下降)、群体(巴尔干化分群)和社会结构(观点分化与偏见固化)等层面均表现出共性与差异。各平台算法虽均有趋同内容曝光的趋向,但在用户反馈权重、兴趣演化机制、内容冷启处理等环节展现了不同的信息茧房强化路径。而TikTok、YouTube Shorts、快手等平台对信息多样性的约束与优化尝试,亦暴露出协同过滤主导下边缘兴趣难以突围及主流标签内容溢出的持续性难题。理论层面,认知自主权与信息多样性保护成为前沿治理与干预的主要分析框架。当前,不同用户群体(如性别、青少年、宗教和社会少数群体)在算法素养、主动干预能力及信息抗干扰水平上存在明显差异,这进一步放大了平台结构性偏见对信息茧房现象的影响。在多样性提升、用户自主可控推荐、算法公平性与可解释性等方面,学界与业界持续探索并提出了多种技术路径与教育机制,但在落地成效及可持续治理方面仍面临创新与合规并存的挑战。
3.1 驱动内容同质化与多样性丧失
短视频个性化算法在内容推荐中的核心作用,已成为驱动平台同质化现象与多样性丧失的关键机制。当前主流平台(如抖音、快手、YouTube Shorts等)普遍采用协同过滤和内容过滤算法,通过大规模用户行为数据深入建模每位用户的兴趣偏好。平台往往以用户历史点击率、停留时间、点赞等显式和隐式反馈为优化目标,通过持续迭代地调整内容分发,形成强反馈闭环。
这一反馈闭环机制固化了用户兴趣区间,将内容曝光范围收窄在已知兴趣“舒适区”,加剧了“深层过滤气泡”的形成。实证分析显示,尽管用户总体上拥有较广的兴趣谱系,但推荐系统最终让内容消费高度集中在个体偏好范畴,导致个人的内容多样性(即“个体内多样性”,intra-user diversity)显著下降 。平台长周期数据分析揭示,这种气泡现象不仅稳定持久,还因用户人口统计特征、兴趣类别类型等多因素进一步强化。在Spotify播客个性化推荐的实验中,平台优化用户参与度的算法导致用户个体内容消费多样性下降约11%,而整个平台层面的内容分布却呈现出群体间的“巴尔干化”现象(即不同群体间多样化,但群体自身高度同质化)。类似地,YouTube Shorts的主题分布分析中发现,推荐链中的相关性、主题漂移及内容泛化现象极易造成同类型内容的连续曝光,大幅弱化整体信息生态的多样性 ,。
算法模型上的协同过滤和内容过滤并存悖论也是同质化的本质原因之一。协同过滤依赖用户群行为的相似性,当平台高频活跃用户主导流量时,“热门内容”被广泛放大,边缘兴趣和小众话题则难以获得足够曝光,很容易使平台走向主流内容高度趋同。内容过滤虽能根据内容属性做精准匹配,却常受内容标签单一、兴趣标签固化、冷启动等制约,进一步锁定用户的信息获取路径。值得注意的是,不同平台和算法针对保护多样性做出了若干尝试,但整体效果有限。研究发现,Bilibili平台中的重度用户由于浏览行为更活跃且兴趣碎片化,反而可以弱化过滤气泡效应。但绝大多数普通用户,尤其是女性及非会员用户,更易陷入狭窄的内容区间,个体信息多样性持续下降。
针对同质化困境,学界与业界提出了多样性优化机制和技术路线,包括覆盖关注矢量的建模、损失函数正则化、联邦学习中的多样性重排序等策略。例如,通过个性化覆盖向量动态调整算法关注点,能在部分平台上提升推荐内容的多样性而不显著降低用户满意度,;而引入超球几何三元组损失等更复杂的数据表达方式,可以在减少流行度偏置的同时显著扩展内容分布。然而,在保护平台多元生态方面,目前的多样性优化机制仍面临落地与应用上的短板。首先,多样性调控往往与用户活跃度、平台盈利目标产生直接冲突;其次,推荐算法的透明性与可解释性不足,使监管与合规治理挑战突出。平台对内容分布失衡的修正大多停留于技术层面,难以系统性地应对媒体多元化、公共话语权等伦理议题 。整体来看,短视频个性化推荐中的内容同质化及多样性丧失已形成系统性难题,算法优化路径与监管方案均处于持续探索阶段,未来有赖于更具多样性调控能力与伦理合规保障的推荐机制持续发展。
3.2 信息茧房的社会后果与群体极化
在短视频平台中,个性化推荐算法通过追踪用户行为和偏好,对内容进行有针对性的分发,极大便利了信息获取,但也加剧了“信息茧房”效应——用户所接触的信息趋于单一化、局部化,造成群体间认知壁垒和社会分化。在社会分化与群体极化的讨论下,信息茧房效应带来的影响体现在多个维度,具体包括性别、宗教及社会性少数群体。
首先,性别维度的算法极化表现尤为突出。基于算法的兴趣推送经常强化性别刻板印象。例如在Douyin的实证研究表明,男性与女性用户被动接触到的内容类型高度分化:男性账号更为集中接收娱乐或物质主义内容,女性则偏向生活方式类内容,且与性别平权议题相关的视频针对性分发,导致不同性别人群在观点、兴趣和价值导向上被隔离于各自的信息茧房中。这一过程不仅加深了性别间的误解和偏见,还强化了群体内部的观点极化,形成性别议题的回音壁。进一步,推荐算法通过用户的点击与互动持续优化对内容的推送,使极端观点更易获得曝光、传播与强化,无形中加剧了性别不平等和社会撕裂。
在社会性少数群体(如LGBTQ群体、不同族群、宗教少数派等)的情境下,算法同样可能起到放大偏见与加固群体隔离的作用。短视频平台侧重于将兴趣相关的内容推向特定用户群,这在特定的“圈层”内形成内聚性极强的社群。诸如“BookTok”等社区案例分析表明,平台算法及运营机制不仅塑造了强排他性“圈层”,而且对于非主流、边缘化群体成员的推介和表现存在压制、过滤甚至隐性排斥的倾向。这进一步固化了主流与边缘、强势与弱势的社会结构,有时甚至助推了对社会少数群体的污名化和排斥。
宗教话语领域,短视频内容往往被利用于散布针对宗教少数群体的偏见、仇恨和虚假信息。印度社交平台内容分析显示,视觉和话语元素被有意设计来煽动宗教分裂,将政治人物与特定宗教意识形态捆绑,大量虚假或煽动性内容借助算法迅速扩散,过度聚集特定信仰社群,导致群体排斥和政治极化加剧,对公共舆论空间的多元性和包容性造成负面冲击。群体极化的机制受到“回音壁”现象的强化作用。推荐系统通过分析用户历史行为建立偏好模型,精准推送与用户已有认知匹配度更高的内容,这使得观点与情绪趋同的群体内部交流频繁,观点分歧则被边缘化,极端、情绪化乃至负面内容易于扩散。研究表明,在算法驱动环境下,情感极化和信息盲区容易出现,导致整个社会结构在认知、情感乃至行动层面出现割裂,,。信息茧房并非只产生负面后果。部分模型研究显示,在某些线上社群,定向推荐加强群体内部情绪的稳定性,有助于部分成员处理负面情绪、获得心理支持。然而,这种内部“情感稳定”,往往以牺牲信息多样性和开放性为代价,长远看更易固化认知偏见与社会壁垒。
对比不同平台和文化背景下的治理措施,发现针对算法极化的干预手段具有差异。部分平台通过多元暴露、“逆算法干预”等对策来尝试打破信息茧房,一些国家则加强对内容推荐、公民数字素养的监管和教育,但治理成效存在局限。例如,在Douyin等平台关于女权话题的传播,仍表现出算法对主流标签与戏剧化内容的偏爱,影响深度讨论和多元化视角的表达空间。总体而言,短视频平台个性化推荐算法与信息茧房效应交互,共同塑造着当代社会治理中的结构性不公与认知极化。对算法机制和平台责任的持续审视,是数字社会可持续发展的重要议题。
3.3 信息茧房争议、缓解与用户认知抵抗
近年来,随着短视频个性化算法的广泛应用,信息茧房(filter bubble)现象成为学界和业界持续关注的伦理议题。在对信息茧房争议、算法缓解机制及用户认知抵抗策略的探讨中,需首先明晰学界对于茧房强度与普遍性的分歧。部分实证研究基于多维度行为数据,对茧房效应展开检测。例如,有学者通过B站用户的浏览日志与问卷双重数据,发现尽管算法有助于内容个性化,但重度用户的信息多样性反而较高,信息茧房效应并不如想象中普遍,且其影响受到性别、会员身份、用户行为等因素的交互作用影响。此外,AI推荐策略对意识形态隔离具有复杂影响:在个体层面,算法个性化确实推动信息隔离,但在网络拓扑层面,多样性机制却有机会连接异质用户,促使观点交流。这些发现指向信息茧房现象在空间、用户群体和算法设计中的多样化表达。
围绕信息茧房的缓解,主要技术路径包括算法多样性提升与用户主动可控的推荐机制。一方面,新近的中立性增强模型,例如基于阴阳代理的中立信息推荐框架,能够在不牺牲用户兴趣的前提下平衡信息分布,有效提升推荐内容的多样性,减少观点强化与偏见固化的风险。另一方面,以用户为中心的可控推荐系统日益受到关注。相关原型系统支持多级别用户干预——不仅可以主动告知用户陷入信息茧房状态,还可让用户基于具体指令实时调整推荐结果。通过因果推断等手段,系统能够高效排除陈旧用户画像干扰,兼顾推荐的准确性与多样性,提升用户的认知自主权和使用体验。
除了算法和系统层面的干预,用户个体的信息素养与认知抵抗行为也成为缓解信息茧房不可忽视的力量。有研究指出,用户在内容迁移、跨平台搜索、多元社区交流等手段下,能够自发打破算法预设的偏好束缚。此外,年轻用户主动学习数据、算法及其公正机制,探究平台操作逻辑,乃至利用技术批判与实践叙事表达诉求,逐渐具备了对算法透明性和正义性的批判性认知与抵抗能力。但当前,大众用户的信息素养教育与相关认知提升机制仍存明显不足,一般用户在短视频平台上多处于被动接受推荐状态,主动跨界、跨平台扩展信息边界的用户较为有限。
对比当前认知自主权提升的措施与教育现实可见,未来短视频平台及有关社会治理主体需在机制设计与用户教育层面双向发力。一方面,进一步研发更为高效且可解释的多样性推荐及用户自主可控工具,赋予用户更多权利。另一方面,针对不同用户群体开展算法素养与批判性思维教育,强化其数字公民意识和认知抗干扰能力。唯有机制创新与教育完善双轮驱动,方能有效弱化信息茧房的伦理风险,促进短视频平台的信息多元与社会融合。
4. 算法黑箱、数据采集与隐私冲突
短视频平台通过技术创新极大推动了个性化媒体体验,但随之而来的算法黑箱、数据采集与隐私冲突成为当前亟须关注的伦理议题。近年来,平台在短视频个性化推荐系统中采用了诸如用户行为追踪、兴趣画像建模等多维度数据采集方式,带来了精准推送与用户黏性的提升。然而,这一过程高度依赖深度的数据捕获与分析,易造成个人隐私边界模糊化、平台操控加剧及用户认知自主权的削弱。尤其是在数据处理与算法决策链条不透明、用户协议冗长晦涩及信息披露权利形同虚设的背景下,用户虽表面重视隐私,但实际自我保护措施有限,这一“隐私悖论”广泛存在于中外主流平台。
算法黑箱效应与平台操控的伦理风险日益突出。平台常通过暗黑模式和界面操控策略,在无形中支配用户的信息流与操作路径,进一步侵蚀其数据自主权。青少年等脆弱群体由于缺乏足够的风险识别与抗干预能力,更容易受到内容推送算法影响而暴露于身心风险或价值观误导。尽管部分研究与政策呼吁提升算法透明度与用户可调节性,平台在实际运营中大多更侧重技术优化和商业变现,规避了公开决策过程和共享数据用途的责任。当前隐私保护不仅依赖单一技术路径,如差分隐私、联邦学习及合成数据生成等创新方案,还要求与多层次法律规制(如GDPR、OECD原则)及平台自律措施协同推动。从理论与制度创新角度,亟需实现算法透明设计、隐私保护机制与用户认知自主权之间的平衡,弥补顶层治理的空白,同时关注不同社会群体间的风险分化。未来应持续拓展对算法黑箱、数据利用边界与伦理治理的系统研究与实际落地,回应数字平台利益驱动与社会公共责任的双重挑战。
4.1 数据采集与用户兴趣画像的隐私风险
随着短视频平台在全球范围内的爆发性增长,用户兴趣画像已成为平台算法个性化推荐的核心引擎。平台通过行为追踪、内容交互分析、设备信息采集等多维度数据,精准刻画用户兴趣与行为习惯,这一技术为提升内容相关性和黏性带来了革命性进步。但与此同时,这种广泛、深入的数据收集与用户画像行为引发了诸多隐私风险,其伦理问题尤为突出。
首先,平台在兴趣建模及行为追踪中往往采集大量敏感信息,包括浏览、点赞、分享、停留时长、地理位置乃至终端传感器数据。在无感知的数据汇聚和“默认同意”下,用户的认知自主权及边界不断被侵蚀。这一现象在中国与欧美等地均有显著体现。以TikTok和快手等平台为例,算法推荐系统通过持续学习用户互动特征,不断强化兴趣标签与内容推送,但平台对数据用途的透明度有限,使青少年等弱势群体面临画像滥用和隐私泄露的双重威胁,。对比中外主要平台的数据采集规范,中国平台往往以规模化采集为主,合规指引尚在完善阶段,用户在“隐私悖论”中表现出既关心隐私又常被动接受协议的矛盾心理。欧美平台普遍受到更严格的法规约束(如GDPR),但算法黑箱与平台封闭仍使用户难以真正掌控自身数据。例如,TikTok在算法推荐过程中对用户画像的准确性和完整性极高,但围绕青少年隐私保护的争议屡屡见诸报端,平台治理与技术伦理的平衡依然难以达成。从认知自主权模型出发,用户对隐私的感知和需求因群体差异而异。青少年往往缺乏对数据采集及画像后果的充分理解,平台理应承担更高的保护责任,包括算法透明度提升、隐私提示机制完善、分级数据采集策略实施等措施,。然而现实中,大部分短视频平台侧重算法优化与商业变现,忽视用户对自主权与隐私保护的诉求,导致无意间形成算法霸权和利益导向的伦理冲突。
近年来,针对数据采集与兴趣画像的隐私风险,学界和产业界积极探索解决之道,例如隐私保护型合成数据生成、个性化隐私设定等创新技术,但在实际落地过程中仍面临技术、合规、用户教育等多重障碍。整体来看,如何在短视频平台利益驱动与社会责任之间找到技术与伦理的协同点,亟需理论创新、规范进化以及跨界协同推进。
4.2 算法黑箱机制与平台操控
短视频平台依赖的个性化推荐算法极大提升了用户黏性,但背后的“黑箱机制”以及配套的暗黑模式设计,正以难以察觉的方式操控着用户的认知自主权与隐私边界。平台通过无限滚动、伪装广告以及突如其来的推送通知等暗黑模式,利用心理学和行为经济学原理强化用户的沉浸与依赖,从而实现注意力和数据的最大化攫取 。这些设计往往模糊了内容和广告、本人与平台意志之间的界限,导致用户逐渐丧失对使用时间与个人偏好的有效控制 。以青少年为代表的易感群体尤为脆弱。研究表明,TikTok等平台通过算法主动推送极端内容,包括低卡饮食方法和以极瘦为美的身体标准,已经对青少年用户的身心健康造成长期伤害。不仅如此,平台盈利模式与广告收入直接捆绑,形成数据驱动的利益链条,强化算法对敏感信息和极端内容的扩散倾向 。平台的算法决策极少透明公开,用户难以理解推荐内容的产生机制,也无法实质性调节或反抗暗黑模式的操控。即便部分用户对算法及平台策略有所认知,但在界面设计、功能引导和交互反馈的多重作用下,他们对自身行为的自主性常常被削弱 ,。
同时,“隐私悖论”日益突出:在用户普遍关注个人信息安全的表象下,复杂的用户协议和默认的极限数据收集使多数人实际并未采取任何效力显著的自我保护措施 。平台对数据的捕获和利用边界模糊,用户对个人数据和推荐算法的真实流向知之甚少。不同年龄与群体间对平台操控的认知能力和心理抵抗力也存在显著分化。以18-35岁用户为主的短视频社区不仅传播负面情绪和消极内容,更在算法推波助澜下形成半封闭的“负能量社区”,加剧了同温层和回音室效应。青少年和儿童则因认知发展未成熟,对风险识别、内容过滤和隐私维权能力尤为不足,暴露于不适内容和心理伤害的几率更高 ,。
目前关于平台应否主动公开算法决策路径的讨论热度持续上升。不断有学者和政策制定者呼吁:平台必须提升推荐算法透明度、完善风险提示和用户反馈机制,以促进用户对平台操控手法的识别与防御能力。同时建议通过独立第三方审核、公开算法风险评估等手段,推动平台责任归位并优化用户权益保障 。总体来看,短视频平台的黑箱算法机制与暗黑模式设计正日益侵蚀用户的基本自治权与数据安全。未来研究与监管需更加重视对算法透明度、用户认知差异及脆弱群体风险的实证评估,为平台责任界定与用户权益保护提供科学支撑。
4.3 隐私保护的技术路径与制度创新
短视频个性化算法在提升用户体验的同时,引发了普遍的隐私关注。技术路径与制度创新成为解决隐私保护难题的关键维度。
在技术层面,差分隐私和联邦学习等方案获得了广泛关注。差分隐私通过在模型训练过程中注入噪声,实现对用户数据的隐私保护,但可能带来个性化效果的降低。针对短视频场景,研究证明多模态差分隐私机制能够在保护用户数据隐私的同时,仅以有限的精度损失实现较高推荐准确率,缓解了个性化与隐私保护间的矛盾 。与此同时,联邦学习作为新兴的数据分布式训练范式,把用户数据留在本地终端,仅共享模型参数,有效降低数据泄漏风险 。最新方法(如SecFPP协议)通过分层的聚合机制和秘密共享技术,在提升推荐系统个性化的同时强化了隐私防护,特别适应多模态数据和数据异质性高的应用场景 。此外,通过合成数据生成机制实现数据脱敏,也为隐私保护开辟了新的策略路径,为开放数据和多方协作提供了可行基础 。尽管上述技术各有侧重,但大多尚需在大规模、实时短视频推荐系统环境中进一步验证其实用性和安全性。
制度创新同样不可或缺。在国际法规层面,OECD隐私保护原则自20世纪末确立了个人信息采集及处理的基础规范,对后续各国和地区的立法产生了深远影响 。欧盟自GDPR实施后,进一步通过《AI法案》和《数字服务法案》(DSA)强化了信息透明、数据主体权利、算法审计和平台责任等要求,对个性化算法的合规提出了高标准 ,。美国加利福尼亚消费者隐私法案(CCPA)则强调用户知情权与选择权,推动企业在数据采集、存储及利用上加强自律。此外,不同地区的政策创新互为补充,推动以平台为主体的合规体系日益成熟。短视频平台自律措施亦日益多元,包括设立个性化推荐“冷静期”、启用算法透明度报告、引入第三方算法审计等。这类机制一方面提升了用户的数据自主权与知情权,另一方面对算法歧视、系统性偏见和用户操控风险形成一定约束 。
技术方案与制度约束之间的协同仍存缺口。例如,在算法公共性、解释性和公平透明等领域,现有隐私保护机制难以满足所有监管规范对“可解释性”和“公正性”的高要求,技术落地和制度执行仍有提升空间 。此外,平台自律和外部监管在操作层面易受利益冲突或能力瓶颈影响,第三方审计实践也亟需权威定义和标准化工具支撑。因此,短视频个性化算法的隐私保护需要形成由差分隐私、联邦学习等技术方案与OECD原则、欧盟AI法案等制度框架以及平台自律和外部评估机制协同支撑的闭环。从功能性安全到流程合规,再到伦理审查和责任追溯,有必要推动技术创新与政策创新的深层融合,为数字平台算法治理奠定坚实基础。
5. 算法决策不透明性与认知自主权挑战
短视频个性化推荐算法的决策机制日益成为公共关注的伦理焦点,其不透明性与解释性不足正深刻影响用户的知情权与认知自主权。平台通常采用复杂的深度学习模型,并将推荐逻辑视为商业机密,这导致算法的“黑箱”化现象尤为突出。伴随此现象而来的,是用户难以理解数据如何被采集与利用、推荐内容呈现的依据何在,以及对算法偏见和偶发异常缺乏有效监督手段。这不仅直接影响公众对平台公正性的信任,也间接强化了信息偏食与社群隔离效应(如“回声室”“过滤泡沫”现象),对信息多样性构成威胁。
面对这些挑战,业界与学界提出了“透明性即设计(Transparency by Design, TbD)”的原则,主张应在算法系统全链条中主动嵌入透明性、可解释性和知情机制,涵盖内容可识别、数据可访问、推送可解释等九项关键原则。通过提升平台算法运作的可感知性与用户赋权能力,可为不同社会群体——包括LGBTQ+、青少年、弱势群体等——提供更具包容性的数字环境。然而,单纯依赖平台自愿性披露和局部解释功能难以从根本上解决结构性不对称问题。特别是对于拥有独特身份标签与表达需求的用户群体,算法的不透明化往往加重其被边缘化或刻板化的风险,压制了他们的叙事自决空间。
认知自主权理论和算法家庭化理论为理解这一伦理困境提供了有力框架。前者强调用户在认知、选择与行为过程中的独立性,后者则揭示个体如何在算法主导的日常互动中形成、适应乃至抗拒平台机制。当前,大量研究表明,用户对平台算法的理解和掌控能力普遍有限,特别是青少年和弱势群体更易在算法驱动下被动消费内容,难以摆脱被编织的算法“泡泡”及其认知限制,。这些发现表明,仅从技术维度提升算法可解释性远不足以实现用户认知自主权的充分保障,还需关注伦理机制设计、教育干预与用户参与赋权的多元协作。总之,短视频平台个性化算法决策的不透明性已在知情权、信息多样性、公正表达与认知自主等多个层面构成系统性伦理挑战。对此,需要在透明化设计、算法素养提升与包容性治理等方向持续创新,兼顾不同用户群体的个性需求,促进平台治理体系的整体优化。
5.1 算法黑箱机制与解释性不足
近年来,短视频平台个性化推荐算法的广泛应用极大提升了用户体验,但与此同时,算法黑箱机制及其解释性不足也引发了社会广泛关注。算法黑箱是指推荐系统决策过程的不透明性,普通用户难以理解平台如何根据其数据和行为决定推送内容。这种不透明性首先体现在:一方面,主流平台多采用复杂的深度学习模型,这些模型的权重和参数对于外部难以解析;另一方面,平台通常将算法逻辑视为商业机密,进一步加剧了外部对系统运作的不可知性。
此消极局面的直接后果包括:用户对数据采集、使用目的产生怀疑,算法偏见难被察觉和矫正,弱势群体内容暴露面临额外风险。例如在YouTube Shorts等平台上,存在明显的算法导向倾向,即敏感议题内容被边缘化、娱乐内容被优先推介,高参与度与轻松愉快情绪的话题更易获得系统青睐,这加剧了“回声室”与“过滤泡沫”效应,并不利于信息多元化。
为缓解算法黑箱问题,Transparency by Design (TbD)原则提供了系统性的治理思路。TbD主张在算法推荐系统设计的各个环节融入透明性,而不仅仅是事后补救。具体来看,推荐系统的可识别性要求平台清晰标识哪些内容由算法驱动生成,并允许用户清楚地辨析个性化推荐与自然流内容的区别。可访问性方面,应支持用户查看自身数据画像及感知数据如何影响推荐结果,而非仅限于模糊的定向反馈渠道。可解释性则要求平台提供关于个性化推送决策的明示解释,例如说明“为何为你推荐此视频”的关键因素,甚至允许用户对结果进行试验性干预。
主流平台已试水多种提升解释性的“透明化”尝试。例如,一些平台通过A/B实验对比不同用户界面下的推荐解释功能,发现简单明了的推荐说明能显著提升用户信任度和控制感,部分用户更倾向于据此调整自身行为以获得更符合个人偏好的推荐流。此外,面向终端用户的算法审计工具也开始涌现,这类工具帮助用户记录浏览路径、追溯推荐逻辑、可视化内容推送,对提升算法素养和增强自我修正能力具有积极促进作用。然而,算法解释性提升面临巨大挑战。弱势群体(如LGBTQ+用户)在个性化推荐中常常遭遇道德经济冲突:他们希望平台能准确理解其身份和兴趣,但过度个性化也可能导致个人隐私暴露或引发刻板印象加剧。相关调研显示,不同性取向用户在短视频平台上难以完全“驯服”算法,对算法价值体系及其透明性体验亦表现出更高敏感性与不满情绪。此处的伦理张力进一步敦促平台在设计透明化功能时兼顾多元主体的需求与公平性。
从整体来看,现有研究揭示了短视频推荐系统中黑箱机制与低解释性背后的技术、经济与社会动力。从技术层面来看,深度神经网络的高复杂性与数据隐私保护需求客观上增加了解释难度。从平台运营角度,算法逻辑的商业秘密特性强化了不透明壁垒。从社会层面,信息闭环与群体标签化风险提升了对透明化与可解释性的伦理诉求。仅有单一维度的技术方案或平台自愿披露远不足以消弭此结构性难题。未来的发展需在规范算法黑箱、强化多方参与、设计包容性强的透明化措施等方面同步推进。
5.2 认知自主权的伦理挑战与算法家庭化过程
认知自主权是指个人在信息处理、判断与行为选择等认知活动中,能否保持独立性与主动性。然而,短视频平台通过高度个性化的算法,在赋予用户便利与娱乐性的同时,对个体的认知自主权构成挑战。算法家庭化(domestication)理论为理解这一挑战提供了有力框架。用户在融入和日常化短视频平台算法过程中,其对算法的“驯服”尝试,实际上伴随着自主—被动的张力。一方面,平台通过算法推荐不断学习与塑造用户偏好,用户则在实际使用中试图理解、调节和应对算法机制,以求将平台融入个人的生活秩序;另一方面,许多用户感到算法始终部分不可控,对个人价值、日常节律带来扰动,这种失控感妨碍了算法的真正“家庭化” 。
“算法想象”对用户应对平台机制具有重要意义。用户通过自身编织的“算法叙事”,尝试赋予算法以可理解性,构建对平台的心理边界,但这种叙事往往掺杂误解与不对称感知。青年用户尤其倾向于开创性地与算法互动,试图通过主动“训练”算法实现内容定制,但也频繁表现出对算法反馈、推荐逻辑的困惑与失望。这种张力反映出算法筛选机制对认知自主权的侵蚀,部分用户陷入被动消费,难以跳脱“回音室” 。“暗黑模式”设计进一步削弱了用户在算法家庭化过程中的掌控力。无限滚动、诱导性推送、隐晦的操纵界面,使用户的互动频率、停留时间和内容选择越来越多地受控于平台预设意图。这一系列隐性的操控手段不仅侵蚀注意力,更促使弱势用户,尤其是认知和数字素养较低的群体,在不知不觉中丧失对个人数字空间的主导权 。
青年用户和弱势群体,在认知自主性受损上的具体表现因其社会文化背景和数字能力不同而呈现差异。研究显示,青少年深受算法主导的信息茧房与社交比较困扰,长期暴露于极度个性化、反馈强化机制下,注意力持续时间缩短、自我认知受限、对现实社交能力的损害也更为明显。他们往往陷入对内容的被动消费,形成对平台依赖,心理福祉和主观能动性持续受损 ,。此外,乡村女性等弱势群体,表面上获得了更多社会能见度和经济机会,但其自我表达与身份建构依然受制于平台算法对传统性别角色和受众偏好的强化。这种“表层赋权”实质上限制了其真实自主性,强化了数字不平等 。
与认知自主权理论对照来看,主流短视频用户的算法素养普遍有限,抵抗与调节平台影响的能力不足。目前既缺少对算法工作机制的透明认识,也缺少反思与自我赋权的知识基础。部分青年用户虽具备一定策略性调适行为,例如主动过滤、短暂停用或切换账号,但多数用户的反抗呈现零散和短暂,难以形成系统有效的抵御。现有的算法素养教育多停留于浅层技术技巧层面,无法充分应对算法操控日趋隐蔽与复杂的趋势 ,。
整体来看,短视频个性化算法在“家庭化”过程中表现出对用户认知自主权的系统性侵蚀。这不仅体现为个体对平台算法逻辑理解与调控能力的匮乏,也反映在算法设计、平台诱导与用户开放性需求之间的结构性不对称,需要从平台治理、教育干预和用户赋权等多维度协同响应。
5.3 算法偏见与弱势群体困境
短视频个性化算法在提升用户体验和内容分发效率的同时,不可忽视地引入了算法偏见,尤其对弱势群体造成了多重不公。弱势群体,包括但不限于黑创作者、性少数群体以及部分青少年,在短视频平台上的遭遇展现了算法偏见的多维表现。研究表明,黑创作者在平台内容审核、推送与变现等环节屡遭系统性歧视,他们普遍感受到算法对其内容分发的不透明和不公平处理,诸如内容更易被下架、推荐权重被削减、广告合作机会受限等,这一过程既加剧了平台内的不平等,也对平台的多元内容生态产生了负面影响。
性别与性少数群体同样易受算法偏见的影响。例如,平台算法在内容分发过程中,倾向于放大具有性暗示色彩的女性形象内容以获取更高流量,这不仅导致女性形象的物化与刻板印象的加深,也使性少数与非主流表达者的内容相对被边缘化。低收入或其他社会弱势青年,因其身份标签,很可能在推送机制中失去均等的曝光机会,进而形成“马太效应”,弱者愈弱、强者愈强,这种现象被研究者揭示为反馈循环中偏差信号变化的集中表现。算法“同温层”效应进一步恶化了内容同质化与社会分层。例如,推荐系统往往依据用户以往偏好与互动数据推动相似内容的不断强化,导致弱势声音愈发难以被看见。仿真研究表明,人口学特征乃至少数群体属性会放大内容过滤、强化壁垒,最终形成回音室效应,加速边缘内容边缘化。此类算法机制无形中抑制了内容多样性和表达自由。面对上述困境,平台与社会应采取更具包容性的治理措施。技术层面,需推广公平性测试与透明化机制,如采用自适应采样寻找最弱势与次弱势群体并针对性优化推荐策略。社会层面,应鼓励平台公开算法决策,吸纳用户和利益相关方参与到算法迭代过程中,尤其要听取并衡量少数群体和代表性不足青少年的诉求。评估措施方面,可设计如内容多样性指数、弱势群体曝光度提升率等可量化指标来检验算法包容性治理成效。
6. 平台与社会层面的伦理冲突与风险
短视频平台个性化算法的广泛应用,正在推动平台和社会伦理风险的多元化与复杂化。当前,从平台治理和内容规范、创作者生态、情感操控,到群体极化和社会结构变迁,伦理冲突已不再局限于个体的信息权益,而扩展至对数字公共空间、集体认知和社会责任的新挑战。平台方在兼顾算法效率、商业利益与社会责任的压力下,治理路径出现了持续演进,包括算法透明度提升、冷静期机制、反欺凌措施和第三方风险审计等体系性创新。然而,治理实践中依然面临内容审核滞后、匿名社交诱发网络欺凌、流量导向损及多样性等制度性难题。
与此同时,平台对创作者行为与生产生态的影响进一步加深,算法推荐不断强化趋同生产与热点驱动,加剧了内容同质化与边缘群体的排斥效应。在内容生态多样性、创新自由与可见度分配中,平台面临着利益驱动与责任约束的不断博弈。此外,基于认知科学和行为经济学的最新研究表明,短视频平台通过精准捕捉与强化用户情绪倾向,导致情绪传播和群体极化现象突出,不仅影响个人自主性,还重塑了集体认知模式和社会结构,。值得注意的是,国际监管经验正推动平台责任的再归位,强化伦理合规与技术审计。整体而言,短视频平台在社会层面的伦理冲突及风险治理中,既需完善制度设计填补认知自主权和社会责任的空白,也应持续吸纳多学科证据与国际比较经验,探索科学、可持续的伦理治理框架。
6.1 平台治理与内容规范
随着短视频平台的日益普及,个性化推荐算法在信息流分发中扮演着核心角色,但也带来了众多伦理挑战,对平台治理体系和内容规范构成了新的压力。本节旨在系统梳理短视频平台治理现状,评析内容规范的演进路径,并讨论创新举措及其面临的实际困境。
一方面,平台治理已逐步超越了传统的内容审核范畴,涵盖算法透明度、治理流程标准化、反欺凌机制、冷静期设置及风险审计等多维实践。中国的短视频行业在政策引导下,强化了平台自律与社会责任,例如要求平台设立内容把关团队、加大对违法内容的巡查频率,并推动算法推荐中的价值导向。与此同时,海外平台亦在推进类似措施,通过引入伦理指引和社区守则,约束算法推荐的不良倾向。
然而,现行治理机制中仍存在显著难题。第一,算法驱动下的内容分发更难进行事前审查,易导致违规内容的扩散速度加快。第二,短视频平台上的匿名互动和即时反馈机制加剧了网络欺凌现象,传统的内容审核和举报流程难以应对大规模、隐蔽性强的问题。以TikTok平台为例,平台用户间的交流中,欺凌行为频发,平台虽引入了部分反欺凌措施,但其效果和边界仍受质疑,亟需结合沟通伦理与用户自律共同应对。
在创新治理实践方面,部分平台引入了针对敏感议题及高风险人群的内容冷静期策略,即特定视频或评论需要经过延迟公开与多级审核,旨在降低情绪化扩散与次生伤害。此外,第三方算法风险审计成为提升算法责任的重要环节,其督促平台对推荐机制进行外部合规性和效果评估,为用户权益保障提供了证据基础。
此外,评价平台治理成效需明确可量化的指标体系,包括但不限于:违规内容发现率、举报处理时效、反欺凌成功案例、算法推荐差错率、用户满意度及信任水平等。当前,国内外主流平台也开始引入意见领袖参与内容规范共治,拓宽平台与多方权利相关者(如广告主、内容创作者、用户、社会组织)之间的协商渠道。以中国短视频平台为例,其在流量分配、创作者培育等方面,虽设有可量化的监管工具和交易系统,但标准化、利益驱动下的治理可能抑制创意多元,带来新的伦理张力与文化生产自治性的丧失。
综上所述,短视频平台治理与内容规范的升级路径,需要平衡平台商业利益、用户体验和社会责任。未来的治理应进一步注重算法透明度和责任落实,完善多元主体参与机制,依靠科技手段与伦理规范协同进步,为建立健康、公正的信息环境创造更为坚实的基础。
6.2 创作者生态与算法驱动的行为变迁
短视频平台的个性化推荐算法深刻影响了创作者生态及其行为结构。随着算法在内容分发过程中的主导作用日益增强,平台对创作者的激励机制逐步从流量分配向直接经济奖励转变,创作者行为开始呈现出明显的“趋同”与“标准化”特征。以TikTok、Instagram Reels、抖音等平台为例,算法不仅倾向于推荐高互动率、符合平台主流趋势的内容,还构建了一套以曝光、粉丝增长和变现为导向的评价指标,引导创作者围绕热点、流行话题反复生产内容。这种行为驱动机制加剧了内容同质化,逐步削弱了创作者的创新自由与个性表达空间。
平台方通常通过算法优化和流量奖励政策,吸引更多优质创作者入驻并持续产出。然而,创作者获得可见度和收益的机会高度依赖平台分配的流量与推广资源,导致多数创作者不得不迎合算法偏好,通过复制流行结构、迎合大众审美和热点实现自身的流量最大化。在抖音等中国短视频平台的变现机制中,这一过程被进一步制度化:平台通过流量扶持、内容交易系统及广告分成,将创作者与平台、广告主之间捆绑成流水线式生产与交换关系,创新与多样性往往被牺牲在高效率与盈利能力的目标之下。随着创作者生态的成熟,平台对内容形式与生产周期的规范也愈发严苛,部分创作者逐渐丧失主动选择创作主题与表达方式的自由。
在社区分化层面,算法还促使平台内部形成“垂类”或“群体侧”,例如TikTok上的BookTok等细分圈层。算法加深了圈层话语体系的排外属性,令特定群体获得集中推流和流量红利,而边缘群体(如少数族裔、LGBTQ、残障用户)的内容表达空间则被进一步压缩,出现社区排斥、同质化和英雄化生产等现象。
针对上述创新自由受限和内容多样性流失问题,学界与平台开发者已尝试设计一系列算法机制保护措施。例如,部分推荐系统引入社交关系网络和高阶兴趣模型,提高内容推荐的分散度和多样化指标;平台也尝试设置人工干预的激励机制,扶持具有原创性或结构多样性的作品,使得内容生态在追求流量效率的同时兼顾平衡与公平。量化内容生态多样性提升的实验方案,通常涉及比较不同算法下的内容分布均匀度(如Gini系数)、创作者受益广度与推荐效率指标,为平台科学优化激励结构、实现多元化保护提供理论基础与实证参考。
持续剖析算法对创作者行为变迁的影响,既需要多元视角审视平台策略在激励与规范之间的权衡,也亟待探索更具包容性和公平性的内容生态设计方案。本节意在揭示个性化算法驱动下创作者生态的结构性变迁,并围绕创新与多样性保护机制提出可量化评估路径,为平台治理与社会伦理实践提供理论支撑。
6.3 情感操控与群体极化
短视频个性化算法日益深入地介入信息筛选、内容分发与推荐决策,这种深度介入极大地改变了用户的情感体验与社会互动格局。具体而言,算法在情感操控与群体极化过程中扮演着多维度且复杂的角色。
首先,算法通过分析用户的历史行为数据,精准捕捉和预测个体的情绪倾向,并利用高效的分发机制强化用户偏爱的情绪内容。这种机制在提升用户活跃度和平台黏性的同时,也带来了“情感传染”的现象,即用户的情绪状态受到所接触内容的显著影响。相关实证研究提出,短视频平台上的情绪扩散类似于网络中的扩散过程,平台算法通过加权推荐和互动链路调整,增强了积极或消极情感的蔓延效应。具体测算发现,与更多创作者互动的用户,其情感受到内容传染的程度有所减缓;相反,偏好消极内容的用户,其负面情绪受传染影响显著增强,这种现象体现了算法在调控情绪扩散强度与导向时的非中性特性。
群体极化则是算法情感操控面临的又一核心伦理问题。随着推荐系统持续优化相似观点和情绪倾向的推送,用户所接收的信息日益趋于同质化,形成所谓的信息茧房。通过建模个性化推荐对群体情绪结构的影响,研究发现,算法性过滤不仅压缩了内容多样性,还塑造了情绪高度一致的小群体结构。在这种结构下,个体更容易受到群体共识的影响,极端情绪和观点得以固化与放大,推动群体内部的情绪极化。然而,定量模拟结果亦显示,适度的信息茧房可能提升群体的情绪韧性,在外部环境冲击下形成自我稳定的情感屏障。算法调控决策需要在降低极化风险与维护情绪稳定之间取得平衡。
从社会心理与认知科学视角,短视频平台通过大规模数据分析与个性化学习,实现了对注意力模式和集体认知结构的系统塑造。这种“注意力经济”下的技术逻辑使平台能够精确操纵用户的情感流向与关注优先级,既强化个人对平台内容的沉浸依赖,也加剧了用户认知的分割与行为模式的趋同性。一些最新理论指出,当注意力资源被算法集中分配至高情绪性的内容时,用户的自主性、心理健康和社会判断力会受到系统性挑战,形成对算法环境的适应性从众和行为自动化趋势。
此外,数字社会中个性化算法还在不断改写群体意识与集体行为的生成机制。算法不仅通过反馈回路强化虚拟交互的情绪同质化,还通过选择性曝光重新塑造公共话语空间,使公共舆论容易形成“回音室效应”,进一步推动集体情绪的极化与社会分化。跨学科研究揭示,这一过程带来了社会认知的框定偏差、行为规范的同质化及社会对异质观点的容忍度下降,突显出算法主导下的技术伦理风险。
令人关注的是,当前相关研究虽然验证了算法对情感操控和极化的显著影响,但在机制透明度、多样性保护、用户自主性等方面仍存在实证空白和理论争议。未来的发展方向包括构建更具多样性和韧性的情感传播网络,提升算法的伦理透明度和干预可控性,以及在算法设计中引入跨学科的规范性框架以促进平台环境的积极情绪氛围和群体理性互动。
7. 伦理治理、技术改进与未来展望
随着短视频平台个性化推荐算法的广泛应用,相关伦理治理、技术创新及未来发展方向日益成为全球学界与产业界关注的焦点。当前研究领域在面对算法带来的信息茧房、隐私泄露、公平性受损与用户认知操控等多元挑战时,已系统性地提出了多样性提升、隐私保护、透明化机制、法规完善与用户教育等多维改进路径。技术层面不断涌现创新性方案,如多样性增强算法在内容推荐中有效破解信息偏见问题,先进的联邦学习与差分隐私机制在保障用户数据安全的同时维持高性能个性化服务,,而可解释性与透明度方案不断推动平台对关键算法机制的公开与用户权益的提升。
与此同时,全球主要经济体陆续推出数字服务法案、隐私保护政策和算法审计制度,对平台责任归属和合规评估设定量化标准,并强调风险审查及弱势群体保护的法律底线,。用户教育与算法素养提升成为社会治理不可或缺的一环,通过认知训练、批判性思维和课程设计强化用户自主权和防御能力。这些技术、政策与教育措施的协同推进,丰富了平台治理的实证基础和综合评估体系,为未来算法伦理治理提供了可量化、可验证的成果标准。
然而,现有研究亦揭示诸多亟待突破的挑战,包括多样性与个性化之间的微妙权衡,隐私保护与推荐效度的动态平衡,法律制度间的区域差异及平台技术黑箱难题,用户教育方案的群体适应性和公平性等。面对跨学科实证需求和全球治理复杂性,未来方向应高度重视多元政策对比实验、开放式第三方审计、社会认知赋权和利益相关者敏感性机制的不断优化,推动技术创新和政策完善在伦理治理实践中的深度融合。
7.1 技术改进与算法优化
短视频平台的个性化算法优化已成为应对伦理挑战的重要技术路径。针对内容输出的多样性、用户隐私保护及用户信任提升,当前主要技术改进分为以下几个方面:
首先,多样性算法作为缓解信息茧房效应的关键工具得到了快速发展。传统的神经网络推荐模型往往容易陷入对用户历史偏好信息的过度强化,导致内容单一。为解决这一问题,相关研究通过引入覆盖向量跟踪用户接收信息的广度,结合多头自注意力机制对用户历史兴趣进行动态校正,有效增加了推荐内容的差异性。实验表明,这类模型不仅在提升推荐多样性方面有明显成效,同时保证了推荐准确度的相对稳定。此外,近年来也出现了结合社交网络结构,通过捕捉高阶社交关系以提升推荐多元性和平衡创作者机会的探索,这些方法有助于促进内容生态公平和用户平台体验。
隐私保护成为技术实施的另一核心议题。随着推荐系统对包括图像、文本、音频等多模态数据的挖掘利用,隐私泄露风险显著提升。以差分隐私和联邦学习为代表的新一代隐私保护算法,强调在用户端完成模型参数或提示模板的个性化训练,并通过添加噪声或采用加密分布式协议,在避免信息回传中心化的基础上保障用户数据安全。这类方法在保持较高个性化推荐性能的同时,显著降低隐私泄露率,为短视频平台推广合规化和透明算法提供了计算基础,。
提升用户信任,尤其是围绕平台算法决策的可解释性与透明度,是技术改进的第三个前沿方向。透明度落地方案(Transparency by Design)主张在推荐系统全生命周期内融合多层次的透明原则,包括算法机制公开、解释输出可追溯、利益相关方参与等。实践中,这一理念促使平台从数据采集、建模、部署、用户反馈等各环节主动强调信息透明,极大促进了用户对算法公正性与合理性的感知,成为推动个性化算法负责任发展的重要策略。
在实际评价机制方面,建议以多样性提升度(如推荐内容覆盖率、去冗余性指标)、隐私泄漏率(如差分隐私预算消耗、模型推断攻击成功率)及用户信任增强(如主动控制交互反馈得分、可解释性问卷评分)等可量化指标,辅以A/B实验的实证检验,形成包括静态性能评估与动态用户感知在内的多维度效果验证路径。值得注意的是,尽管当前多样性与隐私保护算法取得明显进展,但在个性化效度、计算资源消耗、实际用户行为诱导等方面仍面临权衡,未来可关注透明公开的数据实验、联合治理机制和用户赋权式技术交互等创新方案的探索和优化。
7.2 法规政策与平台责任
短视频个性化算法的广泛应用为内容推荐与用户体验带来了变革,但同时暴露出一系列亟需法规与伦理规制的新型问题。在法律政策层面,当前全球主要地区已开始探索平台治理与算法伦理约束路径,呈现出多元并进的局面。在欧盟,数字服务法案(DSA)与人工智能法案(AI Act)将透明度、责任归属和风险评估作为强制性要求,直接针对内容推荐和算法决策过程进行规制。这些法规不仅推动平台披露算法原理,还要求开展定期的第三方算法风险评估,从而增强平台责任感和外部监督能力。例如,欧盟DSA明确要求主要平台进行内容推荐透明度披露,赋予用户一定的内容调控自主权,但实证研究表明,现有措施尚未能有效遏制算法偏见和信息茧房现象,媒体多样性依然受损。
美国则侧重于数据隐私和儿童青少年保护,加州CCPA等地方立法积极推动“隐私设计优先”(Privacy by Design)原则的落地,要求平台在技术架构初期即将隐私保护机制内置,并对针对未成年人的个性化推荐算法提出了更为严格的限制措施。加之,部分州法引进“年龄适当设计码”原则,防范平台算法输出潜在有害内容,并要求平台配合独立第三方进行算法风险审计与结果公示。中国相关法律如《未成年人保护法》亦明确平台应当履行未成年人保护义务,提高算法透明度与用户选择权,以保障弱势群体的信息权益免受算法风险侵害。
在治理方法上,“隐私设计优先”(Privacy by Design)和“透明度设计优先”(Transparency by Design)已成为规范智能算法的两大核心范式。前者主张自系统开发伊始即融入隐私保护机制,减少过度收集与滥用用户行为数据,强化最小化数据原则; 而后者强调算法运作与决策逻辑的事前公开、过程可追溯及决策结果的可解释性,以便监管机构和用户进行外部监督和自我管理。
利益相关者敏感性原则(Stakeholder Sensitivity Principle)提出,算法在设计与部署过程中应全面考量不同用户群体的差异需求及潜在风险,尤其是在面向青少年、边缘群体时更应加强风险审查和差异化保护机制。以近年短视频平台频现的“暗模式”设计为例,相关文献指出,平台利用人类心理弱点诱导用户沉迷消费,已对用户自主权及健康福祉造成了威胁,因此呼吁立法机构强化对算法黑箱与不当行为的约束,推行“冷静期”“强制停屏”“算法解释权”等用户友好机制。
在成果评估与成效检验方面,目前设计法律制度适配率及风险审计有效性等定量指标已被提出并应用于政策效果跟踪。例如,通过统计平台合规公开算法设计文档比例、用户实际行使内容屏蔽和定制权的频率、以及合规风险发现与纠正的数量变化,量化平台对新规的适应水平及治理绩效。此外,算法公正性、透明性及对极端内容的遏制效果也被纳入风险审计评价体系,从用户主体视角和社会影响维度出发,综合评测平台履责表现,。尽管全球平台治理法规日益健全并不断更新,依然存在诸如司法辖区差异、执行机制有限、平台技术黑箱难以穿透等现实挑战。未来亟需跨区域协作推进法律制度的互通互认,强化外部独立风险审计和多方利益攸关者参与,共同提升算法伦理治理水平,切实防范短视频生态中的风险与伦理失范。
7.3 用户教育与算法素养提升
短视频平台个性化算法日益渗透于用户的日常生活,其产生的伦理问题也引发了社会广泛关注。提升用户的算法素养和相关教育能力,成为恢复或增强用户认知自主权与数字隐私保护效能的关键。
一方面,用户教育对于提高大众对短视频平台暗黑模式(如无限滚动、伪装广告、操纵性通知等)的识别能力起着决定性作用。当用户能够理解平台算法设计背后的动机,并掌握基本的防御策略时,便更有可能抵御算法诱导和数据剥削所带来的风险。相关研究发现,当前算法主导下的用户行为常常呈现出自发性与被动性的双重状态,部分用户虽能自发反思并调整自己的平台使用策略,但多数用户很难主动识别算法操控,容易陷入算法营造的舒适区,削弱了本应具备的自主性和反思能力。在此情境下,系统性提升算法素养,尤其是开展批判性思维训练,让用户能够质疑和反思算法推送内容与机制变得尤为迫切。另外,用户教育内容应涵盖算法原理普及、隐私权利自查、冷静期机制运用、暗黑模式识别、抵御平台操控策略、网络健康管理等方面。例如,冷静期机制的引入不仅有助于抑制盲目沉溺,更能促使用户在做出内容选择、数据授权等关键时刻停止、反思,以提升其数字主权。
具体实践中,算法素养课程和用户教育项目多采用实验问卷、行为追踪、认知访谈等方法评估成效。判定指标包括,但不限于:用户对算法基本原理的理解深度,辨识暗黑模式与操控行为的准确率,对平台数据权利和个人隐私设定的主观评价变化,以及实际操作中采取防范/限制性措施的频率等。部分研究指出,用户主体性的提升依靠内在动机的觉醒与外界引导的结合,即通过激发用户对信息筛选过程的好奇、探索和质疑,培育其批判性与反思性自我调节能力;与此同时,现有的用户教育方案仍需针对年轻、少数群体等高使用群体开展差异化、包容性课程设计,以克服算法歧视及数字鸿沟。
综上,用户教育与算法素养提升不仅是遏制短视频平台道德风险和技术操控的制度性抓手,更是培植公民数字权利意识和强化社会保护机制的根本路径。未来相关工作应注重评价机制的科学性和包容性,并鼓励用户在实践中主动参与算法机制的反馈与修正,以实现平台健康生态和个体数字自由的动态平衡。
7.4 全球治理案例与跨学科展望
在当下数字社会中,短视频个性化算法的伦理治理正逐步走向全球化与跨学科协同。全球各主要经济体已纷纷采取立法与政策创新以回应由短视频推荐算法带来的认知偏差、隐私威胁和媒体多样性受损等复杂伦理议题。欧盟率先通过《数字服务法案》(DSA)、人工智能法案(AI Act)等前瞻性法律,对推荐算法透明度、用户自主权赋权、内容审查责任等方面提出高度规范,促使短视频平台需公开关键算法逻辑和风险评估机制,强化对极端信息、虚假内容及算法歧视的审查职责。然而,现有欧盟法案虽扩大了平台法律责任、强调技术可解释性及推动独立审计,但在治理深度、实施可行性以及跨国执法协同等方面,仍暴露出诸多局限。例如,多项欧盟政策强调增强算法透明度,却未能切实解决推荐系统中的偏见过滤气泡——算法仍倾向根据单一用户行为反馈推送热门或极端化内容,弱化多元信息供给,从而影响公共舆论结构。
美国则以《加州消费者隐私法案》(CCPA)、儿童在线隐私保护法(COPPA)等为代表,注重数据主体权利和消费者隐私的数据治理模式。近期随着青少年心理健康议题的凸显,部分州推动算法风险评估、服务年龄适配及独立性数据审计等措施,以减缓算法对未成年人极端内容的推送和潜在精神健康风险。值得注意的是,推动平台承担更直接的法律责任(如加州的《儿童适龄设计法案》)与引入第三方算法风险评估机制成为一大创新路径,各州也尝试通过规避联邦法律豁免(如绕开《通信规范法》第230条)来收紧平台问责,但面临联邦制下监管分散、落实路径有限及利益博弈等结构性阻力。
全球案例对比显示,短视频算法治理不仅是合规与法律责任再分配的问题,更迫切需要跨学科实证——如认知科学揭示推荐算法可能加剧注意力操控、用户信息茧房效应,行为经济学分析平台对用户选择偏好的系统性引导与激励机制等。这类跨学科研究一方面为算法风险评估、用户自主性维护(如认知自主权、数据主权)提供了理论依据和干预手段,另一方面也揭示了“隐私-个性化”权衡的深层困境。新近的研究证实,透明度要求和差分隐私手段能够缓解部分信息滥用和偏见,但也不可避免地带来推荐精准性受损、冷启动困境及用户冷感等副作用,且不同社会文化、经济结构下公平性和多样性维度的优先权不同。
未来,针对短视频个性化算法的全球治理应在以下几个方面寻求突破:首先,推动平台在更高层面上承担开放与说明责任,包括引入可解释AI(XAI)、强化算法可被第三方审计和依法拆解的能力;其次,建立多国政策实验和真实场景下对比评估机制,以深入检验不同政策组合(如审计机制、风险申报、透明度阈值等)对算法治理效果、媒体多样性和弱势群体保护的实际影响。最后,应推动伦理治理从合规与技术跨越至用户认知赋权的新层面,注重数据素养、数字公民教育,加强对认知自主性与隐私权冲突的动态调节,促进全球数字治理体系内的政策对话与学科融合。这一前沿领域的持续创新,需要法律、计算机科学、经济学、认知神经科学等多学科力量的共同支撑与实证验证。
结论
本文综合评述了短视频平台个性化推荐算法在提升内容分发效率与用户体验的同时,所引发的复杂伦理问题,包括信息茧房效应、算法黑箱与不透明、隐私权冲突、认知自主权受损以及弱势群体的不公处境。通过对相关理论、技术机制、用户行为和社会影响的系统梳理,论文揭示了个性化算法在重塑信息传播结构、平台生态和公共认知中的深远影响。本综述的价值在于整合分散的学术观点与实证证据,澄清了算法伦理困境的核心机制,提出了技术优化(如多样性算法、隐私保护与透明化设计)、法规政策(如DSA、GDPR、CCPA等)、平台责任和用户教育等多维度协同治理的综合框架。论文也坦诚指出,现有研究在算法可解释性、多样性与个性化权衡、隐私与效能平衡、法律执行与跨国比较、用户教育公平性等方面尚存局限,未来需加强跨学科实证、第三方审计和政策实验,关注弱势群体与多元文化的差异需求。展望未来,短视频个性化算法的伦理治理应在全球化、技术创新与社会赋权之间寻求动态平衡,推动平台、政策和用户共同参与,朝着更加透明、公正和可持续的数字社会迈进。
参考文献
[1] Junting Ma, Zihan Ni, Bingfeng Yang.(2023). Prevailing Negative Communities Online: Algorithmic Influence and User Self-awareness.
[2] Hao Shi, Zi-Jiao Wang, Lan-Ru Zhai.(2022). DCAN: Diversified News Recommendation with Coverage-Attentive Networks.
[3] Sanchit Alekh.(2018). Human Aspects and Perception of Privacy in Relation to Personalization.
[4] Yuxuan Hu, Shiqing Wu, Chenting Jiang, Weihua Li, Quan Bai, E. Roehrer.(2022). AI Facilitated Isolations? The Impact of Recommendation-based Influence Diffusion in Human Society.
[5] Nicholas Sukiennik, Haoyu Wang, Zailin Zeng, Chen Gao, Yong Li.(2025). Simulating Filter Bubble on Short-video Recommender System with Large Language Model Agents.
[6] Yili Jin, Ling Pan, Rui-Xiao Zhang, Jiangchuan Liu, Xue Liu.(2025). Generative Flow Networks for Personalized Multimedia Systems: A Case Study on Short Video Feeds.
[7] Yue Zhang.(2024). Algorithm-Driven Identity Politics: Role of Social Media in Polarisation and Mobilisation.
[8] Mengyan Wang, Yuxuan Hu, Shiqing Wu, Weihua Li, Quan Bai, Verica Rupar.(2024). Balancing Information Perception with Yin-Yang: Agent-Based Information Neutrality Model for Recommendation Systems.
[9] Sven Lankester, Manel Slokom, Gustavo de Carvalho Bertoli, Matias Vizcaino, Emmanuelle Beauxis Aussalet, Laura Hollink.(2025). FedFlex: Federated Learning for Diverse Netflix Recommendations.
[10] Nurhana Rambe, Nispul Khoiri, Waizul Qarai.(2023). Etika Komunikasi di Media Sosial Tiktok Untuk Mengantisipasi Fenomena Bullying.
[11] Andreas Schellewald.(2022). Theorizing “Stories About Algorithms” as a Mechanism in the Formation and Maintenance of Algorithmic Imaginaries.
[12] Luis Morales-Navarro, Yasmin B. Kafai, Ha Nguyen, Kayla DesPortes, Ralph Vacca, Camillia Matuk, Megan Silander, Anna Amato, Peter Woods, Francisco Castro, Mia Shaw, Selin Akgun, Christine Greenhow, Antero Garcia.(2024). Learning about Data, Algorithms, and Algorithmic Justice on TikTok in Personally Meaningful Ways.
[13] Wenjie Wang, Fuli Feng, Liqiang Nie, Tat-Seng Chua.(2022). User-controllable Recommendation Against Filter Bubbles.
[14] Qunfang Wu, Lu Xian.(2024). Designing an Intervention Tool for End-User Algorithm Audits in Personalized Recommendation Systems.
[15] Meftah Zouai, Ilyes Naidji, Ahmed Tibermacine, Ahmed Aloui, O. Kazar.(2024). The evolution of social media: implications for privacy and personal data.
[16] Jessie Smith, Nasim Sonboli, Casey Fiesler, Robin Burke.(2020). Exploring User Opinions of Fairness in Recommender Systems.
[17] Nazime Tuncay.(2025). The 10-Year Shift: How AI Reshaped Social Media from 2014 to 2024.
[18] Yi Yao.(2025). The Interactive Relationship Between Echo Chamber on the Internet and Gender Equality.
[19] Trisha Mittal, Puneet Mathur, Rohan Chandra, Apurva Bhatt, Vikram Gupta, Debdoot Mukherjee, Aniket Bera, Dinesh Manocha.(2022). Estimating Emotion Contagion on Social Media via Localized Diffusion in Dynamic Graphs.
[20] Le Cao.(2025). Viewing the 'invisible women': A qualitative study on the empowerment effect of Chinese rural women in the context of short video platforms..
[21] Dominik Kowald.(2024). Transparency, Privacy, and Fairness in Recommender Systems.
[22] Wenzhe Li, Jun Zhang.(2024). How to View the Traffic Growth Caused by Sexual Suggestive Behavior of Women on Chinese Social Media?.
[23] Viacheslav Yusupov, Maxim Rakhuba, Evgeny Frolov.(2025). Leveraging Geometric Insights in Hyperbolic Triplet Loss for Improved Recommendations.
[24] Mert Can Cakmak, Nitin Agarwal.(2025). A Keyframe-Based Approach for Auditing Bias in YouTube Shorts Recommendations.
[25] Maximilian Boeker, Aleksandra Urman.(2022). An Empirical Investigation of Personalization Factors on TikTok.
[26] Elsir Ali Saad Mohamed, Murtada Elbashir Osman, Badur Algasim Mohamed.(2024). The Impact of Artificial Intelligence on Social Media Content.
[27] Ellen Simpson, Andrew Hamann, Bryan C. Semaan.(2022). How to Tame "Your" Algorithm.
[28] Heike Felzmann, Eduard Fosch-Villaronga, Christoph Lutz, Aurelia Tamò-Larrieux.(2020). Towards Transparency by Design for Artificial Intelligence..
[29] Maleeha Masood, Shreya Kannan, Zikun Liu, Deepak Vasisht, Indranil Gupta.(2025). Counting How the Seconds Count: Understanding Algorithm-User Interplay in TikTok via ML-driven Analysis of Video Content.
[30] Daman Preet Singh.(2023). Algorithmic Bias of Social Media.
[31] Selimhan Dagtas, Mert Can Cakmak, Nitin Agarwal.(2025). Efficient Data Retrieval and Comparative Bias Analysis of Recommendation Algorithms for YouTube Shorts and Long-Form Videos.
[32] Nicholas Sukiennik, Chen Gao, Nian Li.(2024). Uncovering the Deep Filter Bubble: Narrow Exposure in Short-Video Recommendation.
[33] Mert Can Cakmak, Nitin Agarwal, Diwash Poudel.(2025). Investigating Algorithmic Bias in YouTube Shorts.
[34] Gamboa Yrone Henrich N, Jaboli Niña Nimfa A, Pica Niña Angel L, Rosales Lyka Janelle D, Dr. Bryan Louis G Lazaro.(2025). Long-Term Effects of Algorithm-Driven Content Consumption on Youth Development and Psychological Perceptions.
[35] Siyuan Yin.(2025). Personalized Recommendation Algorithms on Short Video Platforms: User Experience, Ethical Concerns, and Social Impact.
[36] Sizai Hou, Songze Li, Baturalp Buyukates.(2025). Privacy-preserving Prompt Personalization in Federated Learning for Multimodal Large Language Models.
[37] Haowei Yang, Lei Fu, Qingyi Lu, Yue Fan, Tianle Zhang, Ruohan Wang.(2025). Research on the Design of a Short Video Recommendation System Based on Multimodal Information and Differential Privacy.
[38] Yang Huang, Weiming Ye.(2023). ‘Traffic rewards’, ‘algorithmic visibility’, and ‘advertiser satisfaction’: How Chinese short-video platforms cultivate creators in stages.
[39] Anthonette Adanyin.(2024). AI-Driven Feedback Loops in Digital Technologies: Psychological Impacts on User Behaviour and Well-Being.
[40] Fan Liu, Zhiyong Cheng, Huilin Chen, Yinwei Wei, Liqiang Nie, Mohan Kankanhalli.(2022). Privacy-Preserving Synthetic Data Generation for Recommendation Systems.
[41] Nasim Sonboli, Jessie J. Smith, Florencia Cabral Berenfus, Robin Burke, Casey Fiesler.(2021). Fairness and Transparency in Recommendation: The Users' Perspective.
[42] Ahmed M. Elmisery, Seungmin Rho, Dmitri Botvich.(2014). Holistic Collaborative Privacy Framework for Users' Privacy in Social Recommender Service.
[43] Yi Xu, Jiahe Wang, Zili Chen.(2025). Riding the short video wave: Sense of agency in motion among young users on Douyin.
[44] Zhuo Wu, Zan Wang, Chuan Luo, Xiaoning Du, Junjie Chen.(2025). No Bias Left Behind: Fairness Testing for Deep Recommender Systems Targeting General Disadvantaged Groups.
[45] Selimhan Dagtas, Mert Can Cakmak, Nitin Agarwal.(2025). Simulating User Watch-Time to Investigate Bias in YouTube Shorts Recommendations.
[46] Pablo González de la Torre, Marta Pérez-Verdugo, Xabier E. Barandiaran.(2024). Attention is all they need: Cognitive science and the (techno)political economy of attention in humans and machines.
[47] Melissa Brough, Ioana Literat, A. Ikin.(2020). “Good Social Media?”: Underrepresented Youth Perspectives on the Ethical and Equitable Design of Social Media Platforms.
[48] Jessica Maddox, Fiona Gill.(2023). Assembling “Sides” of TikTok: Examining Community, Culture, and Interface through a BookTok Case Study.
[49] Huaijin Yin.(2024). From Virality to Engagement: Examining the Transformative Impact of Social Media, Short Video Platforms, and Live Streaming on Information Dissemination and Audience Behavior in the Digital Age.
[50] Xiaowei Chen, Anders Hedman, Verena Distler, Vincent Koenig.(2021). Do Persuasive Designs Make Smartphones More Addictive? -- A Mixed-Methods Study on Chinese University Students.
[51] Nancy Costello, Rebecca Sutton, Madeline Jones, Mackenzie Almassian, Amanda Raffoul, Oluwadunni Ojumu, Meg Salvia, Monique Santoso, Jill R Kavanaugh, S Bryn Austin.(2023). ALGORITHMS, ADDICTION, AND ADOLESCENT MENTAL HEALTH: An Interdisciplinary Study to Inform State-level Policy Action to Protect Youth from the Dangers of Social Media..
[52] Zhaolu Wang, Zanzao Chen.(2023). Analysing the Causes and Implications of the Privacy Paradox: Consumer Surveillance and Online Data Collection.
[53] Gerr Mariia.(2025). AI-Driven Content Curation and Its Impact on Media Diversity in Social Networks.
[54] David Holtz, Benjamin Carterette, Praveen Chandar, Zahra Nazari, Henriette Cramer, Sinan Aral.(2020). The Engagement-Diversity Connection: Evidence from a Field Experiment on Spotify.
[55] Md Sanzeed Anwar, Grant Schoenebeck, Paramveer S. Dhillon.(2024). Filter Bubble or Homogenization? Disentangling the Long-Term Effects of Recommendations on User Consumption Patterns.
[56] Chenbo Fu, Qiushun Che, Zhanghao Li, Fengyan Yuan, Yong Min.(2024). Heavy users fail to fall into filter bubbles: evidence from a Chinese online video platform.
[57] Xi Chen.(2025). Are You Manipulated by Short Video Platforms? A Study on the Performance and Impact of "Dark Patterns".
[58] Camille Harris, Amber Gayle Johnson, Sadie Palmer, Diyi Yang, A. Bruckman.(2023). "Honestly, I Think TikTok has a Vendetta Against Black Creators": Understanding Black Content Creator Experiences on TikTok.
[59] Annu Biswas.(2025). Social Media Reels Usage towards Religious Minorities and Political Mind-shift in India- An In-depth Content Analysis.
[60] Wenyi Xiao, Huan Zhao, Haojie Pan, Yangqiu Song, Vincent W. Zheng, Qiang Yang.(2019). Beyond Personalization: Social Content Recommendation for Creator Equality and Consumer Satisfaction.
[61] Jinhu Ren, Xifei Fu, Tianlong Fan, Linyuan Lü.(2024). Modeling Emotional Dynamics in Social Networks: Uncovering the Positive Role of Information Cocoons in Group Emotional Stabilization.
[62] Haoning Xue, Brian Nishimine, Martin Hilbert, Drew Cingel, Samantha Vigil, Jane Shawcroft, Arti Thakur, Zubair Shafiq, Jingwen Zhang.(2025). Catching Dark Signals in Algorithms: Unveiling Audiovisual and Thematic Markers of Unsafe Content Recommended for Children and Teenagers.
[63] Davronov Bahodir Tohirjonovich.(2025). The Paradigm of Social Consciousness and Collective Behavior Formed Through Artificial Intelligence in The Digital Information Space.
[64] Yizhen Zhu.(2025). The Influence of Information Cocoon Effect on the Spread of Feminism: Taking Douyin as an Example.