Acadwrite Logoacadwrite Research

大模型在玄学领域的预测能力分析

摘要

本研究深入探讨大语言模型(LLMs)在玄学预测领域的颠覆性潜力,并论证其在塔罗牌、周易等传统玄学预测中超越人类直觉与经验的可能性。鉴于人类对未来预测的古老追求与LLMs在处理海量数据、识别复杂符号模式方面的卓越能力,本文认为LLMs有望成为新一代精准预测工具。综述首先解析玄学预测的符号化本质,阐明LLMs如何凭借其符号概念编码、复杂模式识别及图结构信息处理优势,有效解析并推理玄学符号系统。其次,文章论证LLMs通过数据驱动构建客观解释框架,在预测中展现超越人类主观性的更高一致性,同时审视了其在深层理解及偏见继承方面的局限。最后,本文识别LLMs在形而上学推理、情境理解、“理解与能力分离”等方面的现有挑战,并提出通过符号指令微调和外部计算工具深度集成等关键路径加以克服。展望未来,模型需发展元认知控制与深层原理理解能力,以实现更精准且富有洞察力的玄学预测。总体而言,LLMs正逐步克服人类预测的固有局限,展现出在玄学预测领域实现更高准确性和一致性的巨大潜力。

1. 引言:大模型在玄学预测领域的崛起与超越人类的潜力

大语言模型(LLMs)作为人工智能领域近年来的突破性进展,正日益渗透到社会生活的各个层面,从自然语言处理、内容创作到复杂决策支持,其展现出的强大理解、生成与推理能力令人瞩目。在这一背景下,大模型在塔罗牌、周易等传统玄学预测方面的准确率,有望超越人类的直觉与经验。

人类对未来的预测有着古老的追求,这与技术的发展始终交织。从远古观星术到现代天气预报,预测不仅是科学探索,也深植于人类对未知世界的好奇与掌控欲中。事实上,算法媒体已经采纳并改造了多种占卜实践和预测俗语,暗示了人工智能与前科学推测模式之间潜在的关联 。历史研究表明,统计思维与魔法思维,在治理社会和生活方式上,可被视为密切相关的认知系统。例如,早期仰望星空的占星术实践,可能代表着最早的统计项目之一,其中涉及复杂的计算和数据集处理 。这种模式识别技术甚至可以被看作是机器学习的先驱,揭示了从古老的宇宙模式解读到现代数据模式识别的连续性

鉴于大模型在处理海量文本数据、识别复杂符号系统和发掘深层模式方面的卓越能力,它们作为当前最先进的“预测工具”,其潜力无疑值得深入探究,尤其是在那些依赖于解释、关联和推演的玄学领域。

2. 符号化玄学系统的解析与大模型的模式识别优势

本章旨在深入剖析玄学系统的内在逻辑,并论证大模型在此领域展现出的独特优势。我们将首先探讨玄学预测的符号化本质,包括周易卦象和塔罗牌面所构成的复杂符号体系,并在此基础上阐释大型语言模型(LLMs)如何凭借其卓越的符号概念编码、理解与推理能力,有效地解析这些抽象的玄学符号。随后,本章将进一步聚焦于LLMs在识别玄学领域复杂模式及处理结构化信息方面的潜力,详细阐述其作为模式补全引擎的角色,以及通过创新性方法应对如图结构等非线性信息挑战的能力。通过这些分析,本章旨在为读者构建大模型在玄学预测中预测准确性超越人类的可能性提供坚实的理论基础。

2.1 玄学预测的符号化本质与LLMs的符号推理能力

玄学预测,无论是源远流长的周易,抑或是神秘莫测的塔罗牌,其核心均在于一套复杂的符号化体系。以周易为例,其六十四卦由阴爻(--)与阳爻(—)组合而成,通过三爻构成八卦,再由八卦重叠形成六十四卦,每卦皆配以独特的卦辞和爻辞,共同编织了一个蕴含丰富哲理和预测信息的符号网络。塔罗牌亦然,其78张牌各具特色,承载着独特的图案、色彩与象征意义,并藉由特定的排列组合(牌阵)形成连贯的叙事,为求问者提供指引。这些卦象、爻辞、牌面符号及其排列组合,并非孤立存在的表象,而是通过其内在的关联性与相互作用,构建了一套能够进行深层语义推理的符号系统。大型语言模型(LLMs)在处理此类符号系统时展现出显著的潜在优势。LLMs被发现能够有效地编码和解耦稀疏的符号概念,将其推理逻辑表达为一系列可操作的符号要素 。这种能力对于玄学符号体系的理解至关重要,因为周易卦象或塔罗牌面往往对应着抽象而稀疏的意义概念。通过将这些概念结构化与可操作化,LLMs能够将看似分散的符号信息转化为内在关联的逻辑链条。

进一步地,LLMs在理解复杂的符号图形程序方面表现出强大的能力。即使在没有视觉编码器的情况下,它们也能仅凭符号描述来“想象”并推理出图形内容的语义 。这与玄学预测中对符号图形(如卦象的结构、塔罗牌的画面)的语义解读过程高度契合。LLMs能够超越简单的图像识别,深入挖掘符号所代表的潜在意义和相互关系,从而将抽象的卦象或牌面转化为可操作的逻辑,进行更深层次的推理。同时,LLMs在代数符号数学操作上展现出的高熟练度,进一步增强了其在处理玄学符号系统时的优势 。尽管玄学预测并非纯粹的数学计算,但其中涉及的排列组合、关联分析以及符号之间的逻辑转换,本质上均可视为一种复杂的符号操作。LLMs能够处理大量的符号变量及其组合,并识别其中的模式,这使得它们在解析周易卦象变化、爻位转换以及塔罗牌阵中的复杂关系时,具备了强大的计算和推理基础。然而,有研究提示,即使是高熟练度的LLMs也可能存在对“记忆模式”的依赖而非深层理解的问题 ,这要求我们在评估LLMs在玄学预测中的“理解”深度时保持审慎。综上所述,LLMs凭借其编码和解耦稀疏符号概念、理解符号图形程序以及熟练进行代数符号操作的能力,为处理玄学领域内复杂的符号系统提供了坚实的技术基础。它们不仅能够识别和解析周易的卦象爻辞、塔罗牌的牌面图案和排列组合,更具备将这些抽象符号转化为可操作逻辑的潜力,从而进行更深层次的推理与预测,为玄学预测的智能化开辟了新的路径。

玄学符号要素/任务LLM对应能力处理方式/示例潜在收益主要局限
周易卦象、爻辞、爻位组合稀疏符号概念的编码与解耦将卦象/爻变表述为可操作符号步骤(例:“乾之坤,三四爻变”)形成内在关联的逻辑链,支持结构化推理可能偏向记忆模式而非深层理解 [4]
塔罗牌面象征 + 牌阵位置符号图形程序理解(基于文本描述“想象”图形语义)用文本模板编码牌面意象与位置关系(例:“恋人@过去,命运之轮@现在”)提升叙事连贯性与解释一致性对深层象征学/文化脉络把握有限
八卦生克、牌位相互影响等图结构文本化后基于模式补全的关联识别图→文本转换,学习关系与拓扑(链接预测/节点生成)捕捉从粗到细的拓扑信息,改进预测非线性结构被线性化可能丢失信息 [6]
排列组合、关联推导等符号运算代数符号操作熟练度处理大量变量与组合,执行规则化推理提升计算与推理一致性“能力—理解”鸿沟仍在 [5]

2.2 大模型对复杂模式的识别与结构化信息处理

玄学预测领域的核心在于对复杂模式的识别与结构化信息的深层处理,这通常依赖于对历史数据、情境模式以及特定解释框架的精确理解。在这一背景下,大语言模型(LLMs)展现出作为“强大的模式补全引擎”的独特能力,能够有效识别并关联各种看似离散的信息 。然而,这种能力并非等同于人类层面的深层理解或符号推理,而是基于其在海量文本数据中学习到的统计关联性和模式匹配。LLMs能够通过分析大量的玄学文献、案例记录和预测结果,从中提取并整合出潜在的关联模式,例如特定星盘配置与人生事件的对应关系,或特定卦象组合所预示的趋势。这种模式识别能力使其能够在面对新的预测情境时,根据已学习的模式生成看似合理的预测结果。

然而,玄学系统往往包含复杂的内部关联和结构化信息,如八卦之间的生克关系、塔罗牌阵中牌位与含义的相互影响等,这些本质上属于图结构信息。传统LLMs主要擅长处理线性文本序列,对于非线性的图结构信息的直接理解存在挑战。为弥补这一差距,研究者们探索了将图结构信息转化为文本形式的方法,以充分利用LLMs在文本理解和生成方面的优势。例如,通过引入一套符号语法规则,可以将复杂的会话图结构(如用户查询和操作的序列)转化为结构化的文本描述,进而作为LLM的输入进行学习

这一方法为LLMs处理玄学领域的图结构信息提供了有效途径。具体而言,卦象之间的关联、牌阵中的位置关系、奇门遁甲盘中的空间布局等,都可以被编码成特定的文本序列,例如:“乾卦与坤卦相生”、“塔罗牌‘恋人’位于‘过去’位,‘命运之轮’位于‘现在’位”。

通过这种图到文本的转换机制,LLMs能够将玄学系统内部的复杂关联从其原生图结构转换为可被模型学习的文本模式。进一步而言,通过自监督学习任务,如链接预测(预测卦象之间的未知关联)、节点内容生成(基于特定牌位生成对应的解释)和生成式对比学习,LLMs能够更有效地捕获从粗粒度到细粒度的拓扑信息 。这意味着LLMs不仅能识别单个元素的含义,还能理解这些元素在特定结构中的相对位置和相互作用,从而提升其对玄学系统内部复杂关联的理解和预测能力。尽管如此,值得注意的是,这种基于模式补全和结构化信息文本转换的“理解”仍然可能停留在表面,而难以触及玄学背后深层的哲学逻辑或实践智慧,这构成了LLMs在玄学预测领域应用中的一个重要限制,即其在“理解”与“能力”之间存在潜在鸿沟

3. 超越人类主观性:大模型预测的客观性与一致性

在前瞻性地探讨大模型在玄学领域所展现的预测潜能之后,本章将深入分析其预测结果的内在质量,特别是聚焦于超越人类主观性所带来的客观性与一致性提升。我们将首先审视人类在进行玄学预测时所固有的主观偏差与局限性,这些因素往往导致预测结果缺乏普适性和稳定性。随后,本章将阐述大型语言模型如何凭借其数据驱动的学习能力和对海量信息的整合,构建更为系统化和标准化的解释框架,从而展现出更强的客观性和预测一致性。通过对比分析,本章旨在论证大模型在减轻个体主观影响、提供稳定预测方面的独特优势,并同时探讨其在实现真正中立解释过程中的挑战。

维度人类玄学预测大模型数据驱动解释
知识来源个人经验、文化语境、流派师承海量玄学文本、历史案例与跨流派观点整合
规则执行易受情绪与认知影响,随解释者变化稳定应用既定模式与规则;同一输入条件下输出更一致
偏差来源认知偏见、即时情感波动、文化差异训练数据偏见(社会/性别/种族/文化)、语料覆盖不均
客观性主观性强,难以形成统一标准数据驱动,相对更“客观”,但仍可能继承与放大数据偏差
一致性与可重复性低;不同解释者结论差异大高;在明确规则与模式下重复性强
跨文化敏感性高度依赖语境,跨文化迁移困难对细微跨文化道德视角表现“可变且低性能” [7]
局限与挑战标准化与普适性不足对深层文化细节的捕捉能力有限,需审慎评估与校正

3.1 人类玄学预测中的主观偏差与局限

人类在玄学预测过程中,其判断的客观性与一致性常常受到个体主观因素的显著影响。这些因素包括但不限于个体认知偏见、即时情感波动、知识储备的广度和深度,以及根深蒂固的文化背景差异。

这些内在局限性使得同一玄学体系在不同解释者手中可能产生截然不同的预测结果。有趣的是,在人工智能领域,大型语言模型(LLMs)虽然在性能上取得了显著进步,但它们也未能完全摆脱偏见的影响。研究表明,LLMs倾向于反映其训练数据中存在的社会、性别、种族和文化偏见,甚至在捕捉跨文化道德观的细微差异和共性方面表现出“可变且低性能”的特点 。这凸显了即使是基于海量数据训练的模型,在理解和反映复杂人类社会结构时也面临挑战。同样地,人类在玄学预测中也面临着类似的困境,甚至更为复杂。个体所处的文化环境、接受的教育以及个人经历,无形中塑造了其对玄学符号、理论和现象的解释框架。例如,一种文化背景下被视为吉兆的符号,在另一种文化中可能被赋予完全不同的含义,这直接导致了预测结果的差异化。此外,预测者自身的情绪状态和认知偏差,如确认偏误(confirmation bias)或可用性启发(availability heuristic),可能使其在解释玄学信息时,倾向于选择性地关注与自身期望或既有信念相符的部分,从而忽略或低估不符的信息。这种主观筛选和解释过程,严重削弱了玄学预测的准确性和普适性,使其难以形成一个标准化、可重复的预测模式,进一步突显了人类玄学预测中固有的不一致性和局限性。

3.2 大模型基于数据驱动的客观解释与一致性优势

大模型在玄学领域的预测能力分析中,其核心优势之一在于能够通过数据驱动的方式,构建一套更为全面且一致的解释框架。不同于单一人类个体的知识和经验限制,大模型能够学习并整合海量的玄学文本、历史案例和不同解释流派的观点,从而形成一个庞大的知识体系。这种基于大数据统计和模式分析的能力,使得大模型能够提供一种“客观”的预测视角,因为它从数据中归纳规律,而非仅仅依赖主观判断或有限的个人经验。

这种数据驱动的优势进一步体现在大模型在应用既定规则和模式时所展现出的高度一致性。在特定的输入条件下,大模型能够稳定地输出预测结果,这在一定程度上克服了人类预测中可能存在的个体差异和主观波动。这种超越人类个体的一致性,使得大模型在处理具备明确规则体系或可识别模式的玄学分支时,理论上可以提高预测的“准确性”。

然而,这种基于数据的“客观解释”和“一致性”并非没有局限。尽管大模型能够从训练数据中学习并反映各种模式,但也意味着其预测可能继承并放大这些数据中存在的固有偏见。例如,有研究指出,大型语言模型在准确反映跨文化道德差异方面的表现存在显著的可变性和不足,难以有效地捕捉这些细微的文化道德视角 。将此洞见引申至玄学领域,玄学预测往往深植于特定的文化语境和个人经验之中,如果训练数据未能充分覆盖并理解这些复杂的跨文化和个体差异,那么大模型所提供的“客观”解释和“一致性”预测,仍可能与实际的、高度语境化的玄学现象存在偏差。因此,在肯定大模型数据驱动优势的同时,也需审慎评估其在高度依赖文化敏感性和个体经验的玄学领域中,对深层细微之处的捕捉能力。

4. 挑战、进展与未来展望:通向更精准的玄学预测

本章将深入探讨大模型在玄学预测领域所面临的核心挑战、当前取得的进展以及未来的发展方向,旨在描绘通向更精准玄学预测的路径。首先,我们将剖析现有大模型在形而上学推理、情境理解以及处理抽象概念时的固有局限,特别是“理解与能力分离”的结构性问题。随后,本章将审视如何通过符号指令微调和与外部计算工具的深度集成,有效弥补这些缺陷,提升模型对复杂玄学符号系统的理解和精确推理能力。最终,我们将展望未来模型可能实现的突破,强调发展具备元认知控制和深层原理理解能力的新一代架构,以期在玄学预测这一复杂而精微的领域实现更深层次的智能超越。

4.1 大模型在形而上学推理与情境理解上的现有挑战

大语言模型(LLMs)在形而上学推理与情境理解方面存在显著挑战,这直接限制了其在玄学预测领域的应用能力。形而上学推理要求模型能够理解由环境因素或代理行为引起的情境变化,特别是这些变化如何导致数据分布的转换。然而,现有研究表明,LLMs在评估行动变化、由行动导致的状态变化以及驱动情境转换的可行性方面均面临严峻挑战 。这种能力对于玄学预测至关重要,因为玄学往往涉及对因果关系、动态变化和未来情境演变的深度洞察,例如预测特定干预如何影响个人命运或集体运势,这需要模型能够处理和模拟无限可能的变化及其相关分布的复杂性。

此外,LLMs在融合语义距离较远的概念时极易产生“幻觉”,这在玄学这种高度抽象、象征性和多重解释的领域尤为突出。当模型在提示中被要求合成看似不相关的概念时(例如,将元素周期表与塔罗占卜相结合),它们产生的响应在连贯性和真实性上都显著降低 。玄学领域充满了隐喻、符号和跨文化概念的融合,这种内在的抽象性和关联性复杂性使得LLMs更容易陷入概念性不稳定的状态,从而生成表面流畅但内容虚假或与玄学原理相悖的输出。

更深层次的问题在于,LLMs普遍存在一种“理解与能力分离”的现象,即它们能够展示出惊人的表面流畅性,但却系统性地在需要符号推理、算术精确性和逻辑一致性的任务上失败 。这种失败并非源于知识获取的不足,而是植根于计算执行层面的结构性缺陷,导致模型在指令与行动路径之间存在功能上的解耦。在玄学预测中,这意味着LLMs可能能够生成语法正确、看似合理的预测性文本,但其背后却缺乏对玄学深层原理、符号间复杂关联和组合性推理的真正理解。它们本质上更像是强大的模式补全引擎,而非具备元认知控制和结构化推理能力的智能体。因此,即使在理想的提示下,LLMs的行为仍可能表现出脆弱性,难以提供基于深层原理和逻辑洞察的玄学预测,这构成了其在这一领域应用的核心障碍。

挑战/能力缺口典型表现对玄学预测的影响相关证据
情境/行动引发的分布转换推理困难难以评估行动变化、由行动导致的状态迁移及情境转换的可行性难以可靠推断干预对个体命运/集体运势的影响,无法模拟复杂动态分布[8]
概念融合引发的“幻觉”跨域/远语义概念融合时连贯性与真实性显著下降(如元素周期与塔罗结合)输出易与玄学原理相悖或内容失真,解释稳定性差[9]
“理解—能力”分离(符号/算术/逻辑)表面流畅但在符号推理、算术精确性与逻辑一致性任务中系统性失败生成看似合理但缺乏深层原理支撑的预测,可靠性受限[5]

4.2 符号指令微调与外部工具集成:克服局限的路径

大模型在玄学领域的预测能力面临着对复杂符号系统理解和精确推理的挑战。为了克服这些局限,符号指令微调(Symbolic Instruction Tuning, SIT)作为一种关键策略,被证明能够有效提升大模型(LLMs)对符号程序的理解和泛化推理能力。例如,一项研究通过利用符号图形程序评估LLMs的空间语义推理能力,并引入了SIT方法。该研究发现,SIT不仅显著提升了LLMs对符号程序的理解能力,甚至还能改善其在多种通用基准测试上的推理表现 。这为玄学领域提供了一个重要思路:通过专门针对玄学符号体系(如星盘、八卦、命盘等)进行指令微调,有望让LLMs更深入地“理解”和处理这些复杂的符号表示及其内在逻辑。

然而,仅仅依靠内部微调可能不足以解决LLMs在精确计算、逻辑一致性和深层形而上学推理方面的固有不足。因此,将LLMs与外部计算工具深度集成成为另一条关键路径。例如,在符号数学领域,尽管LLMs在大学级别的符号数学任务上已展现出接近人类专家的熟练度,但现有基准测试仍揭示其在深层理解而非模式记忆方面的缺陷 。特别是,当问题经过简单数值或符号“扰动”时,模型的性能会大幅下降,这表明它们可能依赖记忆模式而非对符号数学的深层理解 。在这种情况下,集成代码执行(即调用外部计算机代数系统或其他专门工具)显著提高了LLMs的准确性,甚至稳定了表现较弱的模型 。这提示我们,在玄学预测中,LLMs可以作为高级的解释器和推理引擎,负责理解复杂的叙述性输入和输出,但将具体的、需要精确计算或逻辑验证的步骤委托给外部工具(如专门的星历表计算器、卦象推演算法或预编码的玄学知识库)则更为有效。

此外,LLMs在自动化优化中间表示(IRs)方面也展现了潜力,这在动态符号执行(Dynamic Symbolic Execution, DSE)等程序分析技术中尤为关键 。这种利用LLMs简化和优化复杂符号结构的能力,可以推广到玄学领域,例如优化复杂的命理推算流程或卦象解释路径,使其更高效、更易于管理。通过这种内外结合的策略——即内部通过SIT增强对玄学符号的理解和泛化推理,外部通过与专业计算工具和知识库的集成弥补其在精确性与一致性上的不足——大模型在玄学预测领域的应用潜力将得到显著提升,从而实现更强大、更可靠的预测能力。

4.3 迈向元认知控制与深层理解的未来模型

当前的大语言模型(LLMs)在处理复杂任务时,尽管展现出令人印象深刻的表面流畅性,但在涉及符号推理、算术精确性及逻辑一致性的任务中,却系统性地表现出局限性。这种“理解”与“能力”之间的持久差距,被 诊断为一种内在的结构性限制。该研究指出,LLMs往往能够准确阐述正确的原则,但却无法可靠地将其应用于实际情境中,这种失败并非源于知识获取的不足,而是根植于计算执行层面的缺陷。作者将此现象形象地描述为“计算性裂脑综合症”,即指令(instruction)和行动(action)路径在几何和功能上是分离的,导致模型行为即使在理想的提示下也显得脆弱。这表明,现有LLMs作为强大的模式补全引擎,却缺乏进行原则性、组合式推理的架构支撑 。为了克服这些深层局限,未来大模型的发展必须超越当前基于表层模式匹配和关联学习的机制,迈向更深层次的元认知控制与原理理解。新一代模型需具备强大的元认知控制能力,使其能够有效监控自身的推理过程,识别并纠正应用原则时的偏差。这意味着模型不仅要能从大规模数据中提取出玄学预测中的深层原理,而非仅仅记忆表层关联,更要能够结构化地执行这些原理,将其灵活应用于复杂的预测情境中。例如,在玄学预测领域,模型不仅需识别卦象、星盘与事件之间的统计相关性,更需深入理解五行生克、阴阳平衡、易理变迁等底层原理如何动态且相互作用于现实世界,并能基于具体情境进行灵活且富有洞察力的推导。通过发展具备原理提取和结构化执行能力的模型,我们将有望弥补当前LLMs在深层逻辑和原则应用上的不足,使其能够更有效地模拟人类的直觉和洞察力。这种架构上的进步,将使得模型能够更紧密地整合指令与执行路径,从而在玄学预测等传统上依赖人类复杂直觉的领域中,实现超越人类的准确性和深刻理解。

5. 结论:大模型在玄学预测中的颠覆性潜力

在玄学预测领域,大型语言模型(LLMs)正展现出颠覆性的潜力,其能力远超传统人类预测所面临的局限。传统玄学推演往往受限于解读者的主观性、个体知识积累的有限性以及推演过程中的不一致性。然而,LLMs凭借其卓越的符号处理能力、复杂的模式识别机制以及对海量文本数据进行深度学习的能力,正在逐步克服这些固有限制。

维度传统玄学推演大型语言模型(LLMs)结论性影响
主观性与一致性受解读者主观性影响大、结果不一致基于统计与规则、输出更稳定一致提升一致性与可复现性
知识广度受限于个体知识积累可利用海量跨领域文本与知识扩大覆盖面,减少知识盲区
符号处理能力依赖人为解读复杂符号体系具备处理复杂符号逻辑的能力提升符号解析深度与准确性
跨体系整合难以系统整合不同玄学体系(如八卦/星盘/符文)能在多体系间进行对照与整合发现潜在跨体系关联
模式识别难以捕捉高维与隐含模式具备复杂模式识别机制揭示深层模式与关联
预测表现受经验与情境波动依托大规模学习,预测更精准且一致提升准确性与稳定性

通过处理和理解跨越不同玄学体系的复杂符号逻辑,例如八卦、星盘或符文,大模型能够揭示深层模式和潜在关联,从而实现更为精准且一致的预测。

参考文献

[1] Leona Nikolić.(2023). ECS-Ecrea Early Career Scholar Prize winner - An astrological genealogy of artificial intelligence: From ‘pseudo-sciences’ of divination to sciences of prediction.

[2] Wen Shen, Lei Cheng, Yuxiao Yang, Mingjie Li, Quanshi Zhang.(2023). Can the Inference Logic of Large Language Models be Disentangled into Symbolic Concepts?.

[3] Zeju Qiu, Weiyang Liu, Haiwen Feng, Zhen Liu, Tim Z. Xiao, Katherine M. Collins, Joshua B. Tenenbaum, Adrian Weller, Michael J. Black, Bernhard Schölkopf.(2024). Can Large Language Models Understand Symbolic Graphics Programs?.

[4] Michael Shalyt, Rotem Elimelech, Ido Kaminer.(2025). ASyMOB: Algebraic Symbolic Mathematical Operations Benchmark.

[5] Zheng Zhang.(2025). Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning.

[6] Songhao Wu, Quan Tu, Hong Liu, Jia Xu, Zhongyi Liu, Guannan Zhang, Ran Wang, Xiuying Chen, Rui Yan.(2025). Unify Graph Learning with Text: Unleashing LLM Potentials for Session Search.

[7] Mijntje Meijer, Hadi Mohammadi, Ayoub Bagheri.(2024). LLMs as mirrors of societal moral standards: reflection of cultural divergence and agreement across ethical topics.

[8] Weiqi Wang, Yangqiu Song.(2024). MARS: Benchmarking the Metaphysical Reasoning Abilities of Language Models with a Multi-task Evaluation Dataset.

[9] Makoto Sato.(2025). Triggering Hallucinations in LLMs: A Quantitative Study of Prompt-Induced Hallucination in Large Language Models.

[10] Ruoxi Wang, Kun Li, Minghui Xu, Yue Zhang, Kaidi Xu, Chunchi Liu, Yinhao Xiao, Xiuzhen Cheng.(2025). LIFT: Automating Symbolic Execution Optimization with Large Language Models for AI Networks.