期刊文献+
共找到5,164篇文章
< 1 2 250 >
每页显示 20 50 100
Extreme gradient boosting with Shapley Additive Explanations for landslide susceptibility at slope unit and hydrological response unit scales
1
作者 Ananta Man Singh Pradhan Pramit Ghimire +3 位作者 Suchita Shrestha Ji-Sung Lee Jung-Hyun Lee Hyuck-Jin Park 《Geoscience Frontiers》 2025年第4期357-372,共16页
This study provides an in-depth comparative evaluation of landslide susceptibility using two distinct spatial units:and slope units(SUs)and hydrological response units(HRUs),within Goesan County,South Korea.Leveraging... This study provides an in-depth comparative evaluation of landslide susceptibility using two distinct spatial units:and slope units(SUs)and hydrological response units(HRUs),within Goesan County,South Korea.Leveraging the capabilities of the extreme gradient boosting(XGB)algorithm combined with Shapley Additive Explanations(SHAP),this work assesses the precision and clarity with which each unit predicts areas vulnerable to landslides.SUs focus on the geomorphological features like ridges and valleys,focusing on slope stability and landslide triggers.Conversely,HRUs are established based on a variety of hydrological factors,including land cover,soil type and slope gradients,to encapsulate the dynamic water processes of the region.The methodological framework includes the systematic gathering,preparation and analysis of data,ranging from historical landslide occurrences to topographical and environmental variables like elevation,slope angle and land curvature etc.The XGB algorithm used to construct the Landslide Susceptibility Model(LSM)was combined with SHAP for model interpretation and the results were evaluated using Random Cross-validation(RCV)to ensure accuracy and reliability.To ensure optimal model performance,the XGB algorithm’s hyperparameters were tuned using Differential Evolution,considering multicollinearity-free variables.The results show that SU and HRU are effective for LSM,but their effectiveness varies depending on landscape characteristics.The XGB algorithm demonstrates strong predictive power and SHAP enhances model transparency of the influential variables involved.This work underscores the importance of selecting appropriate assessment units tailored to specific landscape characteristics for accurate LSM.The integration of advanced machine learning techniques with interpretative tools offers a robust framework for landslide susceptibility assessment,improving both predictive capabilities and model interpretability.Future research should integrate broader data sets and explore hybrid analytical models to strengthen the generalizability of these findings across varied geographical settings. 展开更多
关键词 Landslide susceptibility mapping Hydrological response units Slope units Extreme gradient boosting Hyper parameter tuning Shapley additive explanations
在线阅读 下载PDF
MMGCF: Generating Counterfactual Explanations for Molecular Property Prediction via Motif Rebuild
2
作者 Xiuping Zhang Qun Liu Rui Han 《Journal of Computer and Communications》 2025年第1期152-168,共17页
Predicting molecular properties is essential for advancing for advancing drug discovery and design. Recently, Graph Neural Networks (GNNs) have gained prominence due to their ability to capture the complex structural ... Predicting molecular properties is essential for advancing for advancing drug discovery and design. Recently, Graph Neural Networks (GNNs) have gained prominence due to their ability to capture the complex structural and relational information inherent in molecular graphs. Despite their effectiveness, the “black-box” nature of GNNs remains a significant obstacle to their widespread adoption in chemistry, as it hinders interpretability and trust. In this context, several explanation methods based on factual reasoning have emerged. These methods aim to interpret the predictions made by GNNs by analyzing the key features contributing to the prediction. However, these approaches fail to answer critical questions: “How to ensure that the structure-property mapping learned by GNNs is consistent with established domain knowledge”. In this paper, we propose MMGCF, a novel counterfactual explanation framework designed specifically for the prediction of GNN-based molecular properties. MMGCF constructs a hierarchical tree structure on molecular motifs, enabling the systematic generation of counterfactuals through motif perturbations. This framework identifies causally significant motifs and elucidates their impact on model predictions, offering insights into the relationship between structural modifications and predicted properties. Our method demonstrates its effectiveness through comprehensive quantitative and qualitative evaluations of four real-world molecular datasets. 展开更多
关键词 INTERPRETABILITY Causal Relationship Counterfactual Explanation Molecular Graph Generation
在线阅读 下载PDF
A Study on the Inter-Pretability of Network Attack Prediction Models Based on Light Gradient Boosting Machine(LGBM)and SHapley Additive exPlanations(SHAP)
3
作者 Shuqin Zhang Zihao Wang Xinyu Su 《Computers, Materials & Continua》 2025年第6期5781-5809,共29页
The methods of network attacks have become increasingly sophisticated,rendering traditional cybersecurity defense mechanisms insufficient to address novel and complex threats effectively.In recent years,artificial int... The methods of network attacks have become increasingly sophisticated,rendering traditional cybersecurity defense mechanisms insufficient to address novel and complex threats effectively.In recent years,artificial intelligence has achieved significant progress in the field of network security.However,many challenges and issues remain,particularly regarding the interpretability of deep learning and ensemble learning algorithms.To address the challenge of enhancing the interpretability of network attack prediction models,this paper proposes a method that combines Light Gradient Boosting Machine(LGBM)and SHapley Additive exPlanations(SHAP).LGBM is employed to model anomalous fluctuations in various network indicators,enabling the rapid and accurate identification and prediction of potential network attack types,thereby facilitating the implementation of timely defense measures,the model achieved an accuracy of 0.977,precision of 0.985,recall of 0.975,and an F1 score of 0.979,demonstrating better performance compared to other models in the domain of network attack prediction.SHAP is utilized to analyze the black-box decision-making process of the model,providing interpretability by quantifying the contribution of each feature to the prediction results and elucidating the relationships between features.The experimental results demonstrate that the network attack predictionmodel based on LGBM exhibits superior accuracy and outstanding predictive capabilities.Moreover,the SHAP-based interpretability analysis significantly improves the model’s transparency and interpretability. 展开更多
关键词 Artificial intelligence network attack prediction light gradient boosting machine(LGBM) SHapley Additive explanations(SHAP) INTERPRETABILITY
在线阅读 下载PDF
Research on the Issue of False Explanations in Artificial Intelligence for Medical Image Analysis
4
作者 Weihan Jia 《Expert Review of Chinese Medical》 2025年第3期24-32,共9页
Deep learning models have become a core technological tool in the field of medical image analysis.However,these models often suffer from a lack of transparency in their decision-making processes,leading to challenges ... Deep learning models have become a core technological tool in the field of medical image analysis.However,these models often suffer from a lack of transparency in their decision-making processes,leading to challenges related to trust and interpret ability in clinical applications.To address this issue,explainable artificial intelligence(XAI)techniques have been applied to medical image analysis.While showing promising potential,XAI also brings significant ethical risks in practice—most notably,the problem of spurious explanations.Such explanations may rise further concerns regarding patient privacy,data security,and the attribution of decisionmaking authority in medical contexts.This paper analyzes the application of XAI methods—particularly saliency aps—in medical image interpretation,identifies the underlying causes of spurious explanations,and proposes possible mitigation strategies.The aim is to contribute to the responsible and sustainable integration of explainable AI into clinical practice. 展开更多
关键词 medical image analysis explainable artificial intelligence spurious explanation
在线阅读 下载PDF
基于空洞因果卷积的学生成绩预测及分析方法
5
作者 赖英旭 张亚薇 +1 位作者 庄俊玺 刘静 《北京工业大学学报》 北大核心 2026年第3期252-267,共16页
针对使用循环神经网络对学生长序列行为数据进行特征提取存在梯度消失或爆炸、长期依赖关系提取能力不足、深度学习模型缺乏可解释性等问题,提出一种面向长序列数据的空洞因果卷积(dilated causal convolution,DCC)成绩预测及分析方法... 针对使用循环神经网络对学生长序列行为数据进行特征提取存在梯度消失或爆炸、长期依赖关系提取能力不足、深度学习模型缺乏可解释性等问题,提出一种面向长序列数据的空洞因果卷积(dilated causal convolution,DCC)成绩预测及分析方法。首先,采用生成对抗网络(generative adversarial network,GAN)生成符合少数类学生原始行为数据分布规律的新样本,并将新样本加入学生数据集中以达到均衡数据集的目的;然后,提出一种基于DCC的成绩预测模型,DCC和门控循环单元(gated recurrent unit,GRU)相结合的结构提高了模型对长序列数据依赖关系的提取能力;最后,使用沙普利加性解释(Shapley additive explanations,SHAP)方法并结合三因素理论对影响学生成绩的因素进行重要性分析和解释。在公开数据集上的实验结果表明,在成绩预测任务中提出的方法与基线方法相比,加权F1分数提高了约6个百分点,并进一步验证了所提方法中关键模块的有效性和模型的泛化能力。此外,通过对比优秀学生和风险学生的学习特点发现,良好的学习习惯、课堂学习的主动性以及不同行为环境等因素会对学生成绩产生重要影响。 展开更多
关键词 学生成绩预测 空洞因果卷积(dilated causal convolution DCC) 不均衡数据 生成对抗网络(generative adversarial network GAN) 沙普利加性解释(Shapley additive explanations SHAP)方法 成绩影响因素分析
在线阅读 下载PDF
基于预训练模型的医学习题解析半自动生成方法研究
6
作者 孙月萍 王娟 +4 位作者 董良广 刘燕 杨丽 李姣 侯丽 《医学信息学杂志》 2026年第2期73-79,共7页
目的/意义探索基于预训练语言模型的半自动化解决方案,提高医学习题解析生成效率与质量。方法/过程引入基于MC-BERT的混合智能增强框架,先自动完成题目结构识别、知识点抽取,生成初步解析,再通过人工校验,严格把控内容的准确性与规范性... 目的/意义探索基于预训练语言模型的半自动化解决方案,提高医学习题解析生成效率与质量。方法/过程引入基于MC-BERT的混合智能增强框架,先自动完成题目结构识别、知识点抽取,生成初步解析,再通过人工校验,严格把控内容的准确性与规范性,形成可追溯的解析语料。结果/结论该方法能够显著提高解析生成效率,降低人工成本,同时保障解析内容与医学教学大纲、教材知识体系的一致性和可追溯性,为医学教育智能化提供了可行路径。 展开更多
关键词 预训练模型 医学习题解析 半自动化生成 解析推荐
暂未订购
基于“季节-源汇”下的山东大学主城区热环境驱动因素分析 被引量:1
7
作者 范强 相梦雪 +1 位作者 张兵 王丽芳 《生态环境学报》 北大核心 2026年第1期75-87,共13页
地表温度(LST)作为衡量城市热环境的关键指标,其时空分异特征与驱动机制已成为当前研究的前沿方向。传统线性模型在解析热环境系统的非线性动力学特征时存在局限性,而LightGBM模型结合Shapley加性解释(SHAP)的可解释性算法为揭示复杂驱... 地表温度(LST)作为衡量城市热环境的关键指标,其时空分异特征与驱动机制已成为当前研究的前沿方向。传统线性模型在解析热环境系统的非线性动力学特征时存在局限性,而LightGBM模型结合Shapley加性解释(SHAP)的可解释性算法为揭示复杂驱动机制提供了新方法。该研究针对现有研究中“源-汇”尺度景观效应量化与季节动态机制解析的不足,创新性地构建了以局地气候区为依托的“季节-源汇”二维分析框架。以山东大学主城区为研究区,融合多源遥感数据与地理空间数据,深入探究了城市空间形态、自然环境要素及人类活动对LST的耦合影响机制,量化分析了9类驱动因子在四季“源-汇”景观中对LST的贡献度,发现自然环境因素在城市热环境调控中占据主导地位,数字高程、归一化植被指数和改进归一化水体指数是关键调控因子。城市空间形态对LST的影响虽小于自然环境因素,但建筑容积率、天空开阔度和建筑覆盖率等因素仍具有显著作用。人类活动对LST的影响相对较小,但兴趣点数据和道路密度在局部区域仍存在一定的影响。这些发现为不同季节和源汇区域的差异化规划提供了战略性建议,为城市热环境管理提供了科学依据。应充分利用自然环境资源,合理规划建筑布局,以优化城市热环境,提升城市生态宜居性。 展开更多
关键词 城市热岛效应 LightGBM模型 Shapley加性解释(SHAP) “源-汇”尺度 季节 局地气候区(LCZ)
在线阅读 下载PDF
怎样构想更为合理的最佳说明推理方案?
8
作者 王航赞 《自然辩证法研究》 北大核心 2026年第1期28-34,共7页
依据假说的说明性来判定并辩护其中那个最佳说明正确的推理情形并不具有充分的有效性。要形成能确切应对这种推理所面临的说明与真理在关联上较弱的缺点的方案,就得进一步分析和确定该推理成立的条件,探讨其中的最佳说明体现的比较含义... 依据假说的说明性来判定并辩护其中那个最佳说明正确的推理情形并不具有充分的有效性。要形成能确切应对这种推理所面临的说明与真理在关联上较弱的缺点的方案,就得进一步分析和确定该推理成立的条件,探讨其中的最佳说明体现的比较含义,表明推得有根据的结论还需要什么样的前提,以强化前提和结论间的逻辑支持关系,促进最佳说明推理的论证强度,使其成为更为卓越的论证性而非说明性推理。 展开更多
关键词 最佳说明的推理 论证 方案
原文传递
机器学习模型预测全髋关节置换术后病人谵妄风险的效能研究
9
作者 张小英 刘伟 +2 位作者 谢美英 周建国 杨佳 《护理研究》 北大核心 2026年第6期894-905,共12页
目的:基于可解释的机器学习(ML)模型预测全髋关节置换术后病人谵妄风险,为病人制定个性化干预方案提供参考。方法:选取2020年1月-2024年12月在赣州市人民医院接受全髋关节置换术的622例病人为研究对象。于术后1~3 d采用意识模糊评估表(C... 目的:基于可解释的机器学习(ML)模型预测全髋关节置换术后病人谵妄风险,为病人制定个性化干预方案提供参考。方法:选取2020年1月-2024年12月在赣州市人民医院接受全髋关节置换术的622例病人为研究对象。于术后1~3 d采用意识模糊评估表(CAM)判断病人是否出现术后谵妄。通过Boruta算法筛选术后谵妄风险重要特征变量。以7∶3比例将622例病人随机分为训练集(442例)和测试集(180例),构建和训练9种机器学习模型并进行十倍交叉验证。采用受试者工作特征(ROC)曲线下面积(AUC)评估最佳机器学习模型。使用决策曲线分析评估模型临床实用价值。使用SHapley加法解释(SHAP)条形图、摘要图、依赖图和力图解释和可视化机器学习模型。结果:622例全髋关节置换术病人的术后谵妄发生率为30.87%。Boruta算法筛选出9个术后谵妄风险重要特征变量,根据特征重要性评分(Z值)由高至低依次为C反应蛋白(CRP)、麻醉持续时间、白蛋白(ALB)、年龄、总胆红素(TB)、空腹血糖(FBG)、术中失血量(IBL)、糖尿病史、脑血管病(CSD)。多因素Logistic回归分析结果显示,年龄、ALB、TB、FBG、CRP、麻醉持续时间是全髋关节置换术后病人谵妄的独立影响因素(均P<0.05)。XGBoost模型在训练集和测试集中均表现优异,对于预测全髋关节置换术后病人谵妄风险具有最优的稳健性与预测效能。基于SHAP对XGBoost模型进行解释和可视化,显示XGBoost模型能以极高准确度预测全髋置换术后病人谵妄风险。结论:年龄、ALB、TB、FBG、CRP、麻醉持续时间是全髋关节置换术后病人谵妄的重要影响因素,XGBoost模型在全髋关节置换术后病人谵妄中的预测价值较高。 展开更多
关键词 全髋关节置换术 术后谵妄 影响因素 机器学习 Boruta算法 SHapley加法解释(SHAP) XGBoost模型
暂未订购
基于D-S证据融合的可解释多分类财务危机预警模型
10
作者 宋媚 李佳蔚 +1 位作者 高峰 洪维强 《系统管理学报》 北大核心 2026年第2期452-461,共10页
针对传统二分类财务困境预测模型难以提供细粒度分级预警问题,本文构建了一个基于财务与非财务信息融合的可解释多分类财务危机预警模型。首先,通过引入管理层讨论与分析(MD&A)语调信息,丰富中小企业数据源;其次,采用RF、LightGBM和... 针对传统二分类财务困境预测模型难以提供细粒度分级预警问题,本文构建了一个基于财务与非财务信息融合的可解释多分类财务危机预警模型。首先,通过引入管理层讨论与分析(MD&A)语调信息,丰富中小企业数据源;其次,采用RF、LightGBM和SVM对中小企业财务状况进行初步预测,并运用改进的D-S证据理论对结果进行二次融合;最后,借助SHAP框架对模型进行可解释性分析。研究发现:基于信息融合模型的F1值相比最优基分类器提升了1.3%,能够有效避免预测“灾难点”的出现,同时揭示了资产负债率、每股未分配利润和净资产收益率等指标在财务预警中的重要作用。本文模型具备更精准的财务危机定位能力和更稳定的预测效果,为中小企业财务危机预警研究提供了新视角。 展开更多
关键词 多分类 财务危机预警 信息融合 SHAP 决策支持
在线阅读 下载PDF
基于Stacking+SHAP的离港航班滑出时间预测
11
作者 夏正洪 黄君钏 +3 位作者 吴喜生 贾鑫磊 杨乐 李彦直 《科学技术与工程》 北大核心 2026年第8期3543-3549,共7页
针对现有滑出时间预测模型的可解释性弱、泛化能力差的问题,提出一种基于Stacking+SHAP分析的离港航班滑出时间预测模型。首先,将滑出时间拆解成无障碍滑出时间和动态滑出时间,分别分析其与影响因素之间的相关性。然后,构建基于Stackin... 针对现有滑出时间预测模型的可解释性弱、泛化能力差的问题,提出一种基于Stacking+SHAP分析的离港航班滑出时间预测模型。首先,将滑出时间拆解成无障碍滑出时间和动态滑出时间,分别分析其与影响因素之间的相关性。然后,构建基于Stacking的滑出时间预测模型,对比滑出时间整体预测和分阶段预测的性能差异。最后,引入SHAP方法,量化Stacking模型中各特征变量的重要性,并使用深圳宝安国际机场实际运行数据对模型的合理性进行验证。结果表明:畅通滑出时间主要受机场跑滑系统构型的影响,动态滑出时间的主要受场面交通流的影响。虽然分阶段预测结果性能略逊色于整体预测结果,但模型的可解释性更强。Stacking模型预测结果的平均绝对百分比误差(mean absolute percentage error,MAPE)、平均绝对误差(mean absolute error,MAE)、均方根误差(root mean square error,RMSE)分别为10.6%、99.7 s、140.5 s,±60、±180、±300 s的准确率分别为41.0%、86.3%、96.5%,预测精度和泛化能力均优于现有研究成果。基于沙普利加分析和相关性分析的双重特征筛选机制,可保证模型有较高预测精度的同时有效减少特征维度。 展开更多
关键词 滑出时间 可解释性 STACKING 交叉验证 SHAP
在线阅读 下载PDF
基于机器学习的VOCs污染控制催化剂构效关系模型
12
作者 刘芳 荆月坤 +2 位作者 邹涛阳 赵金刚 宋宜璇 《实验技术与管理》 北大核心 2026年第1期188-197,共10页
该文将机器学习与SHAP解释相结合,研究了挥发性有机化合物(VOCs)污染控制领域锰基催化剂构效关系。在收集1 607组锰基催化剂低温催化氧化VOCs实验参数的基础上,该文通过构建预测模型,阐明锰基催化剂在甲苯低温催化氧化中的构效关系。结... 该文将机器学习与SHAP解释相结合,研究了挥发性有机化合物(VOCs)污染控制领域锰基催化剂构效关系。在收集1 607组锰基催化剂低温催化氧化VOCs实验参数的基础上,该文通过构建预测模型,阐明锰基催化剂在甲苯低温催化氧化中的构效关系。结果表明,基于随机森林缺失值插补的XGBoost模型预测性能最佳。SHAP分析显示,操作温度与催化剂比表面积的协同效应对VOCs去除效率至关重要,增大催化剂比表面积可增强该协同效应,并放大操作温度的影响,为催化剂优化设计提供理论参考。该研究不仅有助于学生理解机器学习在催化剂构效关系领域的应用,还能使其掌握机器学习的过程分析与结果分析方法。 展开更多
关键词 VOCS 低温催化氧化 机器学习 XGBoost模型 SHAP分析
在线阅读 下载PDF
基于BP神经网络构建儿童肺炎支原体混合腺病毒感染的重症肺炎预测模型
13
作者 姚国华 刘杰 +3 位作者 张雯 马翠安 魏博涛 高娜 《天津医药》 2026年第4期369-373,共5页
目的基于反向传播法(BP)神经网络构建儿童肺炎支原体(MP)混合腺病毒(ADV)感染的重症肺炎的临床预测模型。方法回顾性分析138例MP混合ADV感染的社区获得性肺炎患儿的临床、实验室及影像学资料,按7∶3将研究对象随机分为训练集(96例)和测... 目的基于反向传播法(BP)神经网络构建儿童肺炎支原体(MP)混合腺病毒(ADV)感染的重症肺炎的临床预测模型。方法回顾性分析138例MP混合ADV感染的社区获得性肺炎患儿的临床、实验室及影像学资料,按7∶3将研究对象随机分为训练集(96例)和测试集(42例),构建BP神经网络预测模型。训练集用沙普利加法解释量化临床特征贡献度,筛选出MP混合ADV的重症肺炎的预测因子。通过测试集的准确率、损失值、混淆矩阵对其进行验证。结果重症组发热持续天数、最高体温、中性粒细胞百分比(N%)、天冬氨酸转氨酶(AST)、乳酸脱氢酶(LDH)、白细胞介素-6(IL-6)、大片炎性实变、住院天数高于非重症组,淋巴细胞百分比(L%)、白蛋白低于非重症组(P<0.05)。基于BP神经网络研究的结果显示发热持续天数、AST、N%、最高体温、大片炎性实变、IL-6、L%、LDH是MP混合ADV感染所致重症肺炎的关键预测因子。在构建儿童重症MP混合ADV临床预测模型上,测试集显示准确率90.48%、损失值0.2332。结论基于BP神经网络成功构建的儿童MP混合ADV感染重症肺炎的预测模型筛选出8项关键预测因子,可为临床早期识别重症病例提供参考。 展开更多
关键词 肺炎 支原体 腺病毒 同时感染 模型 统计学 儿童 BP神经网络 沙普利加法解释
暂未订购
《本草纲目》“释名”对于出土文献中药物考释的重要价值
14
作者 罗琼 翁晓芳 +1 位作者 刘昕 顾漫 《时珍国医国药》 北大核心 2026年第1期170-174,共5页
通过考释马王堆《五十二病方》《养生方》、阜阳《万物》、《武威汉代医简》及新近成都天回汉墓出土《治六十病和齐汤法》等简帛方书中出现的若干药物异名,并与《本草纲目》的“释名”相参证,认为近年来出土的战国秦汉时期简帛方书中所... 通过考释马王堆《五十二病方》《养生方》、阜阳《万物》、《武威汉代医简》及新近成都天回汉墓出土《治六十病和齐汤法》等简帛方书中出现的若干药物异名,并与《本草纲目》的“释名”相参证,认为近年来出土的战国秦汉时期简帛方书中所见的药名,往往是本草典籍所记载的“异名”。李时珍《本草纲目》“释名”中所引证的本草名物训诂资料,为考据这些药名提供了可资借鉴的书证。指出今后在出土医学文献研究中,应重视《本草纲目》的“释名”在出土文献药物考释中的价值,以促进出土医药文献名物考证的系统整理。 展开更多
关键词 李时珍 《本草纲目》释名 出土文献 药物考释
原文传递
基于主体建模:“生成解释”的计算性重构及其解释力
15
作者 王亚男 《科学技术哲学研究》 北大核心 2026年第1期36-43,共8页
基于主体建模作为复杂系统研究的主导性方法,通过计算性地模拟主体及其交互,旨在揭示宏观社会现象自下而上的涌现过程,由此确立了“生成解释”这一关键认识论标准,并推动了生成式社会科学研究进路的形成。明晰社会科学中基于主体建模的... 基于主体建模作为复杂系统研究的主导性方法,通过计算性地模拟主体及其交互,旨在揭示宏观社会现象自下而上的涌现过程,由此确立了“生成解释”这一关键认识论标准,并推动了生成式社会科学研究进路的形成。明晰社会科学中基于主体建模的核心组件及其“理想化表征”的解释力,将大语言模型集成到基于主体建模的过程中,有助于突破“生成充分性”困境,推动理论驱动与数据驱动在社会科学模型化中的深度融合,也带来了对主体性-结构、微观-宏观辩证关系的计算性重构,实现了机制性解释与条件性预测的有机整合。 展开更多
关键词 基于主体建模(ABM) 生成解释 生成式社会科学 理论驱动 数据驱动
原文传递
论民间谣谚与古小说的文体模式构成
16
作者 孔德明 《长江师范学院学报》 2026年第1期114-122,共9页
唐前古小说中所含谣谚甚多,有部分小说就是以源于民间的形式简短、话语质朴的谣歌或谚语的形态呈现的,与“残丛小语”“街谈巷语”的小说具有来源与形制上的一致性,抑或是古小说的一种较为原始的状态,更多的是以“谣谚+解说”的构成模... 唐前古小说中所含谣谚甚多,有部分小说就是以源于民间的形式简短、话语质朴的谣歌或谚语的形态呈现的,与“残丛小语”“街谈巷语”的小说具有来源与形制上的一致性,抑或是古小说的一种较为原始的状态,更多的是以“谣谚+解说”的构成模式呈现的,从而形成了语体与说体组合的小说模式。解说是基于谣谚的解说,与注经的方式很相似,有作文意的阐释,亦有作本事的传说。因为谣谚所存在的语意的含蓄性和文意的隐秘性,无解说则难明其意旨。随着历史与文学的演进,解说的方式更多地采用赋法,详细叙说完整的本事,追求情节与情景的真实再现,故事性和小说性越来越强,而“谣谚+解说”模式中的谣谚则慢慢蜕化,乃至脱落,此模式的小说便衍生为“解说”单行的故事性极强的小说。尽管如此,古小说的这种“谣谚+解说”的衍生内在理路依然是存在的。 展开更多
关键词 民间谣谚 解说 古小说 文体模式 传播
在线阅读 下载PDF
煤氧化热反应特性与SHAP可解释温度预测模型
17
作者 张树川 申晓毓 《煤炭科学技术》 北大核心 2026年第3期151-160,共10页
为构建适用于复杂氧化工况的煤自燃温度高精度预测模型,揭示氧化反应热动力机制与温度演化过程之间的耦合特征,提升对关键热反应节点的识别能力,支撑矿井自燃智能预警体系建设,通过在不同氧气体积分数和升温速率条件下开展程序升温与同... 为构建适用于复杂氧化工况的煤自燃温度高精度预测模型,揭示氧化反应热动力机制与温度演化过程之间的耦合特征,提升对关键热反应节点的识别能力,支撑矿井自燃智能预警体系建设,通过在不同氧气体积分数和升温速率条件下开展程序升温与同步热分析试验,监测气体释放行为及TG–DSC响应曲线,提取煤氧化过程中具有代表性的特征温度点(T_(C1)—T_(C7)和T_(1)—T_(6)),构建煤自燃过程的阶段划分体系。并将氧化过程整合为4个宏观反应区间,采用Coats–Redfern法计算各合并阶段的表观活化能和焓变,结合气体特征共同构建基于极端梯度提升算法(Extreme Gradient Boosting,XGBoost)与梯度提升算法(Gradient Boosting Regressor,GBR)的多维温度预测模型,并引入沙普利加性解释(Shapley Additive Explanations,SHAP)进行特征贡献度可解释性分析。结果表明:随着氧气体积分数降低,特征温度点TC6与TC7显著向高温区偏移,偏移率分别为-2.000℃/%与-1.333℃/%;随着升温速率升高,特征温度点T_(2)与T_(4)的温度变化显著加快,偏移率分别为2.85℃/(℃·min^(-1))和2.83℃/(℃·min^(-1))。综合特征温度点变化趋势与煤样氧化过程的官能团响应特征,将煤氧化过程划分为7个阶段:吸附氧积累、诱导启动、氧化加速、热解活化、热失控临界、缓慢氧化与燃烧反应阶段,反映了温度演化、气体释放与分子结构转化的阶段性耦合特征。其中热失控临界区间的活化能达78.86 kJ/mol,焓变为74.16 kJ/mol,明显高于前期诱导区间,体现反应放热强度提升。在多源特征融合基础上构建的XGBoost模型在测试集上决定系数R^(2)为0.9996,平均绝对误差MAE为0.32℃,优于GBR模型。SHAP分析结果表明,E_(a)与ΔH等热分析参数在温度预测中具有阶段性贡献权重,联合气体特征共同反映反应演化特性,增强了模型的物理一致性与解释能力。研究构建的煤温预测模型可为煤自燃过程中的特征识别与注氮、通风等干预策略的动态制定提供数据支撑与理论依据。 展开更多
关键词 煤自燃 特征温度点 煤温预测 XGBoost SHAP
在线阅读 下载PDF
九年卫鼎铭文集释及西周时期土地转让程序窥探
18
作者 王晶 《嘉应学院学报》 2026年第1期58-63,共6页
九年卫鼎是一篇西周时期的涉法铭文,铭文涉及西周时期的土地转让程序。这种土地的转让程序是:由于某种原因甲方同意给付乙方一定数量的土地;乙方将自己取得甲方土地的情况告知官方或有见证人作见证,以便土地转让事宜得到确认;有关人员... 九年卫鼎是一篇西周时期的涉法铭文,铭文涉及西周时期的土地转让程序。这种土地的转让程序是:由于某种原因甲方同意给付乙方一定数量的土地;乙方将自己取得甲方土地的情况告知官方或有见证人作见证,以便土地转让事宜得到确认;有关人员到场付田给乙方(受田方);受田方宴请宾客、送礼;受田方将约剂内容铸造在青铜器上。无论是甲方还是乙方,如果违反约定的内容,都要受到法律制裁。 展开更多
关键词 九年卫鼎 铭文 集释 西周 土地转让
在线阅读 下载PDF
清代满文翻译《春秋》各本及其价值
19
作者 徐莉 《民族翻译》 2026年第1期5-15,93,共12页
《春秋》是中国历史上第一部编年体史书,是儒家五经中重要的典籍著作。清康雍乾三朝曾两次以满文翻译《春秋》,形成满文本和满汉合璧本。对比清廷两次翻译的《春秋》,其译文发生了很多变化,包括音译改为意译、修改拼写、创造新词等,丰... 《春秋》是中国历史上第一部编年体史书,是儒家五经中重要的典籍著作。清康雍乾三朝曾两次以满文翻译《春秋》,形成满文本和满汉合璧本。对比清廷两次翻译的《春秋》,其译文发生了很多变化,包括音译改为意译、修改拼写、创造新词等,丰富了满文的语义表达。本文梳理清代两次满文翻译《春秋》的历程,描述了翻译过程的情形及翻译版本情况,阐释其在语言学、文献学及满汉文化交融方面的价值。 展开更多
关键词 《日讲春秋解义》 《御制翻译春秋》 满文古籍
在线阅读 下载PDF
可解释深度学习的概念建模方法综述
20
作者 王家祺 冯毅 +2 位作者 刘华锋 景丽萍 于剑 《软件学报》 北大核心 2026年第4期1591-1614,共24页
近年来,深度神经网络在多个领域取得了显著进展,但其作为典型的黑盒模型,内部机制仍难以为人所理解,给医疗诊断、金融风控、自动驾驶等高风险应用场景带来了严峻挑战.提升模型的可解释性,已成为实现高可信机器学习的核心问题之一.现有... 近年来,深度神经网络在多个领域取得了显著进展,但其作为典型的黑盒模型,内部机制仍难以为人所理解,给医疗诊断、金融风控、自动驾驶等高风险应用场景带来了严峻挑战.提升模型的可解释性,已成为实现高可信机器学习的核心问题之一.现有可解释性方法大致可分为两类:基于信息流的解释和基于概念的解释.基于信息流的解释主要侧重于神经元或特征重要性分析,如定位图片中对分类结果起关键作用的像素区域.虽然能揭示模型“关注了什么”,但难以提供具备人类语义的认知解释;相比之下,基于概念的解释通过构建语义空间,将模型内部表示映射为可理解的概念结构,能够以“模型理解了什么”的方式提供更具语义深度和认知契合的解释,在增强语义透明性和用户信任方面展现出独特优势.深度学习的不可解释性源于其语义表达的缺失,因此,如何构建对人类认知友好的概念空间与表示机制,已成为可解释模型研究的关键突破口.围绕可解释深度学习中的概念建模方法展开综述,依据建模介入阶段将相关研究划分为事后解释与事中解释两大路径:前者通过神经元解剖、语义聚类等手段挖掘已有模型的概念表示,后者则在训练过程中引入结构化先验或语义约束,以实现模型的内生可解释性.基于该分类框架,系统梳理了典型方法的建模思路与代表性成果,比较其在语义透明性与实际应用中的性能差异,并总结当前研究面临的挑战与未来发展方向,旨在为理解和构建语义可解释的深度模型提供系统性参考与方法指引. 展开更多
关键词 可解释性 深度学习 概念表示 事后解释 自解释
在线阅读 下载PDF
上一页 1 2 250 下一页 到第
使用帮助 返回顶部