基于多任务语言模型的征信文本数据治理分析

2025.12.04点击:

摘要:<正>本研究基于BERT(Bidirecfional Encoder Representations from Transformers)预训练语言模型,构建了针对征信领域文本数据的多任务学习模型,实现了敏感信息识别和地址标准化处理。实验结果显示,本文所提出的多任务学习模型在两项任务上的F1分数均达到91%以上,并且在保持与单任务模型相媲美的推理性能时实现了更高的推理效率。此项研究不仅显著提高了征信文本数据的安全合规性和可用价值,还推动了技术与业务的深度融合,有助于提升征信业务智能化水平。

专辑: 信息科技

专题: 计算机软件及计算机应用

分类号: TP391.1