本发明提供了一种基于XLNet‑BiGRU文本纠错方法,其特征在于,包括以下步骤:S1、基于大规模无标注语料训练XLNet(Generalized Autoregressive Pretraining for Language Understanding)中文模型,XLNet模型主要包括排列语言模型(Permutation Language Model)、双流注意力机制(Two‑Stream Self‑Attention)及Transformer‑XL核心组件;S2、对文本纠错语料数据进行预处理并进行标注;S3、在S1训练好的XLNet预训练中文模型基础上,构建XLNet‑BiGRU神经网络模型,模型主要由检测网络和纠错网络两部分组成,同时利用S2中已标注好的数据训练此模型。本发明改进了传统基于翻译模型纠错方法耗时长的问题,将文本纠错由逐个字生成正确句子的串行程优化为只针对错误内容用XLNet神经网络进行纠错的并行过程。