文本预训练模型在信息安全场景的探索和实践
导读
背景
TextCNN
RoBERTa
RoBERTa-58Dialog
58Dialog-mini
总结与展望
基础模型层面,尝试ALBERT[8]、ELECTRA[9]等更多类型的预训练模型; DAPT+TAPT阶段,尝试添加更多、更高质量的数据,目前来看这部分潜力还未挖掘完全; 知识蒸馏阶段,尝试优化训练目标、调整模型结构、选择多种初始化方式等,尽可能保留模型业务精度的同时加快模型推理速度。
参考文献:
相关文章
导读
背景
TextCNN
RoBERTa
RoBERTa-58Dialog
58Dialog-mini
总结与展望
相关文章