开源|qa_match更新啦——支持轻量级预训练、提高问答通用性

2020-06-15 00:00:00 模型 训练 结构 知识库 问答
开源项目专题系列
1.开源项目名称:qa_match
2.github地址:
https://github.com/wuba/qa_match
3.开源协议:Apache License 2.0
4.简介:qa_match是58同城推出的一款基于深度学习的轻量级问答匹配工具,V1.0版本于2020年3月9日发布,可参见《qa_match|一款基于深度学习的层级问答匹配工具》,近我们对qa_match进行了升级,新增如下Features:
  • 使用轻量级预训练语言模型(SPTM,Simple Pre-trained Model)来进行问答匹配。
  • 支持基于一层结构知识库的问答(V1.0版本仅支持基于两层结构知识库的问答),提高通用性





全文大纲如下:
  • 为什么要升级到V1.1
  • 问答知识库介绍
  • 轻量级预训练语言模型(SPTM)
  • 问答匹配
  • 未来规划
  • 如何贡献&问题反馈
  • 作者简介


为什么要升级到V1.1

在V1.0版本中qa_match已经对两层结构知识库问答进行了支持,为了提升知识库问答的通用性和问答效果,在V1.1版本我们增加了对一层结构知识库问答的支持,同时开源了基于Bi-LSTM的预训练语言模型,以提升基于知识库的问答等下游任务的效果。

问答知识库介绍

在实际场景中,知识库一般是通过人工总结、标注、机器挖掘等方式进行构建,知识库中包含大量的标准问题,每个标准问题有一个标准答案和一些扩展问法,我们称这些扩展问法为扩展问题。对于一层结构知识库,仅包含标准问题和扩展问题,我们把标准问题称为意图。对于两层结构知识库,每个标准问题及其扩展问题都有一个类别,我们称为领域,一个领域包含多个意图。两种知识库结构的对比如下图所示:





轻量级预训练语言模型(SPTM)

考虑到实际使用中往往存在大量的无标签数据,在知识库数据有限时,可使用无监督预训练语言模型提升匹配模型的效果。参考BERT预训练过程,2019年4月我们开发了SPTM模型,该模型相对于BERT主要改进了两方面:一是去掉了效果不明显的NSP(Next Sentence Prediction),二是为了提高线上推理性能将Transformer替换成了LSTM,模型原理如下:


1、数据预处理
预训练模型时,生成训练数据需要使用无标签单句作为数据集,并参考了BERT来构建样本:每个单句作为一个样本,句子中15%的字参与预测,参与预测的字中80%进行mask,10%随机替换成词典中一个其他的字,10%不替换。


2、预训练
预训练阶段的模型结构如下图所示:





为提升模型的表达能力,保留更多的浅层信息,引入了残差Bi-LSTM网络(Residual LSTM)作为模型主体。该网络将每一层Bi-LSTM的输入和该层输出求和归一化后,结果作为下一层的输入。此外将末层Bi-LSTM输出作为一个全连接层的输入,与全连接层输出求和归一化后,结果作为整个网络的输出。
预训练模型耗时示例如下表所示:

指标名称指标值
预训练数据集大小10Million
预训练资源Nvidia P40 / 12G Memory
预训练参数
step = 500000 / batch size=256
预训练耗时
215.69hour


问答匹配

1、基于两层结构知识库的自动问答
V1.0版本详细介绍了如何融合LSTM领域分类模型和DSSM意图匹配模型来完成基于两层结构知识库的自动问答,这里不再描述,详细可参见《开源|qa_match:一款基于深度学习的层级问答匹配工具》。


2、基于一层结构知识库的自动问答
对于一层结构知识库,可以使用DSSM和预训练语言模型来完成自动问答。
  2.1 基于DSSM模型的自动问答
对于一层结构知识库问答,只需用使用V1.0版本中的DSSM意图匹配模型对输入问题进行打分,根据意图匹配的高分值与下图中的x1,x2进行比较决定回答类型(回答、列表回答、拒识)。DSSM原理见之前的文章《开源|qa_match:一款基于深度学习的层级问答匹配工具》。





  2.2 基于SPTM模型的自动问答

引入预训练语言模型后,对于一层结构知识库问答,先使用基于语言模型微调的意图匹配模型对输入问题进行打分。微调使用的模型结构与预训练相同,微调时无需进行mask操作,预测目标由单字改为样本所匹配的标准问题id。模型参数初始值与已有的预训练模型参数值对应(也可以不使用预训练模型,进行随机参数初始化)。
得到微调模型后,需要用模型对输入问题进行打分,再根据与DSSM意图匹配模型相同的策略确定回答类型(回答、列表回答、拒识),整体流程如下图所示:





3、效果示例

为了让使用者快速上手qa_match,我们给出了一级知识库、二级知识库的示例数据集(具体见 data_demo),训练了不同模型(模型结果文件见DSSM/SPTM/ LSTM+DSSM融合模型),并评测了不同模型的离线效果和线上推理性能(使用通用深度学习推理服务dl_inference开源项目部署模型来评测推理耗时)

数据集
模型
回答准确率回答召回率回答F1CPU机器上推理耗时
一级知识库数据集
DSSM
0.83980.83260.83623ms
SPTM
0.88410.9002
0.892116ms
二级知识库数据集
LSTM+DSSM融合模型0.89570.90270.899218ms
说明:由于示例数据中列表回答真实占比较小,这里我们主要看回答的准确率、召回率和F1值。对于二级知识库数据集,我们也可以使用SPTM来完成自动问答,这里不做过多描述。


未来规划

未来我们会继续优化扩展qa_match的能力,计划开源如下:
1、知识库半自动挖掘流程。基于知识库的构建,我们开发了一套结合人工和机器挖掘的算法流程,已经在生产环境使用,并取得了不错的效果。
2、目前tensorflow已发版到2.1版本,后续我们会根据需求发布tensorflow 2.X版本或pytorch版本的qa_match。


如何贡献&问题反馈

本次更新达成了qa_match持续迭代历程中的步,我们诚挚地希望开发者继续向我们提出宝贵的意见。
您可以挑选以下方式向我们反馈建议和问题:
1、在https://github.com/wuba/qa_match.git提交 PR 或者 Issue
2、邮件发送至ailab-opensource@58.com


作者简介
贺睿,58同城 AI Lab 算法工程师,主要负责58智能问答相关算法研发工作。
王勇,58同城 AI Lab 算法架构师,主要负责58智能问答相关算法研发工作。
陈璐,58同城 AI Lab 算法工程师,主要负责58智能质检相关算法研发工作。
线上直播
活动:基于深度学习的自动问答工具——qa_match开源项目解析
分享人:58同城 AI Lab 算法工程师 贺睿
主办:58同城、IT 168、IT PUB技术栈
时间:6月16日晚20:00
详情及报名方式:

相关文章