腾佑旗下产品:
云服务器 智能五合一建站 咨询热线:400-996-8756
绑定享折扣 注册百度云
百度人脸识别
人脸识别 文字识别 图像识别 语音识别
  • 最新资讯
  • 热门资讯
  • 最热资讯
人工智能http://ai.tuidc.com/templets/default/img/advertising_space_right_3.jpg

PaddleNLP精准文献检索系统助力万方数据升级放大招

发布时间:2021-09-14 10:10 作者:未知

简述:今天给大家分享的是PaddleNLP打造精准文献检索系统助力万方系统升级放大招的相关内容,下面我们一起来看具体详情!

  今天给大家分享的是PaddleNLP打造精准文献检索系统助力万方系统升级放大招的相关内容,下面我们一起来看具体详情!
  又是一年开学季,大批莘莘学子步入高校的同时又有一群学生即将毕业,每一个学生都逃不开论文的洗礼。在学术论文领域,几乎每一位大学生都要面临论文检索、查重环节。想写出一篇高质量论文,前期大量的信息储备必不可少,而文献检索成为我们获取信息的重要途径。
 
PaddleNLP精准文献检索系统助力万方系统升级放大招
 
  万方数据知识服务平台以客户需求为导向,整合了数亿条全球优质知识资源,依托强大的数据采集能力,应用先进的信息处理技术和检索技术,为决策主体、科研主体、创新主体提供高质量的信息资源产品。今天就来聊聊,我们如何使用百度飞桨PaddleNLP升级论文检索系统。
  业务背景
  万方论文检索系统的核心问题是文本匹配任务,这个系统需要在数亿条知识资源中,基于检索匹配算法,根据用户的检索词快速地在海量文献中查找相似文献。
  在系统任务执行过程中,检索词和文献的相关性会直接反映到结果页面的排序上面,而排序准确率直接影响着用户的搜索决策效率和搜索体验。因此,快速且准确地刻画检索词和文档之间的深度语义相关性至关重要。
  然而,面对海量数据和频繁的用户搜索请求,同时解决高速和高效问题,给万方文献检索系统带来了诸多挑战:
  1、标注数据少
  由于人力资源紧张无法对系统中海量的数据资源进行标注,如何利用海量无监督数据,自动生成弱监督数据?
  2、很难精准计算语义相似度
  如何准确计算用户检索词和文献之间的相似度?
  3、检索时效性差
  面对海量资源和不断增长的用户需求,如何快速、高效得找到相关文献也是一大挑战。
  除了检索场景外,论文查重、相似论文推荐的核心方法也是文本相似度计算。在这些业务上,我们经历了长期的探索,最终使用飞桨。得益于PaddleNLP丰富的中文预训练模型,面向工业级场景的模型选型与部署能力,使得我们非常高效的搭建了端到端工业级的文本向量学习和计算环境,实现了学术检索系统的多方面升级。
  技术选型和项目实践
  飞桨在产业实践方面提供了强悍的产品功能和技术支持,我们基于PaddleNLP中丰富前沿的预训练模型、使用Paddle Serving实现了服务端的快速部署,解决了实际业务落地中的痛点。
  我们通过PaddleNLP提供的高质量中文预训练Word Embedding构造训练数据标签,结合SimCSE以及飞桨深度优化过的文本匹配预训练模型Sentence-BERT,大幅提升了算法精度。
  在模型性能方面,我们采用了多线程数据预处理、模型降层、TensorRT部署。成熟开发工具的选用,极大地降低了应用深度学习技术进行产业落地的难度。

PaddleNLP精准文献检索系统助力万方系统升级放大招
 
  技术方案整体架构图
 
  我们的技术方案整体架构图如上所示。概括来说,主要包括三部分:构造数据、模型选择和产业部署。
  构造数据
  万方业务积累了海量的无监督数据,但是标注数据极少。我们使用PaddleNLP开源的高质量中文预训练词向量,快速构建了弱监督的相似文本匹配数据,节省了大量的人力标注成本。
  为了数据指标的进一步提升,我们还采用了无监督语义匹配模型SimCSE。
  此外,万方搜索系统积累了大量用户行为日志数据(如浏览、点击、阅读、下载等),我们也从业务角度筛选出了大量监督数据。
  SimCSE参考:
  https://github.com/PaddlePaddle/PaddleNLP/tree/develop/examples/text_matching/simcse
  模型选择
  关于文本相似度计算,我们使用过字面匹配、word2vec、FastText等方法,都无法学到足够精度的文本语义表示。我们知道百度在搜索场景有丰富的技术积累,也关注到PaddleNLP里集成了ERNIE、BERT等一系列预训练语义模型,并且针对检索场景给出了系统化方案。
 
PaddleNLP精准文献检索系统助力万方系统升级放大招
 
  近年来,以BERT、ERNIE为代表的预训练语言模型成为NLP任务的主流模型。
  Sentence-BERT使用孪生网络结构,在BERT模型的基础上进行Fine-Tune,引入(DSSM)双塔模型,符合我们的业务场景,因此我们选择该模型作为我们的基准模型。
  较FastText模型,Sentence-BERT的匹配效果提升了70%,用户的整体体验大幅度提高。
  我们将数据库中的文献预先通过Sentence-BERT计算得到文献向量后,通过开源向量数据库Milvus建立索引库,快速召回相似向量,减少了检索系统的响应时间。
  Sentence-BERT参考:https://github.com/PaddlePaddle/PaddleNLP/tree/develop/examples/text_matching/sentence_transformers
  语义索引策略参考:https://github.com/PaddlePaddle/PaddleNLP/tree/develop/examples/semantic_indexing
  产业部署
  线上检索系统尤其需要考虑快速响应需求。Sentence-BERT 12层Transfomer结构,具有庞大的参数量和计算量,在部署上线时面临响应实时性的巨大挑战。
  为了满足线上业务对于性能上的要求,我们通过飞桨原生推理库Paddle Inference结合飞桨服务化部署框架Paddle Serving进行推理预测。
  在不损失精度的前提下,我们将Sentence-BERT从12层压缩至6层,并结合了TensorRT加速等优化手段,使得QPS达到2600,超预期完成了目标。
  延伸-检索场景整体方案
  以上我们参考了PaddleNLP检索场景整体方案,其主要包括领域预训练(Post-Training)、语义匹配和语义索引三大部分。
  领域预训练是在通用预训练模型基础上,在领域数据上继续预训练,让预训练模型学习更多的领域知识。
  语义匹配模块针对存在高质量监督数据的场景,给出了检索系统中排序模型方案。此外,针对高质量标注数据获取成本高,数据量少的问题,语义匹配模块还内置了R-Drop数据增强策略,进一步提升小数据量场景下排序模型效果,从而帮助检索系统达到更优的效果。
  语义索引模块针对无监督和有监督数据场景,分别给出了无监督语义索引(SimCSE)和监督语义索引的方案,即使没有监督数据,也能利用无监督语义索引方案提升检索系统的召回效果。
 
PaddleNLP精准文献检索系统助力万方系统升级放大招
 
  针对工业应用落地部署的高性能需求,预测部署环节还提供了基于FasterTransformer的高性能预测能力以及简单易用的Python API,便于我们将模型快速落地到实际业务中。
  后续在万方业务中,我们将使用R-Drop数据增强策略、FasterTransformer进一步应对持续新增的用户需求。
  如果您想了解详细方案,可关注PaddleNLP,跟进其最新功能,也可在直播中与我交流哦:
  GitHub Repo:https://github.com/PaddlePaddle/PaddleNLP
  更多PaddleNLP相关内容,百度云服务中心持续分享中!
点击展开全文

腾佑AI(ai.tuidc.com) 成立于2007年,一直致力于发展互联网IDC数据中心业务、云计算业务、 CDN业务、互联网安全及企业客户技术解决方案等产品服务, 2018年成为百度云河南服务中心。主营服务器租用,服务器托管,虚拟主机, 域名注册,机柜租用,主机租用,主机托管,带宽租用,云主机,CDN加速 , WAF防火墙,网络安全,人脸识别,文字识别,图像识别,语音识别等业务;

售前咨询热线:400-996-8756

备案提交:0371-89913068

售后客服:0371-89913000

热门活动

腾佑智能建站
  • 热门资讯
  • 随便看看

联系方式

400-996-8756 点击这里给我发消息 AI@tuidc.com
腾佑AI人工智能

微信公众号

腾佑AI人工智能

手机站

COPYRIGHT 2007-2020 TUIDC ALL RIGHTS RESERVED 腾佑科技-百度AI人工智能_百度人脸识别_图像识别_语音识别提供商

地址:河南省郑州市姚砦路133号金成时代广场6号楼13层 I CP备案号:豫B2-20110005-1 公安备案号: 41010502003271

声明:本站发布的内容版权归郑州腾佑科技有限公司所有,本站部分素材来源于网络及网友投稿,若无意中侵犯了您的版权,请致电在线客服我们将在核实后予以删除!