bert as service:使用BERT模型将可变长度句子映射到固定长度向量 源码

banner2991 24 0 ZIP 2021-03-21 11:03:41

您在寻找X即服务吗? 试试! X可以是albert,pytorch-transformer,vgg,resnet,videobert或任何深度学习表示模型吗? •••• • 了解如何使用Jina通过任何深度学习表示来提取特征向量 伯特即服务 使用BERT模型作为句子编码服务,即将可变长度的句子映射到固定长度的向量。 •••• •••• 韩晓制作• :globe_with_meridians: 它是什么 BERT是为预训练语言表示而的NLP模型。 它利用了在网络上公开提供的大量纯文本数据,并且以无人监督的方式进行了培训。 对于每种语言而言,预训练BERT模型是一项相当昂贵但一次性的过程。 幸运的是,Google发布了一些经过预先训练的模型,。 句子编码/嵌入是许多NLP应用程序所需的上游任务,例如,情绪分析,文本分类。 目标是将可变长度句子表示为固定长度向量,例如[0.1, 0.3, 0.9] hello world 。 向量的每个元素都应“编码”原始句子的某些语义。 最后, bert-as-service使用BERT作为句子编码器,并通过ZeroMQ将其托管为服务,从而使

用户评论
请输入评论内容
评分:
暂无评论