bert as service:使用BERT模型将可变长度句子映射到固定长度向量 源码
您在寻找X即服务吗? 试试! X可以是albert,pytorch-transformer,vgg,resnet,videobert或任何深度学习表示模型吗? •••• • 了解如何使用Jina通过任何深度学习表示来提取特征向量 伯特即服务 使用BERT模型作为句子编码服务,即将可变长度的句子映射到固定长度的向量。 •••• •••• 韩晓制作• :globe_with_meridians: 它是什么 BERT是为预训练语言表示而的NLP模型。 它利用了在网络上公开提供的大量纯文本数据,并且以无人监督的方式进行了培训。 对于每种语言而言,预训练BERT模型是一项相当昂贵但一次性的过程。 幸运的是,Google发布了一些经过预先训练的模型,。 句子编码/嵌入是许多NLP应用程序所需的上游任务,例如,情绪分析,文本分类。 目标是将可变长度句子表示为固定长度向量,例如[0.1, 0.3, 0.9] hello world 。 向量的每个元素都应“编码”原始句子的某些语义。 最后, bert-as-service使用BERT作为句子编码器,并通过ZeroMQ将其托管为服务,从而使
文件列表
bert-as-service-master.zip
(预估有个85文件)
bert-as-service-master
client
setup.py
1KB
bert_serving
client
__init__.py
21KB
_py2_var.py
179B
_py3_var.py
139B
__init__.py
65B
requirements.txt
90B
暂无评论