目录
参考:
人人都可参与的AI技术体验:谷歌发布全新搜索引擎Talk to Books
pre-trained model: https://tfhub.dev/google/universal-sentence-encoder/1
使用示例: https://www.tensorflow.org/hub/modules/google/universal-sentence-encoder/1
项目链接:https://research.google.com/semanticexperiences/
主要的两篇参考文献:
在transfer learning的任务SST上,USE_T(Universal Sentence Encoder + Transformer)只需要1k的训练数据(这个数据集总共有67.3k的训练数据),就能够达到其他很多模型使用全量训练数据得到的准确率。
假设句子长度为n。
\(O(n^2)\)
\(O(n)\)
\(O(n^2)\)
。但对于短句,因为Transformer只要存储unigram的embedding,所以占用的内存几乎是DAN的一半。