包含标签 BE 的内容
-
不拆分单词也可以做NLP,哈工大最新模型在多项任务中打败BERT
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。众所周知,BERT在预训练时会对某些单词进行拆分(术语叫做“WordPiece”)。比如把“loved”、“lov阅读全文>> -
ICLR 2022|唯快不破!面向极限压缩的全二值化BiBERT
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。近年来,预训练语言模型在自然语言处理上表现出色,但其庞大的参数量阻碍了它在真实世界的硬件设备上的部署。近日,机器学习顶会ICLR20阅读全文>>