久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

BERT、GPT-2這些頂尖工具到底該怎么用到我的模型里?

 烏商匯富 2019-02-22




  新智元推薦  

來(lái)源:專知(ID:Quan_Zhuanzhi)

整理編輯:三石

【新智元導(dǎo)讀】NLP方向近日各種大神工具層出不窮,。然而,,實(shí)踐才是硬道理,,如何將它們應(yīng)用到自己的模型是個(gè)關(guān)鍵問(wèn)題。本文就對(duì)此問(wèn)題進(jìn)行了介紹,。


近期的NLP方向,ELMO,、GPT,、BERT、Transformer-XL、GPT-2,,各種預(yù)訓(xùn)練語(yǔ)言模型層出不窮,,這些模型在各種NLP任務(wù)上一次又一次刷新上線,令人心馳神往,。但是當(dāng)小編翻開他們的paper,,每一個(gè)上面都寫著四個(gè)大字:“弱者退散”,到底該怎么將這些頂尖工具用到我的模型里呢,?答案是Hugging Face的大神們開源的pytorch-pretrained-BERT,。


Github 地址:

https://github.com/huggingface/pytorch-pretrained-BERT


模型簡(jiǎn)介 


近期的各種預(yù)訓(xùn)練語(yǔ)言模型,橫掃各種NLP任務(wù),,這里我們介紹三個(gè)最火的預(yù)訓(xùn)練模型:


  • BERT,,由Google AI團(tuán)隊(duì),發(fā)表于2018年10月11日,。它的文章是: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,。

  • Transformer-XL, 由Google AI和Carnegie Mellon大學(xué),發(fā)表于2019年1月9日,。它的文章是:Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context,。

  • GPT-2,由OpenAI 團(tuán)隊(duì),,發(fā)表于2019年2月14日,,它的文章是:Language Models are Unsupervised Multitask Learners。


基本上,,每一個(gè)文章,,都在發(fā)表的時(shí)候,刷新當(dāng)時(shí)的幾乎所有NLP任務(wù)的State-of-the-Art,,然后引發(fā)一波熱潮,。 當(dāng)然,目前風(fēng)頭正盛的是GPT-2,,它前幾天剛發(fā)表,。


開源實(shí)現(xiàn) 


然而,讓小編翻開他們的paper,,發(fā)現(xiàn)每一個(gè)上面都寫著四個(gè)大字:“弱者退散”,,到底該怎么將這些頂尖工具用到我的模型里呢,Hugging Face 的大神們,,緊跟前沿,,將所有的預(yù)訓(xùn)練語(yǔ)言模型都實(shí)現(xiàn)并開源了。更令人欽佩的是,,它們還做了很多封裝,,讓大家都可以才在這些巨人模型的肩膀上,。


Hugging Face開源的庫(kù)叫pytorch-pretained-bert, 你可以在本文開頭找到鏈接。接下來(lái)的部分,,我們介紹一下它的安裝和使用,。


安裝使用 


你可以直接使用 Pip install 來(lái)安裝它:

pip install pytorch-pretrained-bert

pytorch-pretrained-bert 內(nèi) BERT,,GPT,,Transformer-XL,GPT-2,。


為了獲取一句話的BERT表示,,我們可以:

拿到表示之后,我們可以在后面,,接上自己的模型,,比如NER。


我們也可以獲取GPT的表示:

Transformer-XL表示:

以及,,非?;鸬模珿PT-2的表示:

有了這些表示,,我們可以在后面,,接入自己的模型,比如:


  • 文本分類

    • https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_classifier.py

  • 閱讀理解

    • https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_squad.py

  • 語(yǔ)言模型

    • https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_lm_finetuning.py

  • 等等


本文經(jīng)授權(quán)轉(zhuǎn)載自專知,,點(diǎn)擊閱讀原文查看原文

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn),。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多