現(xiàn)代文自動生成器:來試試用GPT2自動寫
周末,繼續(xù)文本生成的話題。前幾天我們基于 Face 的中文歌詞GPT-2預(yù)訓(xùn)練模型( GPT2 )和文言文GPT-2預(yù)訓(xùn)練模型( GPT2 )在公眾號后臺添加了中文歌詞生成器和文言文生成器:
今天,我們繼續(xù)基于 Face 的通用中文GPT-2預(yù)訓(xùn)練模型( GPT2 ) ,在 公眾號后臺添加了現(xiàn)代文生成器,感興趣的朋友可以關(guān)注公眾號后對話測試:
回復(fù)“寫現(xiàn)代文:開頭內(nèi)容”進行測試,例如:
關(guān)于這個模型的詳細介紹,可以參考 Face的模型主頁,這里摘錄部分:
Chinese GPT2 Model
Model description
The model is used to generate Chinese texts. You can download the model either from the GPT2-Chinese Github page, or via HuggingFace from the link gpt2-chinese-cluecorpussmall.
How to use
You can use the model directly with a pipeline for text generation:
>>> from transformers import BertTokenizer, GPT2LMHeadModel, TextGenerationPipeline
>>> tokenizer = BertTokenizer.from_pretrained("uer/gpt2-chinese-cluecorpussmall")
>>> model = GPT2LMHeadModel.from_pretrained("uer/gpt2-chinese-cluecorpussmall")
>>> text_generator = TextGenerationPipeline(model, tokenizer)
>>> text_generator("這是很久之前的事情了", max_length=100, do_sample=True)
[{'generated_text': '這是很久之前的事情了 , 我 曾 經(jīng) 把 這 個 當(dāng) 做 一 種 思 想 的 傳 承 , 或 者 是 人 生 的 回 顧 , 當(dāng) 時 我 們 是 一 個 剛 剛 加 入 的 時 候 就 想 要 加 入 他 們 , 于 是 我 們 每 天 看 到 他 們 , 加 上 他 們 的 各 種 不 可 思 議 的 行 為 , 直 到 現(xiàn) 在 , 我 們 的 人 生 才 完 整 起 來 。'}]
Training data
CLUECorpusSmall is used as training data.
特別感謝GPT2-項目的整理和分享的相關(guān)模型以及相關(guān)模型和數(shù)據(jù)的貢獻者:
以下是目前支持的自動生成模塊,之后將加入更多的領(lǐng)域生成測試模塊,歡迎關(guān)注測試:
風(fēng)云三尺劍,花鳥一床書---對聯(lián)數(shù)據(jù)集和自動對聯(lián)機器人
自動對聯(lián)活動獲獎結(jié)果以及機器對聯(lián)賞析
"自動作詩機"上線,代碼和數(shù)據(jù)都是公開的
鼠年春節(jié),用 GPT-2 自動寫對聯(lián)和對對聯(lián)
用 GPT-2 自動寫詩,從五言絕句開始
自動作詩機&藏頭詩生成器:五言、七言、絕句、律詩全了
僅供娛樂,藏尾詩生成器來了
中文歌詞自動生成器:來試試自動寫歌
文言文自動生成器:來試試自動寫古文
相關(guān)文章:文言文自動生成器:來試試自動寫古文中文歌詞自動生成器:來試試自動寫歌自動作文生成器:來試試用預(yù)訓(xùn)練模型自動寫中文作文用 GPT-2 自動寫詩,從五言絕句開始
文章導(dǎo)航
文言文自動生成器:來試試自動寫古文
自然語言處理開源工具介紹系列一:英文NLP工具NLTK詳解及在線測試
聲明:本站所有文章資源內(nèi)容,如無特殊說明或標(biāo)注,均為采集網(wǎng)絡(luò)資源。如若本站內(nèi)容侵犯了原著者的合法權(quán)益,可聯(lián)系本站刪除。