亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何用深度學習框架PaddlePaddle實現智能春聯

發布時間:2020-06-29 10:07:01 來源:網絡 閱讀:415 作者:PaddlePaddle 欄目:云計算

引言:  

不知不覺春節假期馬上到來,在今年的春節話題中,不難發現,除了七大姑八大姨親切問候這些常規話題,人工智能的蹤跡也是隨處可見。AI在以全新的面貌向我們展示值得期待的未來,比如今天,我們可以用PaddlePaddle來嘗試寫副智能春聯。過年貼春聯已經成為一個傳統習俗,而商場里可選的內容不多,很多人想親自出馬,可惜又不大懂平仄對仗。能不能用人工智能幫我們寫春聯呢?今年春節,百度、網易和央視網推出了“智能春聯H5”,只要給出2-4個漢字,它就能據此“寫”出一副非常具有觀賞性的藏頭春聯。

是什么讓機器擁有對春聯這項技能?通過智能春聯H5,“刷臉”對春聯只需幾秒就能實現,而這背后是一系列“不可描述”的高深技術。視覺方面,主要應用了人臉檢測、屬性分析、人臉融合等技術,可對圖片中的人臉進行檢測,分析人臉對應的年齡、性別、顏值、微笑指數、是否佩戴眼鏡等信息,并通過一個詞語概括人臉的特性;進而將圖片中的人臉,與指定模板圖中的人臉進行融合,得到新的圖片。這些技術的難度在于,需要對各種角度的人臉進行檢測,并且能夠提取人臉的五官特征,以便能夠生成與原始人臉相似,但也和模板人臉神似,且毫無違和感的新圖片。

其次是自然語言處理(NLP)方面,基于百度深度學習框架PaddlePaddle先進的神經網絡機器翻譯技術,可以將春聯創作轉化為“翻譯”的過程,所不同的是,翻譯是在兩種語言之間建立聯系,而春聯是在同一種語言中建立聯系。當然,有些人可能會中招“彩蛋”,這些不是AI寫的春聯。比如你刷臉得出“戲精”這個關鍵詞,就會獲得一副“流量體質天生有戲,主角光環蓋不住你”,橫批“過足戲癮”的春聯,這么霸氣十足可是由人工專門為你埋的梗哦!這樣的春聯出現在朋友圈里,毫無疑問,點贊人數會瘋狂UpUpUp……

讓我們嘗試體驗一下吧!PaddlePaddle作為深度學習框架,不僅支持深度學習算法的開發和調研,而且官方發布的模型庫(https://github.com/PaddlePaddle/models)里面匯集了各種領先的圖像分類、自然語言處理算法。通過這些算法,我們可以很方便地實現各種好玩有趣的功能,比如:智能春聯。

如何用深度學習框架PaddlePaddle實現智能春聯

智能春聯有各種玩法,可以根據用戶輸入的關鍵詞,生成一副對聯,實現定制化的專屬春聯,比如:用戶輸入“好運”,百度的人工智能春聯生成程序就會創作出上下聯為“一年好運滿園錦繡,萬眾同心遍地輝煌”、橫批為“春光滿園”的春聯;用戶輸入自己的名字,智能春聯生成程序可以把自己的名字藏在生成的春聯中,形成個性化非常強的春聯,用來發送給自己的朋友;甚至用戶不需要輸入關鍵詞,只需要拍一張照片,然后就可以根據這張照片生成圖文并茂的春聯。那這些功能都是怎么做到的呢?這里我們給大家介紹一下如何用PaddlePaddle開發一套專屬的智能春聯生成系統。

如何用深度學習框架PaddlePaddle實現智能春聯

一、我們的系統需要先做到能理解圖像的內容,比如:用戶輸入的到底是什么?

這是一個典型圖像分類的問題,圖像分類是根據圖像的語義信息對不同類別圖像進行區分,是計算機視覺中重要的基礎問題,是物體檢測、圖像分割、物體跟蹤、行為分析、人臉識別等其他高層視覺任務的基礎,在許多領域都有著廣泛的應用。在深度學習時代,圖像分類的準確率大幅度提升,PaddlePaddle在經典的數據集ImageNet上,開放了常用的模型,包括AlexNet、VGG、GoogLeNet、ResNet、Inception-v4、MobileNet、DPN(Dual Path Network)、SE-ResNeXt模型,同時也開源了訓練的模型方便用戶下載使用。基于這些圖像分類算法,可以知道用戶輸入的類別,用類似的技術,還可以知道一些更具體的屬性,比如:對于一張人臉的照片,可以知道性別、年齡這些屬性。有了圖片的這些特征和屬性之后,我們可以進行關鍵詞擴展。比如:對于年輕的女性可以聯想出一些關鍵詞“風華絕代”、“秀麗”、“端莊”等等,對于小孩可以聯想出關鍵詞“活潑可愛”、“機智”、“勇敢”等等。

如何用深度學習框架PaddlePaddle實現智能春聯


二、拿到這些關鍵詞之后,接下來的任務是什么?

根據一個關鍵詞,自動生成一副相關的春聯。春聯的生成過程可以分成2個步驟,第一個步驟是從關鍵詞生成一副上聯。然后再根據上聯生成一副下聯。那么如何實現這2個生成步驟呢?我們發現這個任務跟機器翻譯很相似,可以用類似的技術來實現。機器翻譯(Machine Translation, MT)是用計算機來實現不同語言之間翻譯的技術。被翻譯的語言通常稱為源語言(Source Language),翻譯成的結果語言稱為目標語言(Target Language)。機器翻譯即實現從源語言到目標語言轉換的過程,是自然語言處理的重要研究領域之一。PaddlePaddle的模型庫(PaddlePaddle/models)里面,提供了兩個機器翻譯算法的實現,一個是經典的基于LSTM的Seq2Seq模型,另一個是最新的基于Attention的Transformer模型。 類比于機器翻譯任務,可以把智能春聯輸入的關鍵詞看作是機器翻譯里的源語言句子,然后把根據關鍵詞生成的上聯,看作是機器翻譯里的目標語言譯文。相較于此前 Seq2Seq 模型中廣泛使用的循環神經網絡(Recurrent Neural Network, RNN),使用(Self)Attention 進行輸入序列到輸出序列的變換主要具有以下優勢:計算復雜度更小、計算并發度更高、更容易學到長距離的依賴關系。我們推薦使用翻譯效果更好的Transformer模型,通常Transfomer可以得到比Seq2Seq更好的翻譯效果。

如何用深度學習框架PaddlePaddle實現智能春聯

圖2. Transformer模型核心組件Multi-Head Attention

 def  scaled_dot_product_attention(q, k, v, attn_bias, d_key, dropout_rate):

         """

        Scaled  Dot-Product Attention

         """

        scaled_q  = layers.scale(x=q, scale=d_key**-0.5)

        product =  layers.matmul(x=scaled_q, y=k, transpose_y=True)

        if  attn_bias:

             product += attn_bias

        weights =  layers.softmax(product)

        if  dropout_rate:

             weights = layers.dropout(

                 weights,

                 dropout_prob=dropout_rate,

                 seed=ModelHyperParams.dropout_seed,

                 is_test=False)

        out =  layers.matmul(weights, v)

        return  out

圖3. Scaled Dot-Product Attention的PaddlePaddle代碼實現


三、選定了使用的生成算法之后,如何讓機器能夠學會寫春聯呢?

接下來就需要給系統準備訓練數據了,所謂“熟讀唐詩三百首”,對于機器來說,需要見到大量的春聯,才能夠學會春聯里用詞和用字的規律。我們可以去互聯網上找到大量的春聯數據,比如:“爆竹傳吉語”“臘梅報新春”等等,然后把它們作為訓練數據,通常需要幾萬條。有了這些數據后,我們從上聯里抽取出關鍵詞,“爆竹”-> “爆竹傳吉語”,訓練一個從關鍵詞到上聯的生成模型;然后我們再用“爆竹傳吉語”“臘梅報新春”訓練一個從上聯到下聯的生成模型。

準備好訓練數據后,就可以啟動Transformer模型的訓練了,可以參考PaddlePaddle/models/neural_machine_translation/transformer里的命令。這個是英德翻譯的例子,在做關鍵詞到上聯的生成時,需要把訓練數據替換成“關鍵詞”到對應“春聯上聯”的數據;在做上聯到下聯生成時,需要把訓練數據替換成“春聯上聯”到對應“春聯下聯”的數據。

python -u train.py \

   --src_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

   --trg_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

  --special_token  '<s>''<e>''<unk>' \

   --train_file_pattern  gen_data/wmt16_ende_data_bpe/train.tok.clean.bpe.32000.en-de \

--token_delimiter ' ' \

   --use_token_batch True \

  --batch_size  4096 \

  --sort_type  pool \

  --pool_size  200000

訓練完成后就可以得到一個關鍵詞到上聯的生成模型,還有一個從上聯到下聯的生成模型。注意生成過程,需要執行2次Transformer的預測過程,先輸入一個關鍵詞,生成上聯;然后輸入生成的上聯,再生成一個下聯。具體生成參考以下命令。

python -u infer.py \

   --src_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

   --trg_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

  --special_token  '<s>''<e>''<unk>' \

   --test_file_pattern  gen_data/wmt16_ende_data_bpe/newstest2016.tok.bpe.32000.en-de \

--token_delimiter ' ' \

  --batch_size 32  \

  model_path  trained_models/iter_100000.infer.model \

  beam_size 4 \

  max_out_len 255

根據以上PaddlePaddle官方模型庫提供的一些技術,就可以實現一個好玩的智能春聯系統了。當然還可以做很多有意思的擴展,比如,可以增加一些古詩詞作為訓練語料,使得生成的春聯內容更為豐富;藏頭春聯,把關鍵詞按字分開,通過Grid Beam Search的技術,保證生成的關鍵詞會在春聯特定的位置出現。

感興趣的朋友,可以收集好春聯訓練語料,便可嘗試實現一個好玩的智能春聯系統了。

Github地址:

https://github.com/PaddlePaddle/models/blob/develop/fluid/PaddleNLP/neural_machine_translation/transformer/README_cn.md


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

宕昌县| 抚松县| 宜昌市| 依安县| 绥江县| 凤山市| 定襄县| 湖州市| 额济纳旗| 宁远县| 湄潭县| 贞丰县| 璧山县| 新乡市| 忻城县| 仪征市| 辽阳县| 镇雄县| 玉环县| 同心县| 湛江市| 吕梁市| 井冈山市| 阳原县| 乐昌市| 兴城市| 丰县| 万山特区| 大厂| 读书| 宁城县| 平陆县| 阿坝| 西盟| 永寿县| 神木县| 祁东县| 饶平县| 木兰县| 墨玉县| 宁德市|