模型制作 如何用bert模型做翻譯任務(wù)?
如何用bert模型做翻譯任務(wù)?Bert不能做翻譯任務(wù),因?yàn)榉g任務(wù)是NLP生成任務(wù),Bert目前不能做。Bert可以完成的主要任務(wù)有:1文本分類任務(wù),如情感分類,2序列注釋任務(wù),如分詞實(shí)體識(shí)別,詞性標(biāo)
如何用bert模型做翻譯任務(wù)?
Bert不能做翻譯任務(wù),因?yàn)榉g任務(wù)是NLP生成任務(wù),Bert目前不能做。Bert可以完成的主要任務(wù)有:1文本分類任務(wù),如情感分類,2序列注釋任務(wù),如分詞實(shí)體識(shí)別,詞性標(biāo)注,3句子關(guān)系判斷,如QA,自然語(yǔ)言推理
學(xué)習(xí)是一個(gè)漫長(zhǎng)的過程,遇到困難停不下來,語(yǔ)言堅(jiān)持,那人的學(xué)習(xí)方法不一樣,有的人喜歡看視頻,有的人喜歡看書,B站,CSDN,智湖等等,有很多教學(xué)視頻,可以參考學(xué)習(xí),小編學(xué)習(xí)python,都是直接作戰(zhàn),自己做項(xiàng)目,在項(xiàng)目中遇到問題,去百度,或者谷歌,這些問題解決后,推薦自己的學(xué)習(xí)解決方案也錄下來,發(fā)到網(wǎng)上,讓自己也學(xué)習(xí),為別人也鋪路,相關(guān)的python,小編也寫了很多文章,大家可以參考和學(xué)習(xí)
前段時(shí)間,我用了NLP領(lǐng)域最好的。我把它放到業(yè)務(wù)數(shù)據(jù)集上微調(diào)后,效果非常好。
此外,釋義檢測(cè)任務(wù)列表模型的精度也提高到0.95,泛化能力很強(qiáng)。改變子域數(shù)據(jù)時(shí)不需要繼續(xù)微調(diào),隨機(jī)測(cè)試10個(gè)以上的情況只會(huì)出現(xiàn)一個(gè)錯(cuò)誤。
但是在實(shí)際生產(chǎn)環(huán)境中存在一些問題。首先,模型存儲(chǔ)成本巨大。一個(gè)bet分類器模型的長(zhǎng)度超過400m,并且在我們的知識(shí)樹中有很多節(jié)點(diǎn)。假設(shè)只有10個(gè)分類器,這部分成本也是巨大的。
而且,使用CPU來做信息會(huì)非常慢,但是如果你想更換GPU,機(jī)器的成本每年都會(huì)增加很多。
所以最前沿的車型是否真的能被使用,其中會(huì)有很多權(quán)衡