-
當前位置:首頁 > 創(chuàng)意學院 > 技術(shù) > 專題列表 > 正文
transformer decoder的構(gòu)造
預訓練的時候做語言模型的訓練
GPT2用更多更深的block
BERT是做NLU,generation做不了
GPT天生就是語言模型,非常適合做generation的任務,在bert里能做的在gpt里也可以做
GPT-3是什么
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于GPT-3是什么的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內(nèi)免費在線使用,能給你生成想要的原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
你只需要給出你的關(guān)鍵詞,它就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端,官網(wǎng):https://ai.de1919.com
本文目錄:
一、GPT的auto-regressive語言模型架構(gòu)在信息表示方面有什么架構(gòu)上的缺陷?具體如何改進?
1) GPT
在Bert 之后,OpenAI 的 GPT-2 就是其中之一。它在文本生成上有著驚艷的表現(xiàn),其生成的文本在上下文連貫性和情感表達上都超過了人們對目前階段語言模型的預期。僅從模型架構(gòu)而言,GPT-2 并沒有特別新穎的架構(gòu),它和 transformer 的 Decoder 類似。相比較于GPT-1,GPT -2 使用了更大的預料,更大和更深的模型。
從transformer的decoder里移除了decoder對encoder的attention部分。也就是消除掉了seq2seq的過程。
GPT是一個語言模型,每一個時刻只能看見當前時刻前面時刻的信息,是一個auto regressive的過程。
GPT2,hidden state的大小有變化,根據(jù)層數(shù)的多少有small,medum,large,extra large的劃分。
GPT的訓練過程是交叉式的預測下一個單詞,測試的時候是輸入一個句子生成另外一個句子。
GPT的預訓練就是訓練一個語言模型。而bert的預訓練是masked language model和nsp的任務。
GPT由多個decocer block組成,每一個decoder block由masked self-attention和feed forward neural network組成。
一個timestamp的hidden state經(jīng)過線性層轉(zhuǎn)換為vocab size大小的embedding, 然后經(jīng)過softmax,算出每個詞匯的概率,找出其中概率最大的詞作為預測輸出,然后下一個時刻的詞作為真實輸出,計算兩者的cross entropy來訓練模型。
每一個timestamp后面的位置都mask掉,設(shè)置一個負無群大的值,做softmax的時候,該位置的值就為0。
2)總結(jié)
除了GPT-2 ,GPT-3依舊延續(xù)自己的單向語言模型訓練方式,只不過把模型尺寸增大到了1750億,并且使用45TB數(shù)據(jù)進行訓練
二、艾耕科技CEO韋嘯:可信AI助力內(nèi)容創(chuàng)作實現(xiàn)智能化
作者 | 維克多
編輯 | 琰琰
7月9日,在2021年世界人工智能大會的可信AI論壇上,艾耕 科技 CEO韋嘯進行了題為 《可信AI助力內(nèi)容創(chuàng)作實現(xiàn)智能化》 的報告。他在報告中指出了AI內(nèi)容生產(chǎn)在“可信”方面遇到的挑戰(zhàn),并給出了三條提高AI內(nèi)容生產(chǎn)可信性的技術(shù)建議:
1.知識圖譜沉淀行業(yè)專家經(jīng)驗提升可控性;
2.專家系統(tǒng)與局部模型提升可解釋性和可調(diào)性;
3.強調(diào)人+機器協(xié)同的工作模式。
此外,在報告結(jié)束,AI 科技 評論和韋嘯進行了一場關(guān)于“AI發(fā)展路徑”的交流,他認為當前人工智能想要取得突破性進展,必須等待其他領(lǐng)域,例如生物學領(lǐng)域,有突破性的發(fā)現(xiàn)。
今天的演講題目是《可信AI助力內(nèi)容創(chuàng)作實現(xiàn)智能化》,分享一下AI在內(nèi)容生產(chǎn)方面遇到的可信挑戰(zhàn)?;仡櫥ヂ?lián)網(wǎng)的前世今生,從門戶網(wǎng)站到搜索引擎、到社交網(wǎng)絡、再到超級APP,互聯(lián)網(wǎng)發(fā)揮的核心作用是:分發(fā)內(nèi)容。而內(nèi)容生產(chǎn)屬于互聯(lián)網(wǎng)的上游,每年制作物聯(lián)網(wǎng)流通的內(nèi)容成本超過千億。
人工智能(AI)作為技術(shù)發(fā)展的橋頭堡,未來十年的技術(shù)熱點,其一定會在行業(yè)里發(fā)揮巨大的作用。
目前,AI已經(jīng)能夠生產(chǎn)各種各樣的內(nèi)容,例如強大的GPT-3模型,其內(nèi)容生成能力一度讓人類驚呼。但實際上,GPT-3生成的大量內(nèi)容都是胡說八道的,沒有辦法直接使用。這對應的是AI穩(wěn)定性問題,即生成算法不可控。
可解釋性,可調(diào)性,是AI生產(chǎn)內(nèi)容過程中碰到的另一個問題。舉個例子,當我們用AI進行視頻生產(chǎn)時,無論是半自動還是全自動的方式,采用同一模板生成的視頻,在社交平臺上獲得的點贊數(shù)和流量卻不一樣。至于為什么?用戶希望能夠有一個解釋,即是算法出了問題還是其他方面的問題?這就是內(nèi)容生產(chǎn)遇到的AI可解釋性挑戰(zhàn)。
其實,內(nèi)容生產(chǎn)和內(nèi)容生成不同,今天AI技術(shù)大多僅支持內(nèi)容生成,內(nèi)容生產(chǎn)意味著要為產(chǎn)業(yè)賦能。內(nèi)容生成里的專家主要有主編、編輯和運營。而內(nèi)容生產(chǎn)需要將AI技術(shù)有機整合成一個專家系統(tǒng),包含上述一系列的角色,對于不同角色進行不同程度的賦能,從而提高內(nèi)容生產(chǎn)的能力。這也是我們一直打造的品牌“AIZAO, AI造”。
它的邏輯是先依靠電商或者品牌的營銷專家,然后基于他們對行業(yè)的理解,用知識圖譜支撐智能素材庫,生產(chǎn)出合適的圖、文內(nèi)容,最后加上運營數(shù)據(jù)的回流,就可以構(gòu)成生產(chǎn)力的大幅度提升。
為了讓這一AI系統(tǒng)生成的內(nèi)容更為可信,我們做了如下的嘗試:1.知識圖譜承載專家經(jīng)驗提升可控性;2.專家系統(tǒng)與局部模型提升可解釋性和可調(diào)性;3.強調(diào)人+機器協(xié)同的工作模式。AI一定會犯錯,人機協(xié)同是提高AI可信性的舉措之一。
總結(jié)一下,如果想搭建一個更為可信的內(nèi)容生產(chǎn)平臺,需要遵守三條原則,第一,堅守向善價值觀,不做惡;第二,建立評估體系,保證系統(tǒng)生產(chǎn)的內(nèi)容可信;第三,明確算法系統(tǒng)的責任。我們可以感受到,互聯(lián)網(wǎng)充滿了不可信的內(nèi)容,已經(jīng)對 社會 產(chǎn)生極大負面的價值,我們希望算法設(shè)計出之后,其所承擔的責任能有清晰的界定和邊界。
AI 科技 評論:請問您如何看待可信AI?
韋嘯:可信AI 包括幾個方面:穩(wěn)定性、可解釋性、可調(diào)性、公平性等等。這意味著可信AI不是一個概念,更多的衡量如何把一個技術(shù)更好的賦能各個場景。
關(guān)于構(gòu)建可信AI需要四方面的發(fā)力:
1.技術(shù)和學術(shù)上的突破。機器學習模型中的黑盒性是AI可信問題的源頭之一,很多AI技術(shù)如自動駕駛,AI醫(yī)療影像的應用,背后其實有可解釋性,可控制性的缺陷,邢波老師的Petuum,就考慮了如何提升黑盒模型的debuggability。楊強老師主推的聯(lián)邦學習,又在一定程度上能解決數(shù)據(jù)隱私問題,所以技術(shù)的發(fā)展,肯定能夠帶來更多可信的解決方案。
2.政策、法律衡量責任。一個算法存在開發(fā)者和使用者,但算法出錯,如何衡量雙方的責任,是需要政策制定者考慮的事情。
3.遵守商業(yè)道德準則。算法即技術(shù),技術(shù)中立,向善的人使用,會產(chǎn)生好的結(jié)果,心懷不軌的人使用,會產(chǎn)生惡果。
4.明確可信的目標。所有的算法都針對一個目標進行優(yōu)化,我們在設(shè)立這個目標的時候,能否將可信作為一個目標衡量?
AI 科技 評論:相比深度學習,傳統(tǒng)AI模型的可解釋性比較好,您如何看待兩者的關(guān)系?
韋嘯:我舉個例子,美國人工特別昂貴,很多車主自己動手修車。衡量一個修車匠是否能“打”的一個標準是:修車工具箱里工具種類是否豐富。這個工具箱可能有一些17世紀就有的改錐,也可能有新開發(fā)的智能電鉆。其實,老改錐還是新電鉆都存在于工具箱里,使用哪種鋸子修車取決于具體的場景。
類比到AI內(nèi)容生產(chǎn)領(lǐng)域,GPT-3這一模型確定能夠提高基底模型表現(xiàn),在從語料庫提取特征方面,非常高效。但是,有些場景要求生成的內(nèi)容絲毫不能出錯,例如寶馬X5的排量是2.4,如果AI生成的是2.5,顯然就不符合要求。因此,這時候如果采用經(jīng)典的PCFG,效果反而會更好。
因此,深度學習也好,傳統(tǒng)模型也好,它們都在工具箱里,如何使用,關(guān)鍵要看具體的場景。所以,我們創(chuàng)業(yè)者也要摒棄一個觀點:新工具不一定比傳統(tǒng)工具產(chǎn)生更大的商業(yè)價值,畢竟一些比較老的模型研發(fā)成本比較低,新模型(深度學習)研發(fā)成本比較高。
AI 科技 評論:AI內(nèi)容生成領(lǐng)域,遇到哪些可信方面的挑戰(zhàn)?
韋嘯:正如我演講中提到的,第一是穩(wěn)定性,我們在用工具創(chuàng)造標題的時候,有些生成的內(nèi)容質(zhì)量高,有些卻不通順;第二是可解釋性,同一組算法生成的視頻,卻獲得了不同的流量反饋,人工干預也無法總結(jié)優(yōu)化的路徑;第三是AI系統(tǒng)一定會犯錯,不管什么模型,只要場景足夠復雜系統(tǒng)就一定會犯錯。這時候需要人機配合,往往可以大幅提高工具使用的可信度。
AI 科技 評論:在實際操作過程中,AI還無法取代人類?
韋嘯:在某些特定領(lǐng)域,AI可以取代人工,但也不能取代人。工具取代人工一直在發(fā)生,例如超市售貨,很多時候顧客選品掃碼支付不需要和售貨員互動,即便如此,無人超市也沒有普及,這就側(cè)面說明了售貨員還有他存在的價值。但也不得不承認,超市管理中,現(xiàn)在所用到的人力成本比原來要少很多。
AI內(nèi)容生產(chǎn)也是如此,某些情況下,AI剪輯視頻的質(zhì)量和操作精度已經(jīng)超過人類了,但是仍然需要人類進行審核、把關(guān)。
AI 科技 評論:目前人工智能的發(fā)展,呈現(xiàn)出“大”的特點,例如大數(shù)據(jù)集、大模型,您如何看待?
韋嘯:技術(shù)發(fā)展的路徑非常復雜,存在很多不同的道路,大模型只是一條 探索 路徑,但肯定不是唯一的路徑。之前在和學者進行交流的時候,他們表達的一個觀點是:其實人工智能領(lǐng)域也在期待其他學科,例如腦科學的突破,例如直到今天,我們清楚的知道人腦對于一些觀察和決策的工作機理,例如顏色是如何被探測和判斷的,但是高級的認知例如紅色這個概念,大腦如何存儲和計算,卻沒有很好解釋。而這些解釋上的突破,很有可能為算法的設(shè)計提供全新的思路,在大模型之外,為AI的應用打開新的場景。
由于微信公眾號試行亂序推送,您可能不再能準時收到AI 科技 評論的推送。為了第一時間收到AI 科技 評論的報道, 請將“AI 科技 評論”設(shè)為星標賬號在看”。
三、chatgpt的gpt全文是怎樣的。
ChatGPT是一款大型預訓練語言模型,它基于GPT(Generative Pre-trained Transformer)算法進行訓練。GPT是一種基于自注意力機制(Self-Attention)的序列生成模型,它可以學習輸入序列中不同位置之間的依賴關(guān)系,進而生成具有語言邏輯性的連續(xù)文本。
ChatGPT模型的訓練數(shù)據(jù)來源于大量的公共語料庫,如維基百科、新聞報道、社交媒體等,并通過多層的Transformer模型進行預訓練。在預訓練階段,模型通過學習上下文之間的關(guān)系,學會了語言的基本語法、語義和知識,從而可以生成連貫、合理、自然的文本。
ChatGPT模型是一種無監(jiān)督學習的模型,不需要對輸入數(shù)據(jù)進行人工標注和指導,也不需要針對特定任務進行有監(jiān)督學習。這種無監(jiān)督學習的特點,使得ChatGPT模型可以應用于各種自然語言處理任務,如對話系統(tǒng)、文本生成、語言翻譯等,并且具有很高的靈活性和擴展性。
總之,ChatGPT的GPT全文是一種基于自注意力機制的預訓練語言模型,它通過學習大量的公共語料庫,可以生成具有語言邏輯性和語義的自然文本。
四、跑gpt3的條件
1、必須禁止定制自己的開放式聊天機器人功能。
2、需設(shè)置內(nèi)容過濾器以避免用戶與Samantha談論敏感話題。
3、必須部署自動化監(jiān)控工具監(jiān)視用戶的對話,檢測是否濫用GPT3生成的有害或敏感語句。
以上就是關(guān)于GPT-3是什么相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
家裝室內(nèi)設(shè)計師的設(shè)計理念(家裝室內(nèi)設(shè)計師的設(shè)計理念是什么)