HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務(wù)案例
NEWS 熱點資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    gpt2模型參數(shù)layer

    發(fā)布時間:2023-03-19 05:37:25     稿源: 創(chuàng)意嶺    閱讀: 135        問大家

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于gpt2模型參數(shù)layer的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    本文目錄:

    gpt2模型參數(shù)layer

    一、gpt怎么解除300字限制

    GPT(Generative Pre-trained Transformer)是一種深度學習模型,主要用于文本生成。它采用預(yù)先訓練的可調(diào)整的變換器架構(gòu),可以用來預(yù)測文本序列的下一個單詞,預(yù)測句子的結(jié)構(gòu)等。

    要解除GPT的300字限制,可以增加模型的容量,也就是增加模型參數(shù)的數(shù)量,這可以通過增加層數(shù)、增加每層中神經(jīng)元的數(shù)量,以及增加頭數(shù)等方式實現(xiàn)。另外,還可以采用雙向預(yù)測策略,同時從上文和下文預(yù)測下一個單詞,以提高模型的準確性。

    每次只能輸入300字,是因為GPT模型受制于其參數(shù)的數(shù)量,它的參數(shù)越多,模型的容量越大,可以處理的文本越長。

    二、chatgpt衍生工具包括什么

    ChatGPT衍生工具包包括:

    1. ChatGPT模型:一種基于Transformer的聊天機器人模型,可以根據(jù)上下文生成自然語言回復(fù)。

    2. ChatGPT訓練框架:一個基于TensorFlow的訓練框架,可以讓開發(fā)者快速構(gòu)建和訓練聊天機器人模型。

    3. ChatGPT預(yù)訓練模型:一系列預(yù)訓練模型,可以幫助開發(fā)者快速構(gòu)建聊天機器人。

    4. ChatGPT模型庫:一個模型庫,可以讓開發(fā)者輕松訪問和使用ChatGPT模型。

    5. ChatGPT API:一個RESTful API,可以讓開發(fā)者輕松調(diào)用ChatGPT模

    三、BERT詳解(附帶ELMo、GPT 介紹)

    首先我會詳細闡述 BERT 原理,然后簡單介紹一下 ELMO 以及 GPT

    BERT 全稱為 B idirectional E ncoder R epresentation from T ransformer,是 Google 以 無監(jiān)督的方式利用大量無標注文本 「煉成」的語言模型,其架構(gòu)為 Transformer 中的 Encoder(BERT=Encoder of Transformer)

    我在 Transformer 詳解 中已經(jīng)詳細的解釋了所有 Transformer 的相關(guān)概念,這里就不再贅述

    以往為了解決不同的 NLP 任務(wù),我們會為該任務(wù)設(shè)計一個最合適的神經(jīng)網(wǎng)絡(luò)架構(gòu)并做訓練,以下是一些簡單的例子

    不同的 NLP 任務(wù)通常需要不同的模型,而設(shè)計這些模型并測試其 performance 是非常耗成本的(人力,時間,計算資源)。如果有一個能 直接處理各式 NLP 任務(wù)的通用架構(gòu) 該有多好?

    隨著時代演進,不少人很自然地有了這樣子的想法,而 BERT 就是其中一個將此概念付諸實踐的例子

    Google 在預(yù)訓練 BERT 時讓它同時進行兩個任務(wù):

    1. 漏字填空

    2. 下個句子預(yù)測

    對正常人來說,要完成這兩個任務(wù)非常簡單。只要稍微看一下前后文就知道完形填空任務(wù)中 [MASK] 里應(yīng)該填 退了 ;而 醒醒吧 后面接 你沒有妹妹 也十分合理(?)

    接下來我會分別詳細介紹論文中這兩個任務(wù)的設(shè)計細節(jié)

    在 BERT 中,Masked LM(Masked Language Model)構(gòu)建了語言模型,簡單來說,就是 隨機遮蓋或替換 一句話里面的任意字或詞,然后讓模型通過上下文預(yù)測那一個被遮蓋或替換的部分,之后 做 Loss 的時候也只計算被遮蓋部分的 Loss ,這其實是一個很容易理解的任務(wù),實際操作如下:

    這樣做的好處是,BERT 并不知道 [MASK] 替換的是哪一個詞,而且 任何一個詞都有可能是被替換掉的,比如它看到的 apple 可能是被替換的詞 。這樣強迫模型在編碼當前時刻詞的時候 不能太依賴當前的詞 ,而要考慮它的上下文,甚至根據(jù)上下文進行 "糾錯"。比如上面的例子中,模型在編碼 apple 時,根據(jù)上下文 my dog is,應(yīng)該 把 apple 編碼成 hairy 的語義而不是 apple 的語義

    我們首先拿到屬于上下文的一對句子,也就是兩個句子,之后我們要在這兩個句子中加一些特殊的 token: [CLS]上一句話[SEP]下一句話[SEP] 。也就是在句子開頭加一個 [CLS] ,在兩句話之間和句末加 [SEP] ,具體地如下圖所示

    可以看到,上圖中的兩句話明顯是連續(xù)的。如果現(xiàn)在有這么一句話 [CLS] 我的狗很可愛 [SEP] 企鵝不擅長飛行 [SEP] ,可見這兩句話就 不是連續(xù)的 。在實際訓練中,我們會讓這兩種情況出現(xiàn)的數(shù)量為** 1:1**

    Token Embedding 就是正常的詞向量,即 PyTorch 中的 nn.Embedding()

    Segment Embedding 的作用是用 embedding 的信息讓模型 分開上下句 ,我們給上句的 token 全 0,下句的 token 全 1,讓模型得以判斷上下句的起止位置,例如

    Position Embedding 和 Transformer 中的不一樣,不是三角函數(shù),而是 學習出來的

    BERT 預(yù)訓練階段實際上是將上述兩個任務(wù)結(jié)合起來,同時進行,然后將所有的 Loss 相加,例如

    BERT 的 Fine-Tuning 共分為 4 種類型,以下內(nèi)容、圖片均來自臺大李宏毅老師 Machine Learning 課程 (以下內(nèi)容 圖在上,解釋在下)

    為什么要用CLS?

    這里李宏毅老師有一點沒講到,就是為什么要用第一個位置,即 [CLS] 位置的 output。這里我看了網(wǎng)上的一些博客,結(jié)合自己的理解解釋一下。因為 BERT 內(nèi)部是 Transformer,而 Transformer 內(nèi)部又是 Self-Attention, 所以 [CLS] 的 output 里面肯定含有整句話的完整信息 ,這是毋庸置疑的。但是 Self-Attention 向量中,自己和自己的值其實是占大頭的,現(xiàn)在假設(shè)使用 的 output 做分類,那么這個 output 中實際上會更加看重 ,而 又是一個有實際意義的字或詞,這樣難免會影響到最終的結(jié)果。但是 [CLS] 是沒有任何實際意義的,只是一個占位符而已,所以就算 [CLS] 的 output 中自己的值占大頭也無所謂。當然你 也可以將所有詞的 output 進行 concat,作為最終的 output

    首先將問題和文章通過 [SEP] 分隔,送入 BERT 之后,得到上圖中黃色的輸出。此時我們還要訓練兩個 vector,即上圖中橙色和黃色的向量。首先將橙色和所有的黃色向量進行 dot product,然后通過 softmax,看哪一個輸出的值最大,例如上圖中 對應(yīng)的輸出概率最大,那我們就認為 s=2

    同樣地,我們用藍色的向量和所有黃色向量進行 dot product,最終預(yù)測得 的概率最大,因此 e=3。最終,答案就是 s=2,e=3

    你可能會覺得這里面有個問題,假設(shè)最終的輸出 s>e 怎么辦,那不就矛盾了嗎?其實在某些訓練集里,有的問題就是沒有答案的,因此此時的預(yù)測搞不好是對的,就是沒有答案

    以上就是 BERT 的詳細介紹,參考以下文章

    ELMo是Embedding from language Model的縮寫,它通過無監(jiān)督的方式對語言模型進行預(yù)訓練來學習單詞表示

    這篇論文的想法其實非常簡單,但是效果卻很好。它的思路是用 深度的雙向 Language Model 在大量未標注數(shù)據(jù)上訓練語言模型 ,如下圖所示

    在實際任務(wù)中,對于輸入的句子,我們使用上面的語言模型來處理它,得到輸出向量,因此這可以看作是一種 特征提取 。但是 ELMo 與普通的 Word2Vec 或 GloVe 不同,ELMo 得到的 Embedding 是 有上下文信息

    具體來說,給定一個長度為 N 的句子,假設(shè)為 ,語言模型會計算給定 的條件下出現(xiàn) 的概率:

    傳統(tǒng)的 N-gram 模型 不能考慮很長的歷史 ,因此現(xiàn)在的主流是使用 多層雙向 LSTM 。在時刻 ,LSTM 的第 層會輸出一個隱狀態(tài) ,其中 , 是 LSTM 的層數(shù)。最上層是 ,對它進行 softmax 之后得到輸出詞的概率

    類似的,我們可以用 一個反向 來計算概率:

    通過這個 LSTM,我們可以得到 。我們的損失函數(shù)是這兩個 LSTM 的 加和 :

    這兩個 LSTM 有各自的參數(shù) 和 ,而 Word Embedding 參數(shù) 和 Softmax 參數(shù) 是共享的

    為了用于下游(DownStream)的特定任務(wù),我們會把不同層的隱狀態(tài)組合起來,具體組合的參數(shù)是根據(jù)不同的特定任務(wù)學習出來的,公式如下:

    GPT 得到的語言模型參數(shù)不是固定的,它會根據(jù)特定的任務(wù)進行調(diào)整(通常是微調(diào)),這樣的到的句子表示能更好的適配特定任務(wù)。它的思想也很簡單,使用 單向 Transformer 學習一個語言模型 ,對句子進行無監(jiān)督的 Embedding,然后 根據(jù)具體任務(wù)對 Transformer 的參數(shù)進行微調(diào) 。GPT 與 ELMo 有兩個主要的區(qū)別:

    這里解釋一下上面提到的 單向 Transformer 。在 Transformer 的文章中,提到了 Encoder 與 Decoder 使用的 Transformer Block 是不同的。在 Decoder Block 中,使用了 Masked Self-Attention ,即句子中的每個詞都只能對 包括自己在內(nèi)的前面所有詞進行 Attention ,這就是單向 Transformer。GPT 使用的 Transformer 結(jié)構(gòu)就是將 Encoder 中的 Self-Attention 替換成了 Masked Self-Attention ,具體結(jié)構(gòu)如下圖所示

    訓練的過程也非常簡單,就是將 n 個詞的詞嵌入 ( ) 加上位置嵌入 ( ),然后輸入到 Transformer 中,n 個輸出分別預(yù)測該位置的下一個詞

    這里的位置編碼沒有使用傳統(tǒng) Transformer 固定編碼的方式,而是動態(tài)學習的

    Pretraining 之后,我們還需要針對特定任務(wù)進行 Fine-Tuning。假設(shè)監(jiān)督數(shù)據(jù)集合 的輸入 是一個詞序列 ,輸出是一個分類的標簽 ,比如情感分類任務(wù)

    我們把 輸入 Transformer 模型,得到最上層最后一個時刻的輸出 ,將其通過我們新增的一個 Softmax 層(參數(shù)為 )進行分類,最后用 CrossEntropyLoss 計算損失,從而根據(jù)標準數(shù)據(jù)調(diào)整 Transformer 的參數(shù)以及 Softmax 的參數(shù) 。這等價于最大似然估計:

    正常來說,我們應(yīng)該調(diào)整參數(shù)使得 最大,但是 為了提高訓練速度和模型的泛化能力 ,我們使用 Multi-Task Learning,同時讓它最大似然 和

    這里使用的 還是之前語言模型的損失(似然),但是使用的數(shù)據(jù)不是前面無監(jiān)督的數(shù)據(jù) ,而是使用當前任務(wù)的數(shù)據(jù) ,而且只使用其中的 ,而不需要標簽

    針對不同任務(wù),需要簡單修改下輸入數(shù)據(jù)的格式,例如對于相似度計算或問答,輸入是兩個序列,為了能夠使用 GPT,我們需要一些特殊的技巧把兩個輸入序列變成一個輸入序列

    ELMo 和 GPT 最大的問題就是 傳統(tǒng)的語言模型是單向的 —— 我們根據(jù)之前的歷史來預(yù)測當前詞。但是我們不能利用后面的信息。比如句子 The animal didn’t cross the street because it was too tired 。我們在編碼 it 的語義的時候需要同時利用前后的信息,因為在這個句子中, it 可能指代 animal 也可能指代 street 。根據(jù) tired ,我們推斷它指代的是 animal 。但是如果把 tired 改成 wide ,那么 it 就是指代 street 了。傳統(tǒng)的語言模型,都 只能利用單方向的信息 。比如前向的 RNN,在編碼 it 的時候它看到了 animal 和 street ,但是它還沒有看到 tired ,因此它不能確定 it 到底指代什么。如果是后向的 RNN,在編碼的時候它看到了 tired ,但是它還根本沒看到 animal ,因此它也不能知道指代的是 animal 。 Transformer 的 Self-Attention 理論上是可以同時關(guān)注到這兩個詞的,但是根據(jù)前面的介紹,為了使用 Transformer 學習語言模型,必須 用 Mask 來讓它看不到未來的信息 ,所以它也不能解決這個問題的

    根據(jù)上文內(nèi)容預(yù)測下一個可能跟隨的單詞,就是常說的自左向右的語言模型任務(wù),或者反過來也行,就是根據(jù)下文預(yù)測前面的單詞,這種類型的LM被稱為自回歸語言模型。(GPT,ELMO)GPT 就是典型的自回歸語言模型。ELMO盡管看上去利用了上文,也利用了下文,但是本質(zhì)上仍然是自回歸LM,這個跟模型具體怎么實現(xiàn)有關(guān)系。ELMO是做了兩個方向(從左到右以及從右到左兩個方向的語言模型),但是是分別有兩個方向的自回歸LM,然后把LSTM的兩個方向的隱節(jié)點狀態(tài)拼接到一起,來體現(xiàn)雙向語言模型這個事情的。所以其實是兩個自回歸語言模型的拼接,本質(zhì)上仍然是自回歸語言模型。

    自回歸語言模型有優(yōu)點有缺點,缺點是只能利用上文或者下文的信息,不能同時利用上文和下文的信息,當然,貌似ELMO這種雙向都做,然后拼接看上去能夠解決這個問題,因為融合模式過于簡單,所以效果其實并不是太好。它的優(yōu)點,其實跟下游NLP任務(wù)有關(guān),比如生成類NLP任務(wù),比如文本摘要,機器翻譯等,在實際生成內(nèi)容的時候,就是從左向右的, 自回歸語言模型天然匹配這個過程 。而Bert這種DAE模式,在生成類NLP任務(wù)中,就面臨訓練過程和應(yīng)用過程不一致的問題,導(dǎo)致 生成類的NLP任務(wù)到目前為止都做不太好 。

    自回歸語言模型只能根據(jù)上文預(yù)測下一個單詞,或者反過來,只能根據(jù)下文預(yù)測前面一個單詞。相比而言,Bert通過 在輸入X中隨機Mask掉一部分單詞 ,然后預(yù)訓練過程的主要任務(wù)之一是根據(jù)上下文單詞來預(yù)測這些被Mask掉的單詞,如果你對Denoising Autoencoder比較熟悉的話,會看出,這確實是典型的DAE的思路。那些被Mask掉的單詞就是在輸入側(cè)加入的所謂噪音。類似Bert這種預(yù)訓練模式,被稱為DAE LM。

    這種DAE LM的優(yōu)缺點正好和自回歸LM反過來,它能比較自然地融入雙向語言模型,同時看到被預(yù)測單詞的上文和下文,這是好處。缺點是啥呢? 主要在輸入側(cè)引入[Mask]標記,導(dǎo)致預(yù)訓練階段和Fine-tuning階段不一致的問題 ,因為Fine-tuning階段是看不到[Mask]標記的。DAE嗎,就要引入噪音,[Mask] 標記就是引入噪音的手段,這個正常。

    XLNet的出發(fā)點就是:能否 融合自回歸LM和DAE LM兩者的優(yōu)點 。就是說如果站在自回歸LM的角度,如何引入和雙向語言模型等價的效果;如果站在DAE LM的角度看,它本身是融入雙向語言模型的,如何拋掉表面的那個[Mask]標記,讓預(yù)訓練和Fine-tuning保持一致。當然,XLNet還講到了一個Bert被Mask單詞之間相互獨立的問題。

    四、ai的雞湯是不是很厲害

    GPT-3是OpenAI最新、最大的語言人工智能模型,由1750億個參數(shù)組成??偛课挥谂f金山的OpenAI研究實驗室今年5月開始逐步推出了該模型,并引起越來越大的反響。這個龐大的語言模型幾乎可以勝任所有可以用文字表達的工作:從回答問題、寫文章、寫詩歌、甚至寫代碼……無一不包。那么,現(xiàn)實中它究竟有多厲害呢?

    最近,國外一名剛?cè)腴TGPT-3不久的伯克利大學生利亞姆·波爾(Liam Porr),以一個假名,然后用人工智能模型建了一個完全假的博客。不過,這卻成功“騙倒”了一大批內(nèi)容閱讀者。

    這個充滿諷刺性和欺騙性的“AI把戲”很快騙過了Hacker News等科技極客圈子,然后真相曝光——瞬間成為了熱點話題——這么多人怎么就被一個完全由AI搭建起來的所謂“博客”給誆了?居然還有不少人“訂閱”了上面的消息?

    盡管許多人猜測到目前為止最強大的語言生成AI工具——GPT-3會如何影響內(nèi)容生產(chǎn),但這種“以假亂真”的程度和效果是他們始料未及的。這是目前唯一一次GPT-3如此真實地展示自己的實力,足以說明這一工具的應(yīng)用潛力。

    在加州大學伯克利分校(University of California, Berkeley)學習計算機科學的波爾說,這次經(jīng)歷中最突出的一點是:“實際上,它超級簡單,這是最可怕的部分?!?/p>

    登上頭條狂漲粉的“AI雞湯文”

    雖然GPT-3還沒有徹底開放,但波爾卻依然輕輕松松獲取了接口。波爾提交了一份申請。他填寫了一張表格,里面有一份關(guān)于他打算使用的簡單問卷。但他也沒有等上多少時間。在聯(lián)系了伯克利的人工智能社區(qū)的幾名成員后,他很快找到了一名已經(jīng)有此權(quán)限的博士生。

    這個博士生同意合作后,波爾很快就寫了一個小腳本讓他運行。它給了GPT-3一個博客文章的標題和介紹,并給出了幾個完整的版本。Porr的第一個帖子(在Hacker News上發(fā)布的那個)和之后的每一個帖子都是從一個輸出中復(fù)制粘貼過來的,幾乎沒有編輯。

    他說:“從我想到這個想法并與那個博士生取得聯(lián)系,到我真正創(chuàng)建了這個博客——這大概只花了幾個小時?!?/p>

    波爾用假名字“adolos”寫的第一篇假博客,居然順順利利就登上了YC新聞平臺Hacker News熱門榜第一名!波爾說,他使用了三個獨立的賬號在Hacker News上提交并投票,試圖把他的帖子推得更高。管理員說這個策略不起作用,但他的點擊率標題起作用了。

    不需要太多編輯就能生成內(nèi)容的訣竅是——理解GPT-3的優(yōu)缺點。波爾說:“它很擅長創(chuàng)造漂亮的語言,但不太擅長邏輯和理性。”因此,他選擇了一個不需要嚴格邏輯的流行博客類別——“雞湯文”,這樣就能實現(xiàn)高效和自助式的產(chǎn)出。

    然后,他按照一個簡單的公式來寫他的標題:他在Medium和Hacker News上翻來翻去,看看在這些類別中發(fā)生了什么,然后把一些相對相似的東西放在一起?!陡杏X生產(chǎn)力不高?也許你應(yīng)該停止思慮過多》“”(Feeling unproductive? Maybe you should stop overthinking)他為其中一篇文章寫道?!洞竽懞蛣?chuàng)造力勝過智慧》(Boldness and creativity trumps intelligence),他又在另一篇文章中寫道。有幾次,這些標題并沒有起到作用。但只要他堅持正確的話題,這個過程就很容易實現(xiàn),“雞湯文”成功地幫著博客蹭蹭蹭狂漲粉。

    兩周后,他幾乎每天都發(fā)帖子。隨后不久,Hacker News上就有人指責波爾的博客文章是GPT-3寫的。另一名用戶卻回應(yīng)說,這條評論“不可接受”。甚至有讀者讀后留言稱,“好文!和Ethan Hawke在Ted的演講一樣深刻!”對波爾的假博客持懷疑態(tài)度的少數(shù)人,居然就這樣被社區(qū)的其他成員投了反對票,妥妥證明了并非“大眾的眼睛都是雪亮的”。

    一大部分人愣是沒看出來文章不是人類寫的,Medium、YC的新聞平臺等多家平臺都轉(zhuǎn)載刊發(fā)了他的第一篇博客、他的博客居然還瘋狂漲粉人氣居高不下……這讓小哥波爾開始感到不淡定了,不過他自己也感到非常驚訝。

    波爾說,他想證明GPT-3可以冒充人類作家。事實上,盡管該算法的書寫模式有些奇怪,偶爾也會出現(xiàn)錯誤,但在他在Hacker News上發(fā)表的最重要的帖子上,只有三四個人懷疑該算法可能是由某個算法產(chǎn)生的。而且,所有這些評論都立即被其他社區(qū)成員否決。

    最后,波爾以一條自己寫的神秘信息結(jié)束了這個項目。標題為《如果我沒有道德,我將如何對待GPT-3》,文章將他的過程描述為一個假設(shè)。同一天,他還在自己真正的博客上發(fā)表了一篇更直白的自白,澄清曝光了“假博客”的始終。

    AI語言工具引發(fā)擔憂與思考

    根據(jù)OpenAI的算力統(tǒng)計單位petaflops/s-days,訓練AlphaGoZero需要1800-2000pfs-day,而OpenAI的GPT-3用了3640pfs-day,看來擁有微軟無限算力的OpenAI,現(xiàn)在真的是為所欲為了。

    對于專家來說,這一直是這種語言生成算法引起的擔憂。自從OpenAI首次發(fā)布GPT-2以來,人們就猜測它很容易被濫用。而GPT-3已經(jīng)成為OpenAI迄今為止推出最新、最大的AI語言模型。在自己的博客文章中,該實驗室重點關(guān)注了人工智能工具作為大量制造錯誤信息的武器的潛力。其他人則想知道是否可以用它來大量發(fā)布谷歌游戲相關(guān)關(guān)鍵詞的垃圾帖子。

    去年2月,OpenAI的GPT-2(該算法的早期版本)登上了新聞頭條,OpenAI宣布將保留該版本,以防被濫用。這一決定立即引發(fā)了強烈反響,研究人員指責該實驗室在“搞噱頭”。到了11月,該實驗室終于改變了立場,發(fā)布了這個模型,當時還言之鑿鑿地稱“到目前為止沒有發(fā)現(xiàn)濫用的有力證據(jù)”。這不,這回“翻車”翻得有點厲害了。

    該實驗室對GPT-3采取了不同的方法;它既沒有拒絕,也沒有允許公眾訪問。取而代之的是,它將算法提供給了那些申請私有測試的研究人員,目的是收集他們的反饋,并在今年年底將這項技術(shù)商業(yè)化。

    波爾說,他的實驗還展示了一個更平凡但仍然令人不安的選擇——人們可以使用該工具生成大量的點擊誘導(dǎo)內(nèi)容。他說:“很有可能會出現(xiàn)大量平庸無質(zhì)量的博客內(nèi)容,因為現(xiàn)在進入的門檻太低了?!薄拔艺J為在線內(nèi)容的價值將大大降低?!?/p>

    波爾計劃用GPT-3做更多的實驗。但他仍在等待OpenAI的介入。他說:“他們可能對我的所作所為感到不滿?!薄拔沂钦f,這有點傻。”

    背后的“AI大法”O(jiān)penAI

    在成立的短短四年時間里,OpenAI已經(jīng)成為全球領(lǐng)先的人工智能研究實驗室之一。與Alphabet旗下的DeepMind等其他人工智能巨頭一樣,谷歌不斷推出引人注目的研究成果,并因此成名。它也是硅谷的寵兒,創(chuàng)始人包括埃隆·馬斯克(Elon Musk)和傳奇投資者山姆·奧特曼(Sam Altman)。

    最重要的是,它因其使命而受到推崇。它的目標是成為第一個創(chuàng)造人工智能的機器——一個具有人類思維的學習和推理能力的機器。其目的不是統(tǒng)治世界;相反,該實驗室想要確保這項技術(shù)是安全發(fā)展的,并且它的好處能均勻地分配給全世界。

    這意味著,如果AGI技術(shù)的發(fā)展遵循阻力最小的道路,那么它很容易失控。圍繞在我們身邊的那種笨拙的人工智能,就是一個例子。問題是,AGI一直都很模糊。該領(lǐng)域內(nèi)的共識是,這種先進的能力將需要幾十年,甚至幾個世紀的時間——如果真的有可能發(fā)展它們的話。許多人還擔心,過分追求這一目標可能會適得其反。

    大多數(shù)人第一次聽說OpenAI是在2019年2月14日。那天,實驗室宣布了一項令人印象深刻的新研究:只需按下一個按鈕,就可以生成令人信服的論文和文章。

    但也有一個問題:研究人員說,這種被稱為GPT-2的模型釋放起來太危險了。如果這樣強大的技術(shù)落入壞人之手,就很容易被“武器化”,制造大規(guī)模的虛假信息。這立即引起了科學家們的強烈反對。

    在持續(xù)不斷的炒作指控中,OpenAI堅稱GPT-2不是噱頭。更確切地說,這是一項經(jīng)過深思熟慮的實驗,經(jīng)過一系列內(nèi)部討論和辯論后達成一致。大家一致認為,即使這次的行動稍微有點過火,但它將為處理更危險的研究開創(chuàng)先例。

    但OpenAI與GPT-2的媒體宣傳活動也遵循了一種成熟的模式,這種模式讓更廣泛的人工智能社區(qū)產(chǎn)生了懷疑。多年來,該實驗室的重大、引人注目的研究公告一再被指責助長了人工智能的炒作周期。批評人士還不止一次地指責該實驗室大肆宣揚其研究結(jié)果,甚至達到了錯誤描述的地步。出于這些原因,該領(lǐng)域的許多人都傾向于保持一定的距離。

    GPT-2引發(fā)如此強烈的反彈還有另一個原因。人們覺得OpenAI又一次違背了它之前關(guān)于開放和透明的承諾,并走上了營利的道路。未公開的研究讓人們更加擔憂和懷疑——會不會是這項技術(shù)一直處于保密狀態(tài),為將來獲得許可做準備?但是人們并不知道,這不是OpenAI唯一一次選擇隱藏它的研究。

    以上就是關(guān)于gpt2模型參數(shù)layer相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    mbr轉(zhuǎn)gpt后無法開機(mbr改成gpt進不了系統(tǒng))

    chatGpT英語

    谷歌高管回應(yīng)ChatGPT(谷歌 高管)

    法國景觀設(shè)計留學申請流程(法國景觀設(shè)計留學申請流程及費用)

    切煤什么意思(煤爐mercari網(wǎng)站)