HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    GPT概念龍頭(gpgpu概念股)

    發(fā)布時間:2023-03-13 15:41:51     稿源: 創(chuàng)意嶺    閱讀: 56        問大家

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于GPT概念龍頭的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    ChatGPT國內(nèi)免費(fèi)在線使用,能給你生成想要的原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對話答疑等等

    你只需要給出你的關(guān)鍵詞,它就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端,官網(wǎng):https://ai.de1919.com

    本文目錄:

    GPT概念龍頭(gpgpu概念股)

    一、efi,uefi和bios的區(qū)別,gpt分區(qū)和mbr分區(qū)的區(qū)別

    BIOS+MBR和UEFI+GPT兩種模式的區(qū)別:

    一般情況下,在安裝官方原版系統(tǒng)時,你使用BIOS傳統(tǒng)啟動方式,你在安裝界面重新分區(qū)就是MBR分區(qū)表;如果你使用的是UEFI啟動方式,你在安裝界面重新分區(qū)就是GPT分區(qū)表。

    BIOS+MBR這種啟動模式兼容性較好。可以進(jìn)行安裝 32位和64位系統(tǒng)。

    UEFI可以以32位或64位模式運(yùn)行,并具有比BIOS更多的可尋址地址空間,這意味著您的引導(dǎo)過程更快。

    另外,UEFI包含其他功能,它支持安全啟動,這意味著可以檢查操作系統(tǒng)的有效性,以確保沒有惡意軟件篡改引導(dǎo)進(jìn)程。

    總之,BIOS和UEFI兩種模式啟動計(jì)算機(jī)過程可以概括為:

    BIOS先要對CPU初始化,然后跳轉(zhuǎn)到BIOS啟動處進(jìn)行POST自檢,此過程如有嚴(yán)重錯誤,則電腦會用不同的報(bào)警聲音提醒,接下來采用讀中斷的方式加載各種硬件,完成硬件初始化后進(jìn)入操作系統(tǒng)啟動過程;

    而UEFI則是運(yùn)行預(yù)加載環(huán)境先直接初始化CPU和內(nèi)存,CPU和內(nèi)存若有問題則直接黑屏,其后啟動PXE采用枚舉方式搜索各種硬件并加載驅(qū)動,完成硬件初始化,之后同樣進(jìn)入操作系統(tǒng)啟動過程。

    MBR和GPT:

    MBR是傳統(tǒng)的分區(qū)表類型,最大缺點(diǎn)是不支持容量大于2T的硬盤。GPT則彌補(bǔ)了MBR這個缺點(diǎn),最大支持18EB的硬盤,是基于UEFI使用的磁盤分區(qū)架構(gòu)。此外,BIOS只支持MBR引導(dǎo)系統(tǒng),而GPT僅支持UEFI引導(dǎo)系統(tǒng)。由于GPT引導(dǎo)系統(tǒng)的方式與MBR不同,所以我們在安裝系統(tǒng)時,才面臨需要手動開啟UEFI,或是將其設(shè)置成Legacy模式等方式加以解決。

    目前的電腦一般為UEFI啟動,內(nèi)存大于4G,安裝32位系統(tǒng)意義不大;對于老主板還是建議使用BIOS+MBR,這種模式較為穩(wěn)定。

    二、BERT詳解(附帶ELMo、GPT 介紹)

    首先我會詳細(xì)闡述 BERT 原理,然后簡單介紹一下 ELMO 以及 GPT

    BERT 全稱為 B idirectional E ncoder R epresentation from T ransformer,是 Google 以 無監(jiān)督的方式利用大量無標(biāo)注文本 「煉成」的語言模型,其架構(gòu)為 Transformer 中的 Encoder(BERT=Encoder of Transformer)

    我在 Transformer 詳解 中已經(jīng)詳細(xì)的解釋了所有 Transformer 的相關(guān)概念,這里就不再贅述

    以往為了解決不同的 NLP 任務(wù),我們會為該任務(wù)設(shè)計(jì)一個最合適的神經(jīng)網(wǎng)絡(luò)架構(gòu)并做訓(xùn)練,以下是一些簡單的例子

    不同的 NLP 任務(wù)通常需要不同的模型,而設(shè)計(jì)這些模型并測試其 performance 是非常耗成本的(人力,時間,計(jì)算資源)。如果有一個能 直接處理各式 NLP 任務(wù)的通用架構(gòu) 該有多好?

    隨著時代演進(jìn),不少人很自然地有了這樣子的想法,而 BERT 就是其中一個將此概念付諸實(shí)踐的例子

    Google 在預(yù)訓(xùn)練 BERT 時讓它同時進(jìn)行兩個任務(wù):

    1. 漏字填空

    2. 下個句子預(yù)測

    對正常人來說,要完成這兩個任務(wù)非常簡單。只要稍微看一下前后文就知道完形填空任務(wù)中 [MASK] 里應(yīng)該填 退了 ;而 醒醒吧 后面接 你沒有妹妹 也十分合理(?)

    接下來我會分別詳細(xì)介紹論文中這兩個任務(wù)的設(shè)計(jì)細(xì)節(jié)

    在 BERT 中,Masked LM(Masked Language Model)構(gòu)建了語言模型,簡單來說,就是 隨機(jī)遮蓋或替換 一句話里面的任意字或詞,然后讓模型通過上下文預(yù)測那一個被遮蓋或替換的部分,之后 做 Loss 的時候也只計(jì)算被遮蓋部分的 Loss ,這其實(shí)是一個很容易理解的任務(wù),實(shí)際操作如下:

    這樣做的好處是,BERT 并不知道 [MASK] 替換的是哪一個詞,而且 任何一個詞都有可能是被替換掉的,比如它看到的 apple 可能是被替換的詞 。這樣強(qiáng)迫模型在編碼當(dāng)前時刻詞的時候 不能太依賴當(dāng)前的詞 ,而要考慮它的上下文,甚至根據(jù)上下文進(jìn)行 "糾錯"。比如上面的例子中,模型在編碼 apple 時,根據(jù)上下文 my dog is,應(yīng)該 把 apple 編碼成 hairy 的語義而不是 apple 的語義

    我們首先拿到屬于上下文的一對句子,也就是兩個句子,之后我們要在這兩個句子中加一些特殊的 token: [CLS]上一句話[SEP]下一句話[SEP] 。也就是在句子開頭加一個 [CLS] ,在兩句話之間和句末加 [SEP] ,具體地如下圖所示

    可以看到,上圖中的兩句話明顯是連續(xù)的。如果現(xiàn)在有這么一句話 [CLS] 我的狗很可愛 [SEP] 企鵝不擅長飛行 [SEP] ,可見這兩句話就 不是連續(xù)的 。在實(shí)際訓(xùn)練中,我們會讓這兩種情況出現(xiàn)的數(shù)量為** 1:1**

    Token Embedding 就是正常的詞向量,即 PyTorch 中的 nn.Embedding()

    Segment Embedding 的作用是用 embedding 的信息讓模型 分開上下句 ,我們給上句的 token 全 0,下句的 token 全 1,讓模型得以判斷上下句的起止位置,例如

    Position Embedding 和 Transformer 中的不一樣,不是三角函數(shù),而是 學(xué)習(xí)出來的

    BERT 預(yù)訓(xùn)練階段實(shí)際上是將上述兩個任務(wù)結(jié)合起來,同時進(jìn)行,然后將所有的 Loss 相加,例如

    BERT 的 Fine-Tuning 共分為 4 種類型,以下內(nèi)容、圖片均來自臺大李宏毅老師 Machine Learning 課程 (以下內(nèi)容 圖在上,解釋在下)

    為什么要用CLS?

    這里李宏毅老師有一點(diǎn)沒講到,就是為什么要用第一個位置,即 [CLS] 位置的 output。這里我看了網(wǎng)上的一些博客,結(jié)合自己的理解解釋一下。因?yàn)?BERT 內(nèi)部是 Transformer,而 Transformer 內(nèi)部又是 Self-Attention, 所以 [CLS] 的 output 里面肯定含有整句話的完整信息 ,這是毋庸置疑的。但是 Self-Attention 向量中,自己和自己的值其實(shí)是占大頭的,現(xiàn)在假設(shè)使用 的 output 做分類,那么這個 output 中實(shí)際上會更加看重 ,而 又是一個有實(shí)際意義的字或詞,這樣難免會影響到最終的結(jié)果。但是 [CLS] 是沒有任何實(shí)際意義的,只是一個占位符而已,所以就算 [CLS] 的 output 中自己的值占大頭也無所謂。當(dāng)然你 也可以將所有詞的 output 進(jìn)行 concat,作為最終的 output

    首先將問題和文章通過 [SEP] 分隔,送入 BERT 之后,得到上圖中黃色的輸出。此時我們還要訓(xùn)練兩個 vector,即上圖中橙色和黃色的向量。首先將橙色和所有的黃色向量進(jìn)行 dot product,然后通過 softmax,看哪一個輸出的值最大,例如上圖中 對應(yīng)的輸出概率最大,那我們就認(rèn)為 s=2

    同樣地,我們用藍(lán)色的向量和所有黃色向量進(jìn)行 dot product,最終預(yù)測得 的概率最大,因此 e=3。最終,答案就是 s=2,e=3

    你可能會覺得這里面有個問題,假設(shè)最終的輸出 s>e 怎么辦,那不就矛盾了嗎?其實(shí)在某些訓(xùn)練集里,有的問題就是沒有答案的,因此此時的預(yù)測搞不好是對的,就是沒有答案

    以上就是 BERT 的詳細(xì)介紹,參考以下文章

    ELMo是Embedding from language Model的縮寫,它通過無監(jiān)督的方式對語言模型進(jìn)行預(yù)訓(xùn)練來學(xué)習(xí)單詞表示

    這篇論文的想法其實(shí)非常簡單,但是效果卻很好。它的思路是用 深度的雙向 Language Model 在大量未標(biāo)注數(shù)據(jù)上訓(xùn)練語言模型 ,如下圖所示

    在實(shí)際任務(wù)中,對于輸入的句子,我們使用上面的語言模型來處理它,得到輸出向量,因此這可以看作是一種 特征提取 。但是 ELMo 與普通的 Word2Vec 或 GloVe 不同,ELMo 得到的 Embedding 是 有上下文信息

    具體來說,給定一個長度為 N 的句子,假設(shè)為 ,語言模型會計(jì)算給定 的條件下出現(xiàn) 的概率:

    傳統(tǒng)的 N-gram 模型 不能考慮很長的歷史 ,因此現(xiàn)在的主流是使用 多層雙向 LSTM 。在時刻 ,LSTM 的第 層會輸出一個隱狀態(tài) ,其中 , 是 LSTM 的層數(shù)。最上層是 ,對它進(jìn)行 softmax 之后得到輸出詞的概率

    類似的,我們可以用 一個反向 來計(jì)算概率:

    通過這個 LSTM,我們可以得到 。我們的損失函數(shù)是這兩個 LSTM 的 加和 :

    這兩個 LSTM 有各自的參數(shù) 和 ,而 Word Embedding 參數(shù) 和 Softmax 參數(shù) 是共享的

    為了用于下游(DownStream)的特定任務(wù),我們會把不同層的隱狀態(tài)組合起來,具體組合的參數(shù)是根據(jù)不同的特定任務(wù)學(xué)習(xí)出來的,公式如下:

    GPT 得到的語言模型參數(shù)不是固定的,它會根據(jù)特定的任務(wù)進(jìn)行調(diào)整(通常是微調(diào)),這樣的到的句子表示能更好的適配特定任務(wù)。它的思想也很簡單,使用 單向 Transformer 學(xué)習(xí)一個語言模型 ,對句子進(jìn)行無監(jiān)督的 Embedding,然后 根據(jù)具體任務(wù)對 Transformer 的參數(shù)進(jìn)行微調(diào) 。GPT 與 ELMo 有兩個主要的區(qū)別:

    這里解釋一下上面提到的 單向 Transformer 。在 Transformer 的文章中,提到了 Encoder 與 Decoder 使用的 Transformer Block 是不同的。在 Decoder Block 中,使用了 Masked Self-Attention ,即句子中的每個詞都只能對 包括自己在內(nèi)的前面所有詞進(jìn)行 Attention ,這就是單向 Transformer。GPT 使用的 Transformer 結(jié)構(gòu)就是將 Encoder 中的 Self-Attention 替換成了 Masked Self-Attention ,具體結(jié)構(gòu)如下圖所示

    訓(xùn)練的過程也非常簡單,就是將 n 個詞的詞嵌入 ( ) 加上位置嵌入 ( ),然后輸入到 Transformer 中,n 個輸出分別預(yù)測該位置的下一個詞

    這里的位置編碼沒有使用傳統(tǒng) Transformer 固定編碼的方式,而是動態(tài)學(xué)習(xí)的

    Pretraining 之后,我們還需要針對特定任務(wù)進(jìn)行 Fine-Tuning。假設(shè)監(jiān)督數(shù)據(jù)集合 的輸入 是一個詞序列 ,輸出是一個分類的標(biāo)簽 ,比如情感分類任務(wù)

    我們把 輸入 Transformer 模型,得到最上層最后一個時刻的輸出 ,將其通過我們新增的一個 Softmax 層(參數(shù)為 )進(jìn)行分類,最后用 CrossEntropyLoss 計(jì)算損失,從而根據(jù)標(biāo)準(zhǔn)數(shù)據(jù)調(diào)整 Transformer 的參數(shù)以及 Softmax 的參數(shù) 。這等價于最大似然估計(jì):

    正常來說,我們應(yīng)該調(diào)整參數(shù)使得 最大,但是 為了提高訓(xùn)練速度和模型的泛化能力 ,我們使用 Multi-Task Learning,同時讓它最大似然 和

    這里使用的 還是之前語言模型的損失(似然),但是使用的數(shù)據(jù)不是前面無監(jiān)督的數(shù)據(jù) ,而是使用當(dāng)前任務(wù)的數(shù)據(jù) ,而且只使用其中的 ,而不需要標(biāo)簽

    針對不同任務(wù),需要簡單修改下輸入數(shù)據(jù)的格式,例如對于相似度計(jì)算或問答,輸入是兩個序列,為了能夠使用 GPT,我們需要一些特殊的技巧把兩個輸入序列變成一個輸入序列

    ELMo 和 GPT 最大的問題就是 傳統(tǒng)的語言模型是單向的 —— 我們根據(jù)之前的歷史來預(yù)測當(dāng)前詞。但是我們不能利用后面的信息。比如句子 The animal didn’t cross the street because it was too tired 。我們在編碼 it 的語義的時候需要同時利用前后的信息,因?yàn)樵谶@個句子中, it 可能指代 animal 也可能指代 street 。根據(jù) tired ,我們推斷它指代的是 animal 。但是如果把 tired 改成 wide ,那么 it 就是指代 street 了。傳統(tǒng)的語言模型,都 只能利用單方向的信息 。比如前向的 RNN,在編碼 it 的時候它看到了 animal 和 street ,但是它還沒有看到 tired ,因此它不能確定 it 到底指代什么。如果是后向的 RNN,在編碼的時候它看到了 tired ,但是它還根本沒看到 animal ,因此它也不能知道指代的是 animal 。 Transformer 的 Self-Attention 理論上是可以同時關(guān)注到這兩個詞的,但是根據(jù)前面的介紹,為了使用 Transformer 學(xué)習(xí)語言模型,必須 用 Mask 來讓它看不到未來的信息 ,所以它也不能解決這個問題的

    根據(jù)上文內(nèi)容預(yù)測下一個可能跟隨的單詞,就是常說的自左向右的語言模型任務(wù),或者反過來也行,就是根據(jù)下文預(yù)測前面的單詞,這種類型的LM被稱為自回歸語言模型。(GPT,ELMO)GPT 就是典型的自回歸語言模型。ELMO盡管看上去利用了上文,也利用了下文,但是本質(zhì)上仍然是自回歸LM,這個跟模型具體怎么實(shí)現(xiàn)有關(guān)系。ELMO是做了兩個方向(從左到右以及從右到左兩個方向的語言模型),但是是分別有兩個方向的自回歸LM,然后把LSTM的兩個方向的隱節(jié)點(diǎn)狀態(tài)拼接到一起,來體現(xiàn)雙向語言模型這個事情的。所以其實(shí)是兩個自回歸語言模型的拼接,本質(zhì)上仍然是自回歸語言模型。

    自回歸語言模型有優(yōu)點(diǎn)有缺點(diǎn),缺點(diǎn)是只能利用上文或者下文的信息,不能同時利用上文和下文的信息,當(dāng)然,貌似ELMO這種雙向都做,然后拼接看上去能夠解決這個問題,因?yàn)槿诤夏J竭^于簡單,所以效果其實(shí)并不是太好。它的優(yōu)點(diǎn),其實(shí)跟下游NLP任務(wù)有關(guān),比如生成類NLP任務(wù),比如文本摘要,機(jī)器翻譯等,在實(shí)際生成內(nèi)容的時候,就是從左向右的, 自回歸語言模型天然匹配這個過程 。而Bert這種DAE模式,在生成類NLP任務(wù)中,就面臨訓(xùn)練過程和應(yīng)用過程不一致的問題,導(dǎo)致 生成類的NLP任務(wù)到目前為止都做不太好 。

    自回歸語言模型只能根據(jù)上文預(yù)測下一個單詞,或者反過來,只能根據(jù)下文預(yù)測前面一個單詞。相比而言,Bert通過 在輸入X中隨機(jī)Mask掉一部分單詞 ,然后預(yù)訓(xùn)練過程的主要任務(wù)之一是根據(jù)上下文單詞來預(yù)測這些被Mask掉的單詞,如果你對Denoising Autoencoder比較熟悉的話,會看出,這確實(shí)是典型的DAE的思路。那些被Mask掉的單詞就是在輸入側(cè)加入的所謂噪音。類似Bert這種預(yù)訓(xùn)練模式,被稱為DAE LM。

    這種DAE LM的優(yōu)缺點(diǎn)正好和自回歸LM反過來,它能比較自然地融入雙向語言模型,同時看到被預(yù)測單詞的上文和下文,這是好處。缺點(diǎn)是啥呢? 主要在輸入側(cè)引入[Mask]標(biāo)記,導(dǎo)致預(yù)訓(xùn)練階段和Fine-tuning階段不一致的問題 ,因?yàn)镕ine-tuning階段是看不到[Mask]標(biāo)記的。DAE嗎,就要引入噪音,[Mask] 標(biāo)記就是引入噪音的手段,這個正常。

    XLNet的出發(fā)點(diǎn)就是:能否 融合自回歸LM和DAE LM兩者的優(yōu)點(diǎn) 。就是說如果站在自回歸LM的角度,如何引入和雙向語言模型等價的效果;如果站在DAE LM的角度看,它本身是融入雙向語言模型的,如何拋掉表面的那個[Mask]標(biāo)記,讓預(yù)訓(xùn)練和Fine-tuning保持一致。當(dāng)然,XLNet還講到了一個Bert被Mask單詞之間相互獨(dú)立的問題。

    三、mbr和guid分區(qū)哪個比較好?

    GUID分區(qū)。

    1、分區(qū)信息信息儲存:在MBR硬盤中,分區(qū)信息直接存儲于

    擴(kuò)展資料:

    guid分區(qū)注意事項(xiàng):

    MBR支持win7版本系統(tǒng)以下的32位和64位。GUID(GPT)支持win7版本以上的64位系統(tǒng)(不支持32位系統(tǒng)),比如win8,win10系統(tǒng)。

    MBR分區(qū)表:Master Boot Record,即硬盤主引導(dǎo)記錄分區(qū)表,只支持容量在 2.2TB 以下的硬盤,超過2.2TB的硬盤卻只能管理2.2TB,最多只支持4個主分區(qū)或三個主分區(qū)和一個擴(kuò)展分區(qū),擴(kuò)展分區(qū)下可以有多個邏輯分區(qū),適用Win7版本以下的系統(tǒng)(包含Win7)。

    參考資料來源:百度百科-GUID

    參考資料來源:百度百科-mbr

    參考資料來源:百度百科-分區(qū)表

    四、關(guān)于UEFI啟動+GPT分區(qū) 的一些經(jīng)驗(yàn)

    隨著時代和科技的發(fā)展,電腦越來越普及,似乎人人都可以張嘴就說“我懂電腦”,但是總有一些看起來完全不懂但實(shí)際上非?;A(chǔ)的東西讓“懂”與“不懂”清晰地劃清界限。比如UEFI+GPT就是其中之一。那些之前認(rèn)為自己已經(jīng)精通電腦的人,遇到這個東西,忽然發(fā)現(xiàn)自己連以前自以為駕輕就熟的分區(qū)、裝 系統(tǒng) 都不會了。 

    盡管UEFI以及GPT從誕生迄今已經(jīng) 十余年 了,但是對于絕大多數(shù)人來講它們是完全陌生的,甚至根本就不知道還有這種東西。 

    但是由于 Windows 8操作系統(tǒng)的面世,預(yù)裝Windows8的電腦開始統(tǒng)一采用UEFI+GPT,很多人被迫接觸到,感覺就像突然從天上掉下來的東西一樣,無所適從,一籌莫展——“這到底是個什么東西呢?” 

    一旦出現(xiàn)系統(tǒng)問題,唯一能做的解決辦法除了品牌機(jī)自帶的系統(tǒng)還原,最大能力不過就是把UEFI關(guān)閉,把硬盤從GPT再轉(zhuǎn)成MBR,從而徹底毀掉UEFI+GPT的優(yōu)勢,重新回到陳舊落后的BIOS+MBR的系統(tǒng)安裝和運(yùn)行方式上來。而每臺電腦的具體情況又不盡相同,有時候即使想用BIOS+MBR也不是肯定能成功的——“我該怎么辦啊?” 

    正文:  

    之前很長一段時間對UEFI+GPT沒有頭緒,有種無處下手的感覺,雖然UEFI+GPT安裝系統(tǒng)一直沒遇到什么障礙,但是即使查閱了相當(dāng)數(shù)量的資料,在認(rèn)識上對于UEFI+GPT也沒有一個完整的概念,總覺得這是一個很難理解的東西,不得要領(lǐng)。不像最初接觸BIOS+MBR的時候那么容易入門直至熟練操作。 

    先說關(guān)于什么是UEFI和GPT,在此就不做詳解了,感興趣的都了解,不感興趣的說了也沒什么用處。只說一點(diǎn)最基本的,MBR分區(qū)結(jié)構(gòu)只能支持到2.2T的硬盤,超過2.2T就必須采用GPT分區(qū),而就Windows而言,采用了GPT的硬盤,要想安裝并啟動Windows操作系統(tǒng),只能選擇高于XP的64位操作系統(tǒng),并且采用UEFI方式安裝、引導(dǎo),否則無法啟動,而包括XP在內(nèi)及其之前的32位操作系統(tǒng)完全不支持GPT,別說安裝、引導(dǎo)系統(tǒng),直接無法識別。3T硬盤時代并不遙遠(yuǎn),要想正常使用你的電腦,這就是采用UEFI+GPT的必要性。 

    而最關(guān)鍵之處在于, 照目前的形勢來看,由于預(yù)裝Windows8電腦的推動,UEFI+GPT已經(jīng)是大勢所趨,與是否2.2T以上硬盤也已經(jīng)沒什么直接關(guān)系,也許就在不久之后的某一天開始所有的電腦全部使用UEFI單一啟動,不會再兼容傳統(tǒng)BIOS。  

    再說一下關(guān)于BIOS+MBR,從接觸電腦十幾年來,一直都是用的這種組合,直至今日,不敢說對此有多么了解,最起碼在日常操作中基本無障礙了。比如:Windows各個版本甚至再+ Linux +Mac的混合安裝、引導(dǎo)駕輕就熟,任意順序安裝,任意創(chuàng)建、修復(fù)引導(dǎo),多硬盤混合引導(dǎo),分區(qū)表損壞、主引導(dǎo)記錄損壞的修復(fù)、重建等等,都不存在任何問題。 

    而從一接觸UEFI+GPT,總是感覺這個東西無法理解。甚至一籌莫展,哪怕是引導(dǎo)損壞這樣之前在BIOS+MBR里不叫事的事情,面對UEFI+GPT都束手無策,查了很多資料,除了重裝系統(tǒng), 在國內(nèi)網(wǎng)絡(luò)范圍內(nèi),全網(wǎng)竟然找不到任何一篇具體解決問題的文章。 現(xiàn)在回想,很長一段時間內(nèi)都無法理解這些問題,很多莫名其妙的所謂專業(yè)文章的誤導(dǎo)在其中作了重要貢獻(xiàn)。 

    后來索性拋開所有的那些亂七八糟的觀點(diǎn)、定義,按照自己的想法去摸索,經(jīng)過近十天,幾十遍重裝系統(tǒng),反復(fù)的假設(shè)、實(shí)驗(yàn),總算是對UEFI+GPT有了一個總體的概念和較為清晰的認(rèn)識, 最關(guān)鍵的在于能夠隨意進(jìn)行UEFI+GPT的安裝和引導(dǎo)修復(fù)了,這是最重要的,個人觀點(diǎn)一直都是,必須從實(shí)際出發(fā),即使了解的再多,什么問題也解決不了,紙上談兵,一切等于零。 可以毫不夸張的說, 至少目前為止,本文是全網(wǎng)絡(luò)唯一一篇對UEFI+GPT進(jìn)行實(shí)用性介紹和以及解決實(shí)際問題的文章。  

    關(guān)于UEFI的優(yōu)越特性,比如 可操作性、安全性、兼容性、可擴(kuò)展性之 類的問題,在此不再多說,這是開發(fā)人員的事情,和我沒有關(guān)系。僅僅總結(jié)幾點(diǎn)兩者在系統(tǒng)安裝及引導(dǎo)方式方面一些異同,幫助同樣有此困惑的人理解這個東西: 

    【重要提示:  

    本文旨在“授之以漁”,力求融會貫通,知其然更知其所以然。因此本文既不包含網(wǎng)絡(luò)上“技術(shù)文章八股文”式的定義、理論的堆砌和釋義,更不是“小白必備”的傻瓜式手把手操作教程,如果對以上兩種千篇一律的所謂“技術(shù)文章”有偏執(zhí)的愛好,請務(wù)必及時停止瀏覽,另尋其好?!? 

    不同點(diǎn):  

    1.BIOS+MBR安裝系統(tǒng)要求硬盤只要存在非隱藏、活動的主分區(qū)就可以了;而UEFI+GPT要求硬盤上除了存在ESP分區(qū),還必須存在至少一個主分區(qū) 

    2.BIOS+MBR一旦系統(tǒng)安裝好之后,如果系統(tǒng)引導(dǎo)文件在單獨(dú)的分區(qū),此分區(qū)可以在操作系統(tǒng)中可見,也可以設(shè)置此分區(qū)為隱藏,系統(tǒng)都可以正常啟動;而UEFI+GPT系統(tǒng)引導(dǎo)文件所在的ESP分區(qū)在操作系統(tǒng)中為不可見 

    3.BIOS+MBR啟動要求的活動的主分區(qū)不是唯一固定的,可以任意設(shè)定某一分區(qū)為活動的主分區(qū),然后MBR就可以通過分區(qū)表指引操作系統(tǒng)從此分區(qū)啟動,也就是說,可以在任意分區(qū)(主分區(qū)無論是否活動或者擴(kuò)展分區(qū))安裝操作系統(tǒng),只要存在任意的活動主分區(qū),就可以從此分區(qū)啟動操作系統(tǒng);而UEFI+GPT只能把系統(tǒng)引導(dǎo)文件放置在ESP分區(qū) 

    4.BIOS+MBR的系統(tǒng)引導(dǎo)文件可以和系統(tǒng)文件在同一分區(qū)的根目錄,也可以不與系統(tǒng)文件同一分區(qū),只要系統(tǒng)引導(dǎo)文件所在分區(qū)為活動的主分區(qū)即可啟動操作系統(tǒng);而UEFI+GPT只能把系統(tǒng)引導(dǎo)文件放置在ESP分區(qū),且操作系統(tǒng)必須在另外的主分區(qū),也就是說, UEFI+GPT強(qiáng)制要求系統(tǒng)啟動文件與系統(tǒng)文件必須分離,不在同一分區(qū)。  

    相同點(diǎn): 

    1.BIOS+MBR和UEFI+GPT的系統(tǒng)引導(dǎo)文件都可以放置在單獨(dú)的分區(qū),這一點(diǎn)在上面的第4點(diǎn)里已經(jīng)說的很清楚 

    2.BIOS+MBR的系統(tǒng)引導(dǎo)文件所在的活動主分區(qū)位置不是固定的,可以隨意設(shè)置任意分區(qū)滿足此條件,UEFI+GPT的ESP的位置也是可以隨意設(shè)置的,在硬盤起始位置、中間位置、末尾,都可以,只要分區(qū)屬性和其中的引導(dǎo)文件正確,就可以引導(dǎo)啟動操作系統(tǒng)(參考文中附圖) 

    3.BIOS+MBR的系統(tǒng)引導(dǎo)文件所在的分區(qū)和UEFI+GPT的ESP分區(qū)都可以分配任意大小,而不是ESP必須100M 

    4.BIOS+MBR安裝系統(tǒng)所需的非隱藏、活動主分區(qū)和UEFI+GPT的系統(tǒng)的ESP分區(qū),都可以同時設(shè)置多個,但是即使有多個相同屬性的分區(qū),系統(tǒng)安裝時安裝程序都是自動寫入第一個,啟動時也都是從第一個啟動(參考文中附圖) 

    補(bǔ)充:  

    1.使用BIOS+MBR和UEFI+GPT安裝的系統(tǒng)文件是一模一樣的,唯一的區(qū)別只是引導(dǎo)方式的不同,因此使用GHOST手動備份的系統(tǒng),MBR和GPT可以任意交叉還原,只要做好引導(dǎo)修復(fù)就沒有任何問題 

    2.GHOST始終是系統(tǒng)備份還原神器,只要熟練掌握GHOST手動操作,至少目前為止Windows系統(tǒng)的范圍之內(nèi),無論什么版本,無論MBR還是GPT,都可以隨意備份還原。 

    3.MBR與GPT分區(qū)互轉(zhuǎn)的話,與“刪除所有分區(qū)”以及“全盤格式化”沒有任何必然聯(lián)系,你格式化一萬遍硬盤也還是原來的分區(qū)結(jié)構(gòu),只有通過轉(zhuǎn)換操作才可以到另一種,而這個轉(zhuǎn)換操作與“刪除所有分區(qū)”以及“全盤格式化”沒什么關(guān)系。 

    著重強(qiáng)調(diào)一點(diǎn):  

    以上所有經(jīng)驗(yàn)均基于UEFI+GPT的組合,而實(shí)際上, UEFI啟動(Windows操作系統(tǒng))的話,并不強(qiáng)制要求硬盤必須為GPT分區(qū),而是只要硬盤上存在EFI啟動文件且位于FAT(16/32)分區(qū)就可以了(UEFI無法從NTFS分區(qū)啟動)。 因此如果是小于2.2T的硬盤,不必非得轉(zhuǎn)換成GPT也可以引導(dǎo)系統(tǒng)啟動。也就是說,UEFI+MBR也是可行的,而GPT硬盤的話,則必須使用UEFI引導(dǎo),BIOS無法原生引導(dǎo)GPT硬盤上的操作系統(tǒng)(Windows)。 

    關(guān)于這一點(diǎn),如果感覺不能理解的話,可以通過以下具體應(yīng)用來參考。 

    注:  

    綜觀網(wǎng)上那些關(guān)于UEFI的所謂技術(shù)類文章,除了毫無實(shí)用價值和實(shí)際意義,而且都不同程度的存在各種各樣的因循誤導(dǎo),繼而被以訛傳訛,最終成為一些人堅(jiān)信不疑的“定律”。這樣的誤導(dǎo)主要表現(xiàn)為兩點(diǎn): 

    1. 就是剛剛說的 ,“UEFI啟動系統(tǒng)必須是GPT分區(qū)”, 這個已經(jīng)說得很明白了,并且有實(shí)例解析,無需再討論 

    2. 另外一個就是不知道從什么時候什么人開始謠傳的 “UEFI的優(yōu)勢就是啟動速度快” 或者 “UEFI啟動比傳統(tǒng)BIOS啟動速度快”。 無論UEFI還是GPT,與電腦啟動速度沒有任何必然聯(lián)系?;蛘哒f,只要硬件環(huán)境相同、系統(tǒng)一樣,無論UEFI+GPT安裝還是BIOS+MBR安裝系統(tǒng),啟動速度沒有區(qū)別 

    GPT 

    MBR 

    附:部分Windows桌面操作系統(tǒng)對GPT的支持  

    數(shù)據(jù)讀寫系統(tǒng)啟動  

    WindowsXP32位不支持GPT不支持GPT 

    WindowsXP64位支持GPT不支持GPT 

    WindowsVista32位支持GPT不支持GPT 

    WindowsVista64位支持GPT支持GPT(需UEFI) 

    Windows732位支持GPT不支持GPT 

    Windows764位支持GPT支持GPT(需UEFI) 

    Windows832位支持GPT不支持GPT 

    Windows864位支持GPT支持GPT(需UEFI) 

    有了以上的經(jīng)驗(yàn)總結(jié),就可以輕松解決以下問題了: 

    1.UEFI+GPT環(huán)境下以任意方式安裝操作系統(tǒng)(單系統(tǒng)或者多系統(tǒng)) 。這個不必詳解了 

    2.最主要的問題: UEFI+GPT引導(dǎo)修復(fù)操作(EFI引導(dǎo)文件損壞、ESP分區(qū)損壞或者丟失之后手動重建EFI引導(dǎo)等等)。 這個在此也不做詳解,這是 這段時間反復(fù)研究、實(shí)踐的最重要成果 ,因此姑且算是有所保留賣個關(guān)子吧,如果是結(jié)合以上幾點(diǎn)經(jīng)驗(yàn)總結(jié),對UEFI+GPT有一定的了解之后,應(yīng)該不難揣摩出辦法 

    3. 如果主板不支持UEFI,使用折中的辦法來解決大硬盤使用問題 ,這個問題以前我也已經(jīng)多次提過。 

    第一種辦法就是使用多塊硬盤,MBR+GPT組合,MBR 硬盤作為啟動引導(dǎo)盤。 

    小于2.2T的硬盤采用MBR,大于2.2T的硬盤采用GPT,這樣的話,解決方案就很靈活了,可以根據(jù)以上所列相同點(diǎn)的第1條和補(bǔ)充里面第2條,使用MBR硬盤建一個非隱藏活動主分區(qū),放置系統(tǒng)引導(dǎo)文件,然后將系統(tǒng)安裝在MBR硬盤或者GPT硬盤都可以,無論單系統(tǒng)還是多系統(tǒng)都無所謂,兩塊硬盤交叉安裝操作系統(tǒng)也沒有任何問題 

    強(qiáng)調(diào)兩點(diǎn) : 

    1.這樣安裝的話不限于64位操作系統(tǒng)及XP以上版本,理論上只要是能對GPT硬盤進(jìn)行讀寫的系統(tǒng)版本就可以安裝。實(shí)際測試,32位XP和2003sp1以及之前的版本,電腦事先安裝GPT硬盤的情況下,即使系統(tǒng)安裝在MBR硬盤,原版系統(tǒng)安裝,沒有問題,如果是Ghost系統(tǒng),有可能出現(xiàn)卡死或者藍(lán)屏等問題導(dǎo)致無法順利安裝;先在MBR硬盤安裝好系統(tǒng),然后再裝GPT硬盤,無論原版還是Ghost系統(tǒng)都沒有問題,只是GPT分區(qū)無法識別(解決方法很簡單,就是使用2003sp2的disk.sys文件替換到以上系統(tǒng),就可以完美識別GPT分區(qū),此法簡單易操作,且不涉及系統(tǒng)穩(wěn)定問題,感興趣的話可以自行搜索)。64位XP安裝在MBR硬盤,引導(dǎo)、啟動都沒有問題,安裝在GPT硬盤無法引導(dǎo)。其他系統(tǒng)無論32位還是64位,無論安裝在MBR還是GPT,都可以正常引導(dǎo)啟動; 

    2.BIOS安裝系統(tǒng)到GPT硬盤僅限于Ghost方式,Ghost解壓完畢后手動修復(fù)引導(dǎo)即可。 

    第二種辦法是單塊大于2.2T的硬盤+U盤或者光盤組合  

    使用GPT分區(qū)結(jié)構(gòu)對硬盤進(jìn)行分區(qū),是否創(chuàng)建ESP分區(qū)都無所謂,因?yàn)橹靼宀恢С諹EFI,創(chuàng)建此分區(qū)也沒什么用,全憑個人愛好了。然后只能使用Ghost方式解壓安裝操作系統(tǒng)到硬盤,無論單系統(tǒng)還是多系統(tǒng),全部安裝完畢后,準(zhǔn)備一個U盤,大小無所謂,只要不小于十幾M就行,使用分區(qū)軟件設(shè)為活動主分區(qū),插在電腦上。進(jìn)PE(2003sp1以上版本),手動或者使用工具軟件修復(fù)單系統(tǒng)或者多系統(tǒng)引導(dǎo),將引導(dǎo)文件寫入U(xiǎn)盤。然后就可以使用此U盤啟動所安裝的單系統(tǒng)或者多系統(tǒng)了。此方法實(shí)際上就是用U盤代替了第一種方法中的小硬盤而已,沒什么本質(zhì)區(qū)別。(這個方法大概10年前我就在電腦論壇發(fā)過帖子,當(dāng)時考慮的是用U盤做一個 系統(tǒng)啟動鑰匙 ,因?yàn)橄到y(tǒng)引導(dǎo)文件在U盤上,電腦如果不插這個U盤是無法啟動的。MBR硬盤系統(tǒng):Windows864位+Windows732位+WindowsXP32位,GPT硬盤系統(tǒng):Windows832位+Windows764位+WindowsVista32位,測試環(huán)境:雜牌945主板、32M老U盤,測試通過。) 

    另外還可以再使用光盤來代替U盤,具體方法說起來更簡單,用軟件創(chuàng)建一個可啟動光盤(創(chuàng)建方法自行查詢,會做的不用講,壓根沒接觸過的,另開帖子專門講也不一定看得懂),然后將上面U盤里的系統(tǒng)啟動文件加進(jìn)去刻錄就可以了。然后使用此光盤啟動電腦,效果和U盤是一樣的。此方法僅僅作為一種可行性的介紹,不推薦使用,U盤比這個方便的多,沒必要多此一舉。 

    備注: 使用此方法,理論上來講凡是可以對GPT進(jìn)行讀寫的系統(tǒng)都適用,但實(shí)際上XP以上系統(tǒng)無論32位還是64位操作系統(tǒng)全部測試可行,但是2003sp1及XP64位這些可以讀寫GPT的系統(tǒng)也不行,這個不知道是由于NT5.X的ntldr引導(dǎo)機(jī)制還是其他的什么原因,有知道原因的朋友不吝賜教! 

    注:  

    1.除專門標(biāo)明“Ghost系統(tǒng)”,本文所提及的系統(tǒng)安裝均為 微軟 原版Windows系統(tǒng),不包含任何修改版本 

    2.非UEFI主板安裝原版系統(tǒng)到GPT磁盤,只能采取wim直接解壓到分區(qū)或者先將系統(tǒng)Ghost化,然后解壓安裝的辦法。 

    3.本文所有結(jié)論全部為反復(fù)多次實(shí)際測試結(jié)果,不是設(shè)想、假設(shè),更不是想象或者幻想以及想當(dāng)然的以為 

    4.本文內(nèi)容已經(jīng)多次修訂和修改,這是個人的一點(diǎn)經(jīng)驗(yàn)總結(jié),難免有紕漏以及表達(dá)不準(zhǔn)確之處,望有相關(guān)經(jīng)驗(yàn)的朋友給予更多幫助

    附注:  

     

    鑒于許多的網(wǎng)友瀏覽本文之后提出如下問題,因此 酷站網(wǎng)軟 特集中在此做如下補(bǔ)充說明,不再過多贅述及一一答復(fù):

    原本很早之前就寫了一篇關(guān)于 預(yù)裝win8的電腦改其他系統(tǒng)以及安裝多系統(tǒng) 的文章,雖然經(jīng)過多次修改,最后還是放在電腦里沒有在任何地方發(fā)表出來。 

    雖然那是親自實(shí)踐過 多個品牌和型號 的預(yù)裝機(jī)器之后總結(jié)出來的經(jīng)驗(yàn),但是仍然發(fā)現(xiàn) 在其他品牌和型號的電腦上根本無法通用 。而我不可能也沒條件遍試所有的機(jī)器,因此此篇文章就此擱淺。 

    因此我在我的這篇文章里面沒有涉及任何 預(yù)裝win8系統(tǒng)的電腦改系統(tǒng) 的問題。 

    這是我的一貫態(tài)度,我所寫的都是我親身實(shí)踐、確實(shí)可行、不需討論的,在我這里不可能出現(xiàn)“我覺得”“我認(rèn)為”“應(yīng)該是”這類想象或者幻想的東西。 

    (在此還是要特別強(qiáng)調(diào)幾點(diǎn): 

    1.這個意思并不是說“預(yù)裝win8的電腦改其他系統(tǒng)以及安裝多系統(tǒng)”是完全不可行的,只是目前為止還沒找到通用的方法。也就是說可能在某個品牌和型號的電腦上按照某種方法安裝非常順利,但是同樣的方法用在其他品牌和型號的電腦上可能完全不適用。 

    2.不管是用何種方法,比如Ghost、PE、nt6 hdd installer、快捷安裝器、直接setup、在vhd裝、全盤轉(zhuǎn)換成mbr、手動寫引導(dǎo)等等方法,將其他系統(tǒng)裝進(jìn)硬盤,只要通過這塊主板啟動,就要面對安裝失敗的問題,因此制約因素在主板上,并不在于采用什么方式安裝系統(tǒng)

    https://www.kzwr.com/article/110118

    以上就是關(guān)于GPT概念龍頭相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    ChatGPT中文版蘋果手機(jī)(chat蘋果版下載)

    chatGPT估值(chargepoint 估值)

    ChatGPT中文版1.2(chatGPT中文版下載蘋果)

    韶關(guān)酒店外部景觀設(shè)計(jì)(韶關(guān)酒店外部景觀設(shè)計(jì)招聘)

    賣課程的平臺有哪些(十大知識付費(fèi)平臺排名)