-
當(dāng)前位置:首頁(yè) > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
openAI圖片生成器
大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于openAI圖片生成器的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來(lái)看看吧。
ChatGPT國(guó)內(nèi)免費(fèi)在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、chatgpt聊天時(shí)都有過(guò)哪些高情商回答?
1. 把對(duì)方拉下水當(dāng)對(duì)方夸獎(jiǎng)你的時(shí)候,如果你順著對(duì)方說(shuō),“沒有啦,還行吧?!?,這樣的回答就很普通。這時(shí)候,你可以考慮把對(duì)方也拉下水。比如說(shuō),如果朋友夸你有氣質(zhì)。你可以這么回答,“對(duì)呀,都是被你熏陶的。”再比如,朋友夸你眼光好,你可以這么回答,“那當(dāng)然了,不然怎么交到像你這么優(yōu)秀的朋友?!比绻笥褤p你,“好久不見,你又胖了啊?!蹦憧梢赃@樣回答,“是呀,看你胖得都喘不上氣來(lái)了,我于心不忍,從你身上偷了點(diǎn)肥肉?!眱蓚€(gè)人交流的時(shí)候,如果一方不停發(fā)問,另一方只是順承地應(yīng)答。這樣的關(guān)系,更像是長(zhǎng)輩對(duì)晚輩的問話,或者老師對(duì)學(xué)生的教育。兩個(gè)人實(shí)際上,是處于不平等的地位。對(duì)方是一個(gè)評(píng)判官,而你是一個(gè)被審訊者。為了扭轉(zhuǎn)這樣的局面,最好的方式,就是把對(duì)方拉下水。無(wú)論是夸獎(jiǎng)還是互損,都是無(wú)傷大雅的玩笑話,這比一本正經(jīng)的聊天,更能加深兩人之間的感情。2. 曲解與夸張?jiān)诹奶斓臅r(shí)候,有時(shí)我們會(huì)陷入不利的局面。例如,一位男士和一位女士約會(huì),女士說(shuō)道,“你平時(shí)都是這么自戀嗎?”這時(shí)候,如果按照正常的思維,順著女士的話來(lái)解釋,“你誤會(huì)了,我不是這樣的?!蹦惺烤蜁?huì)陷入不利于自己的尷尬局面。這時(shí)候,他可以這樣回答,“哈哈,如果自戀可以當(dāng)飯吃,我能養(yǎng)活整個(gè)印度。”這不僅顯示出自己的幽默,還終止了對(duì)自己不利的話題。再比如,朋友對(duì)你說(shuō),“你可真能吹牛皮”。你可以這么回答,“知道為什么天這么藍(lán)嗎?因?yàn)槲野褳踉贫即瞪⒘恕!毕襁@樣,故意夸大和扭曲對(duì)方的談話,既可以避免正面回答問題,還可以顯示出自己的高情商。3. 側(cè)面回答。如果對(duì)方的問題,你不想直接回答?;蛘撸瑹o(wú)論怎么回答,都會(huì)對(duì)自己不利的時(shí)候,你可以選擇側(cè)面回答。女士們經(jīng)常會(huì)問自己的男朋友一個(gè)無(wú)解的問題,“我和你媽都掉入水中,你先救誰(shuí)?!边@時(shí)候,無(wú)論男士選擇先救女朋友或者先救媽媽,都是錯(cuò)。所以,最好的方式,是側(cè)面回答。例如,“你這么美,如果掉進(jìn)水里,無(wú)數(shù)男人會(huì)搶著去救,就算我想救你也輪不到我呀?!边@樣回答,是變著法子夸獎(jiǎng)女朋友,她自然不會(huì)再為難你了。其實(shí),在大多數(shù)情況下,別人問出你一個(gè)問題,并不關(guān)心你是否能夠給出正確答案。兩人聊天最重要的不是獲取信息,而是營(yíng)造良好的氛圍。所以,高情商的聊天,并不是死氣沉沉的一問一答。你甚至都不用在意對(duì)方的問題是什么,只要給出合乎邏輯的,令人會(huì)心一笑的答案,就足夠了。
二、解決網(wǎng)頁(yè)出現(xiàn)error1020是怎么回事?有什么方法可以解決?
打開IE瀏覽器,然后點(diǎn)擊打開“工具”選項(xiàng)----Internet選項(xiàng)。
為什么在源文件看不到任何圖片? 網(wǎng)頁(yè)文件中存放的只是圖片的鏈接位置,而圖片文件與網(wǎng)頁(yè)文件是互相獨(dú)立存放的,甚至可以不在同一臺(tái)計(jì)算機(jī)上。
在網(wǎng)頁(yè)上點(diǎn)擊鼠標(biāo)右鍵,選擇菜單中的 “查看源文件” ,就可以通過(guò)記事本看到網(wǎng)頁(yè)的實(shí)際內(nèi)容??梢钥吹骄W(wǎng)頁(yè)實(shí)際上只是一個(gè)純文本文件。
它通過(guò)各式各樣的標(biāo)記對(duì)頁(yè)面上的文字、圖片、表格、聲音等元素進(jìn)行描述(例如字體、顏色、大小),而瀏覽器則對(duì)這些標(biāo)記進(jìn)行解釋并生成頁(yè)面,于是就得到你現(xiàn)在所看到的畫面。
三、openai沒有免費(fèi)額度
有。openai經(jīng)使用規(guī)則查詢可知,是只有18元的免費(fèi)額度的。OpenAI是全球最著名的人工智能研究機(jī)構(gòu),發(fā)布了許多著名的人工智能技術(shù)和成果,如大語(yǔ)言模型GPT系列、文本生成圖片預(yù)訓(xùn)練模型DALLE系列。
四、如何評(píng)價(jià)NumPy的隨機(jī)生成器?
明敏 發(fā)自 凹非寺
量子位 報(bào)道 | 公眾號(hào) QbitAI
到底是怎樣的一個(gè)bug,能讓95%的Pytorch庫(kù)中招,就連特斯拉AI總監(jiān)深受困擾?
還別說(shuō),這個(gè)bug雖小,但有夠“狡猾”的。
這就是最近Reddit上熱議的一個(gè)話題,是一位網(wǎng)友在使用再平常不過(guò)的Pytorch+Numpy組合時(shí)發(fā)現(xiàn)。
最主要的是,在代碼能夠跑通的情況下,它甚至還會(huì)影響模型的準(zhǔn)確率!
除此之外,網(wǎng)友熱議的另外一個(gè)點(diǎn),竟然是:
而是它到底算不算一個(gè)bug?
這究竟是怎么一回事?
事情的起因是一位網(wǎng)友發(fā)現(xiàn),在PyTorch中用NumPy來(lái)生成隨機(jī)數(shù)時(shí),受到數(shù)據(jù)預(yù)處理的限制,會(huì)多進(jìn)程并行加載數(shù)據(jù),但最后每個(gè)進(jìn)程返回的隨機(jī)數(shù)卻是相同的。
他還舉出例子證實(shí)了自己的說(shuō)法。
如下是一個(gè)示例數(shù)據(jù)集,它會(huì)返回三個(gè)元素的隨機(jī)向量。這里采用的批量大小分別為2,工作進(jìn)程為4個(gè)。
然后神奇的事情發(fā)生了:每個(gè)進(jìn)程返回的隨機(jī)數(shù)都是一樣的。
這個(gè)結(jié)果會(huì)著實(shí)讓人有點(diǎn)一頭霧水,就好像數(shù)學(xué)應(yīng)用題求小明走一段路程需要花費(fèi)多少時(shí)間,而你卻算出來(lái)了負(fù)數(shù)。
發(fā)現(xiàn)了問題后,這位網(wǎng)友還在GitHub上下載了超過(guò)10萬(wàn)個(gè)PyTorch庫(kù),用同樣的方法產(chǎn)生隨機(jī)數(shù)。
結(jié)果更加令人震驚:居然有超過(guò)95%的庫(kù)都受到這個(gè)問題的困擾!
這其中不乏PyTorch的官方教程和OpenAI的代碼,連特斯拉AI總監(jiān)Karpathy也承認(rèn)自己“被坑過(guò)”!
但有一說(shuō)一,這個(gè)bug想要解決也不難:只需要在每個(gè)epoch都重新設(shè)置seed,或者用python內(nèi)置的隨機(jī)數(shù)生成器就可以避免這個(gè)問題。
到底是不是bug?
如果這個(gè)問題已經(jīng)可以解決,為什么還會(huì)引起如此大的討論呢?
因?yàn)榫W(wǎng)友們的重點(diǎn)已經(jīng)上升到了“哲學(xué)”層面:
這到底是不是一個(gè)bug?
在Reddit上有人認(rèn)為:這不是一個(gè)bug。
雖然這個(gè)問題非常常見,但它并不算是一個(gè)bug,而是一個(gè)在調(diào)試時(shí)不可以忽略的點(diǎn)。
就是這個(gè)觀點(diǎn),激起了千層浪花,許多人都認(rèn)為他忽略了問題的關(guān)鍵所在。
這不是產(chǎn)生偽隨機(jī)數(shù)的問題,也不是numpy的問題,問題的核心是在于PyTorch中的DataLoader的實(shí)現(xiàn)
對(duì)于包含隨機(jī)轉(zhuǎn)換的數(shù)據(jù)加載pipeline,這意味著每個(gè)worker都將選擇“相同”的轉(zhuǎn)換。而現(xiàn)在NN中的許多數(shù)據(jù)加載pipeline,都使用某種類型的隨機(jī)轉(zhuǎn)換來(lái)進(jìn)行數(shù)據(jù)增強(qiáng),所以不重新初始化可能是一個(gè)預(yù)設(shè)。
另一位網(wǎng)友也表示這個(gè)bug其實(shí)是在預(yù)設(shè)程序下運(yùn)行才出現(xiàn)的,應(yīng)該向更多用戶指出來(lái)。
并且95%以上的Pytorch庫(kù)受此困擾,也絕不是危言聳聽。
有人就分享出了自己此前的慘痛經(jīng)歷:
我認(rèn)識(shí)到這一點(diǎn)是之前跑了許多進(jìn)程來(lái)創(chuàng)建數(shù)據(jù)集時(shí),然而發(fā)現(xiàn)其中一半的數(shù)據(jù)是重復(fù)的,之后花了很長(zhǎng)的時(shí)間才發(fā)現(xiàn)哪里出了問題。
也有用戶補(bǔ)充說(shuō),如果 95% 以上的用戶使用時(shí)出現(xiàn)錯(cuò)誤,那么代碼就是錯(cuò)的。
順便一提,這提供了Karpathy定律的另一個(gè)例子:即使你搞砸了一些非常基本代碼,“neural nets want to work”。
你有踩過(guò)PyTorch的坑嗎?
如上的bug并不是偶然,隨著用PyTorch的人越來(lái)越多,被發(fā)現(xiàn)的bug也就越來(lái)越多,某乎上還有PyTorch的坑之總結(jié),被瀏覽量高達(dá)49w。
其中從向量、函數(shù)到model.train(),無(wú)論是真bug還是自己出了bug,大家的血淚史還真的是各有千秋。
所以,關(guān)于PyTorch你可以分享的經(jīng)驗(yàn)血淚史嗎?
歡迎評(píng)論區(qū)留言討論~
參考鏈接:
[1]https://tanelp.github.io/posts/a-bug-that-plagues-thousands-of-open-source-ml-projects/
[2]https://www.reddit.com/r/MachineLearning/comments/mocpgj/p_using_pytorch_numpy_a_bug_that_plagues/
[3]https://www.zhihu.com/question/67209417/answer/866488638
— 完 —
以上就是關(guān)于openAI圖片生成器相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
怎么進(jìn)chatopenai(怎么進(jìn)入bios設(shè)置界面)
中國(guó)作家100人及作品(中國(guó)當(dāng)代優(yōu)秀文學(xué)作品)
武漢和成都哪個(gè)潛力大(武漢和成都哪個(gè)前景大)