HOME 首頁(yè)
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    人工智能有多恐怖(人工智能的恐怖事件)

    發(fā)布時(shí)間:2023-03-19 04:48:15     稿源: 創(chuàng)意嶺    閱讀: 122        問(wèn)大家

    大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于人工智能有多恐怖的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。

    開(kāi)始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫(xiě)出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    本文目錄:

    人工智能有多恐怖(人工智能的恐怖事件)

    一、令人忌憚的人工智能,藏著哪些不可測(cè)的風(fēng)險(xiǎn)?

    當(dāng)人們看到像人類一樣反應(yīng)的機(jī)器,或者像人類一樣執(zhí)行戰(zhàn)略和認(rèn)知壯舉的計(jì)算機(jī),模仿人類的聰明才智時(shí),他們有時(shí)會(huì)開(kāi)玩笑說(shuō),未來(lái)人類將需要接受機(jī)器人霸主。但這個(gè)玩笑背后隱藏著不安的種子。從1968年的《2001:太空漫游》(2001:A Space Odyssey)到2015年的《復(fù)仇者聯(lián)盟:奧創(chuàng)紀(jì)元》(Avengers: Age of Ultron),科幻小說(shuō)寫(xiě)作和流行電影都對(duì)人工智能(AI)進(jìn)行了推測(cè),人工智能超越了創(chuàng)造者的期望,擺脫了他們的控制,最終戰(zhàn)勝并奴役了人類,或?qū)⑷祟愖鳛闇缃^的目標(biāo)。在6月5日回歸的AMC科幻劇《人類》中,人類和人工智能之間的沖突是主角和主角。

    人工智能有多恐怖(人工智能的恐怖事件)

    在Synths發(fā)現(xiàn)自己不僅在為基本權(quán)利而戰(zhàn),也在為生存而戰(zhàn),與那些認(rèn)為他們不如人類、是危險(xiǎn)威脅的人作斗爭(zhēng)。即使在現(xiàn)實(shí)世界中,也不是每個(gè)人都準(zhǔn)備好張開(kāi)雙臂歡迎人工智能。近年來(lái),隨著計(jì)算機(jī)科學(xué)家不斷突破人工智能的極限,科技領(lǐng)域的領(lǐng)軍人物警告人工智能可能對(duì)人類構(gòu)成的潛在危險(xiǎn),甚至暗示人工智能的能力可能會(huì)毀滅人類。但為什么人們對(duì)人工智能的概念如此不安呢?

    人工智能有多恐怖(人工智能的恐怖事件)

    在Synths發(fā)現(xiàn)自己不僅在為基本權(quán)利而戰(zhàn),也在為生存而戰(zhàn),與那些認(rèn)為他們不如人類、是危險(xiǎn)威脅的人作斗爭(zhēng)。即使在現(xiàn)實(shí)世界中,也不是每個(gè)人都準(zhǔn)備好張開(kāi)雙臂歡迎人工智能。近年來(lái),隨著計(jì)算機(jī)科學(xué)家不斷突破人工智能的極限,科技領(lǐng)域的領(lǐng)軍人物警告人工智能可能對(duì)人類構(gòu)成的潛在危險(xiǎn),甚至暗示人工智能的能力可能會(huì)毀滅人類。但為什么人們對(duì)人工智能的概念如此不安呢?

    一個(gè)“威脅”

    埃隆馬斯克(Elon Musk)是引起人們對(duì)人工智能警覺(jué)的知名人士之一。2017年7月馬斯克在全國(guó)州長(zhǎng)協(xié)會(huì)(National Governors Association)的一次會(huì)議上對(duì)與會(huì)者說(shuō):我接觸到了非常前沿的人工智能,我認(rèn)為人們應(yīng)該真正關(guān)注它。一直在敲響警鐘,但在人們看到機(jī)器人在街上殺人之前,他們不知道該如何反應(yīng),因?yàn)樗雌饋?lái)太空靈了。早在2014年,馬斯克就把人工智能貼上了“我們最大的生存威脅”的標(biāo)簽,并在2017年8月宣布,人類面臨的人工智能風(fēng)險(xiǎn)更大。3月14日去世的物理學(xué)家斯蒂芬·霍金(Stephen Hawking)也表達(dá)了對(duì)惡意人工智能的擔(dān)憂。他在2014年告訴BBC,全人工智能的發(fā)展可能意味著人類的終結(jié)。

    人工智能有多恐怖(人工智能的恐怖事件)

    同樣令人不安的是,一些程序員——尤其是麻省劍橋麻省理工學(xué)院媒體實(shí)驗(yàn)室(MIT Media Lab)的程序員——似乎下定決心要證明人工智能是可怕的。麻省理工學(xué)院(MIT)計(jì)算機(jī)科學(xué)家在2016年推出了一種名為“夢(mèng)魘機(jī)器”(Nightmare Machine)的神經(jīng)網(wǎng)絡(luò),它將普通的照片變成了令人毛骨悚然、不安的地獄風(fēng)景。麻省理工學(xué)院(MIT)的一個(gè)名為“雪萊”(Shelley)的人工智能組合,在論壇上發(fā)布了14萬(wàn)篇關(guān)于Reddit用戶在論壇上發(fā)布的恐怖故事。感興趣的是人工智能如何誘發(fā)情感——在這個(gè)特殊的案例中是恐懼。

    恐懼和憎恨

    消極情緒對(duì)AI通??梢苑譃閮深悾赫J(rèn)為人工智能將成為有意識(shí)和尋求摧毀我們,認(rèn)為不道德的人將使用人工智能用于邪惡的目的。人們害怕的一件事是,如果超智能的人工智能——比我們更聰明——變得有意識(shí),它會(huì)把我們當(dāng)作低等生物,就像我們對(duì)待猴子一樣,那當(dāng)然是不可取的。然而,對(duì)于人工智能將發(fā)展意識(shí)并推翻人類的擔(dān)憂是基于對(duì)人工智能的誤解,溫伯格指出。人工智能在由決定其行為的算法定義的非常特定的限制下運(yùn)行。一些類型的問(wèn)題很好地映射到人工智能的技能集合,使得人工智能的某些任務(wù)相對(duì)容易完成。但大多數(shù)事情都與此不相符,也不適用。

    人工智能有多恐怖(人工智能的恐怖事件)

    這意味著,雖然人工智能可能能夠在精心劃定的邊界內(nèi)完成令人印象深刻的壯舉——比如玩大師級(jí)別的象棋游戲或快速識(shí)別圖像中的物體——但這正是它的能力的終點(diǎn)。人工智能達(dá)到意識(shí)——在這一領(lǐng)域的研究絕對(duì)沒(méi)有進(jìn)展,我不認(rèn)為這是我們?cè)诓痪玫膶?lái)。另一個(gè)令人擔(dān)憂的想法是,不幸的是,一個(gè)肆無(wú)忌憚的人會(huì)利用人工智能來(lái)產(chǎn)生有害的原因,這是很有可能的,溫伯格補(bǔ)充道。幾乎任何類型的機(jī)器或工具都可以根據(jù)用戶的意圖而使用,無(wú)論其用途是好是壞,而使用人工智能武器的前景肯定令人恐懼,并將受益于嚴(yán)格的政府監(jiān)管。

    人工智能有多恐怖(人工智能的恐怖事件)

    或許,如果人們能拋開(kāi)對(duì)敵意人工智能的恐懼,他們會(huì)更愿意承認(rèn)它的好處。例如,增強(qiáng)的圖像識(shí)別算法可以幫助皮膚科醫(yī)生識(shí)別出有潛在癌變的痣,而自動(dòng)駕駛汽車有一天可以減少車禍死亡人數(shù),其中許多是人為失誤造成的。但在自我感知的人工智能的“人類”世界中,對(duì)有意識(shí)人工智能的恐懼引發(fā)了人工智能與人之間的暴力沖突,人類與人工智能之間的斗爭(zhēng)可能會(huì)繼續(xù)展開(kāi),并升級(jí)——至少在目前這個(gè)季節(jié)是如此。

    二、人工智能最讓你害怕的一點(diǎn)是什么?

    人工智能最讓人可怕的是人工智能人工控制不住。比如當(dāng)今的交通工具失控,航天器失控,武器失控……將來(lái)還會(huì)有更高級(jí)人工智能失控。人類在失控中走到盡頭。這是不可避免的。個(gè)人感覺(jué)!

    三、人工智能的潛在危險(xiǎn),可能性有哪些?

    人工智能給人類帶來(lái)的弊端:

    1、人才分化,貧富差距弊端

    人工智能帶來(lái)的人才分化極端。將會(huì)引起未來(lái)的人才爭(zhēng)奪戰(zhàn)。而社會(huì)上更多一流的人才將會(huì)偏向一邊,相對(duì)資金比較薄弱的企業(yè)或者個(gè)人,將會(huì)遭受到大規(guī)模的失業(yè)。在這種情況下會(huì)導(dǎo)致企業(yè)巨頭的壟斷,以及貧富差距的分化將會(huì)非常嚴(yán)重。

    2、帶來(lái)更加頻繁的戰(zhàn)爭(zhēng)

    人工智能機(jī)器人的產(chǎn)生,還有一個(gè)最可怕的弊端,當(dāng)人工智能被大量用武器中,未來(lái)的戰(zhàn)爭(zhēng)將不會(huì)大量使用到人類,而當(dāng)戰(zhàn)爭(zhēng)不再使用到真人,從道德的角度去考慮,人工智能的戰(zhàn)爭(zhēng)不會(huì)受到太多的批評(píng),隨之而帶來(lái)的,將會(huì)是更多的機(jī)器兵團(tuán)戰(zhàn)爭(zhēng)。

    3、帶來(lái)潛在的危險(xiǎn)性

    早在2015年,德國(guó)大眾的一家汽車制造工廠,一個(gè)機(jī)器人誤殺一名外包公認(rèn)。而作為人工智能發(fā)展大國(guó)——日本,至今為止,已經(jīng)有20人死于機(jī)器人誤殺事件,而有高達(dá)8000的人數(shù)被機(jī)器人致殘,而如果一旦人工智能機(jī)器人落到恐怖分子的手里,那后果將會(huì)更加不堪設(shè)想。

    在我們生活中,幾乎所有的東西都有利弊,人工智能也一樣是一把雙刃劍,對(duì)待人工智能未來(lái)的發(fā)展,我們不僅要以樂(lè)觀的態(tài)度面對(duì),而且我們還要對(duì)這個(gè)時(shí)代有信心,對(duì)人工智能相關(guān)研發(fā)人員有信心,因?yàn)樗自捳f(shuō)得好,邪不壓正!

    人工智能有多恐怖(人工智能的恐怖事件)

    四、馬斯克認(rèn)為人工智能比核武器還危險(xiǎn),這是真的嗎?

    特斯拉創(chuàng)始人馬斯克一直對(duì)人工智能的發(fā)展產(chǎn)生疑慮,他認(rèn)為人工智能實(shí)際上比核武器更加危險(xiǎn),那么這可能是真的嗎?

    首先我們來(lái)看看人工智能的應(yīng)用。不管你承認(rèn)與否,今后人類的很多工作已經(jīng)慢慢將被人工智能所取代,尤其是進(jìn)入5G時(shí)代之后,由于網(wǎng)絡(luò)的延時(shí)性得到了大量的縮減,人類已經(jīng)幾乎無(wú)法用自己的感知來(lái)識(shí)別到這種延遲,從而使得人工智能的適用范圍更加廣泛。如今無(wú)人駕駛、無(wú)人送貨送餐、掃地機(jī)器人、看護(hù)機(jī)器人等等人工智能產(chǎn)品已經(jīng)廣泛被應(yīng)用到實(shí)際領(lǐng)域中。

    人工智能有多恐怖(人工智能的恐怖事件)

    試想一下你以后的生活,如果你早上起床的時(shí)候有個(gè)甜美的聲音喊你起床,同時(shí)開(kāi)啟你喜歡聽(tīng)的音樂(lè)催促你起來(lái);在你起床的同時(shí)你的智能家庭廚房電器開(kāi)始為你做香噴噴的可口早餐;在你吃早餐的時(shí)候自動(dòng)為你播報(bào)你關(guān)心的新聞,同時(shí)為你的愛(ài)車加熱或者制冷;你吃完飯后智能機(jī)器人為你洗碗,打掃衛(wèi)生;你出門(mén)上班時(shí)無(wú)人駕駛汽車自動(dòng)規(guī)劃行動(dòng)路線將你快速送到公司或者需要辦事的地方;上班時(shí)智能機(jī)器人為你準(zhǔn)備好當(dāng)日需要處理的事務(wù);下班時(shí)無(wú)人駕駛汽車將你快速安全送回家中,同時(shí)通知家里的智能機(jī)器人為你準(zhǔn)備好當(dāng)日晚餐……

    人工智能有多恐怖(人工智能的恐怖事件)

    可以說(shuō)以后人工智能將完全融入到我們的生活中去。華為創(chuàng)始人任正非就非??春萌斯ぶ悄艿奈磥?lái),他說(shuō)5G只是小兒科,人工智能才是大市場(chǎng)。

    人工智能有多恐怖(人工智能的恐怖事件)

    既然人工智能可以代替人類從事以前很多簡(jiǎn)單、繁瑣、重復(fù)、威脅的很多工作,讓人們的生活變得簡(jiǎn)單美好,那么這不正是好事嗎?為什么馬還是斯克會(huì)認(rèn)為人工智能會(huì)比核武器還要危險(xiǎn)呢?

    人工智能有多恐怖(人工智能的恐怖事件)

    我們都知道馬斯克是科技狂人,他對(duì)于未來(lái)科技的狂熱是其他人不可想象的。而對(duì)于人工智能這個(gè)人類科技未來(lái)最大的發(fā)展方向他如何會(huì)有如此的擔(dān)憂呢?其主要原因如下:

    首先,人工智能必須為人類服務(wù),如果偏離了這個(gè)方向,那么確實(shí)就如同馬斯克所說(shuō)的那樣危險(xiǎn)程度遠(yuǎn)遠(yuǎn)大于核武器了。因?yàn)楝F(xiàn)在的核武器的發(fā)射都掌握在這些國(guó)家的核心人物手中,需要經(jīng)過(guò)多人授權(quán)才可以進(jìn)行發(fā)射,也就是說(shuō)是可控的。而人工智能則不一樣,這是一把雙刃劍,使用得好就上服務(wù)人類,使用得不好就是危害人類。打個(gè)比方:無(wú)人駕駛。正常情況下就是解決人們的智能出行問(wèn)題,無(wú)人駕駛將自動(dòng)根據(jù)大數(shù)據(jù)和行程選擇最佳的行車路線。但是如果其中有部分無(wú)人駕駛車輛失去控制的話,這就是無(wú)數(shù)個(gè)定時(shí)炸彈,將在路上橫沖直撞。如果被恐怖分子利用的話,就是移動(dòng)的炸彈。如今已經(jīng)有恐怖分子使用無(wú)人機(jī)搭載炸彈進(jìn)行恐怖襲擊。這種情況相對(duì)來(lái)說(shuō)難于控制的。

    其次,由于現(xiàn)在已經(jīng)有阿爾法等機(jī)器人在圍棋等領(lǐng)域擊敗了人類,說(shuō)明智能機(jī)器人的算力遠(yuǎn)比人類厲害。那么以后的智能機(jī)器人會(huì)不會(huì)產(chǎn)生自己的思維,從而想控制和摧毀人類呢?我們的很多科幻小說(shuō)中已經(jīng)多次出現(xiàn)了這樣的情況:機(jī)器人全面反攻人類,意圖控制和消滅人類。

    正是因?yàn)樯鲜鰞蓚€(gè)原因,馬斯克才認(rèn)為人工智能一定要控制得當(dāng),不能失控,否則其危害程度將遠(yuǎn)遠(yuǎn)大于核武器。

    以上就是關(guān)于人工智能有多恐怖相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    銷售個(gè)人工作流程(銷售個(gè)人工作流程圖)

    境外騰訊客服電話人工服務(wù)(境外騰訊客服電話人工服務(wù)時(shí)間)

    人工智能AI續(xù)寫(xiě)(人工智能ai文章)

    直播特點(diǎn)(虎牙直播特點(diǎn))

    景觀設(shè)計(jì)的聲音特點(diǎn)(聲音景觀設(shè)計(jì)案例)