正文

ai毀滅人類(lèi)指令(ai毀滅人類(lèi)的游戲)

“電影《終結者》中的情況會(huì )不會(huì )發(fā)生?”

英偉達市值一度突破萬(wàn)億美元。人工智能崛起的背后,公眾的擔憂(yōu)也與日俱增。一封重磅公開(kāi)信再次被科技圈泄露。當地時(shí)間5月30日,非營(yíng)利組織“人工智能安全中心”在其官網(wǎng)發(fā)表聯(lián)合公開(kāi)信稱(chēng),人工智能這種堪比“流行病和核戰爭”的技術(shù)可能對人類(lèi)生存構成威脅。人類(lèi)的。威脅。整個(gè)聲明只有一句話(huà),長(cháng)達22個(gè)字:“減輕人工智能帶來(lái)的滅絕風(fēng)險應該成為全球優(yōu)先事項,與流行病和核戰爭等其他社會(huì )規模風(fēng)險同等重要?!卑莸钦罱鼛讉€(gè)月前,人工智能對公共安全、隱私和民主構成了威脅,但政府對其進(jìn)行監管的權力有限。由OpenAI創(chuàng )始人牽頭、超過(guò)350位AI大亨聯(lián)署,超過(guò)350位AI大亨簽署了上述聯(lián)合公開(kāi)信,其中包括OpenAI首席執行官薩姆奧爾特曼、谷歌DeepMind首席執行官德米斯哈薩比斯和Anthropic首席執行官達里奧阿莫德。 AI大公司負責人等,被稱(chēng)為人工智能“教父”的圖靈獎得主Geoffrey Hinton、Yoshua Bengio也在名單中。名單上還有中國學(xué)者,包括中國工程院院士、清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)所長(cháng)張亞勤,清華大學(xué)人工智能倫理與治理研究中心主任曾毅等。中國科學(xué)院自動(dòng)化研究所、清華大學(xué)副教授詹賢元。其他簽署者包括微軟首席技術(shù)官凱文斯科特、前聯(lián)合國裁軍事務(wù)高級代表安吉拉凱恩、Skype聯(lián)合創(chuàng )始人賈恩塔林和Quora首席執行官亞當德安杰洛。他們表示,雖然公眾已經(jīng)認識到人工智能的風(fēng)險,但還有更多挑戰需要討論。他們還希望“為越來(lái)越多的專(zhuān)家和公眾人物創(chuàng )造共同知識,他們也認真對待先進(jìn)人工智能領(lǐng)域一些最嚴重的風(fēng)險?!敝档靡惶岬氖?,目前微軟創(chuàng )始人比爾蓋茨尚未簽署這封聯(lián)名信。 “危險!立即停止一切大規模人工智能研究?!弊匀ツ闏hatGPT發(fā)布以來(lái),科技行業(yè)掀起了一場(chǎng)競爭激烈的AI競賽,也引發(fā)了公眾對這項未知技術(shù)的恐懼。今年3月,本吉奧、馬斯克、蘋(píng)果聯(lián)合創(chuàng )始人史蒂夫沃茲尼亞克、Stability AI創(chuàng )始人埃馬德莫斯塔克等科技巨頭聯(lián)合發(fā)表公開(kāi)信,呼吁暫停比GPT-4更強大的人工智能系統的訓練至少6個(gè)月。公開(kāi)信強調,人工智能正在迅速發(fā)展,但沒(méi)有相應的規劃和管理:“近幾個(gè)月來(lái),人工智能實(shí)驗室掀起了一股人工智能熱潮,他們瘋狂地進(jìn)行人工智能競賽,以開(kāi)發(fā)和部署日益強大的人工智能?!?,迄今為止,沒(méi)有人能夠理解、預測或可靠地控制人工智能系統,也沒(méi)有相應水平的規劃和管理?!毙胖刑岬?,人工智能現在在一般任務(wù)上正變得與人類(lèi)一樣具有競爭力,我們必須問(wèn)問(wèn)我們自己:“非人類(lèi)的大腦是否應該得到發(fā)展,以便它們最終在數量上超過(guò)人類(lèi),超越人類(lèi)的智力,消滅并取代人類(lèi)?我們是否應該冒險失去對人類(lèi)文明的控制?”答案是否定的。公開(kāi)信指出,只有當我們確信其效果是積極的、風(fēng)險可控時(shí),才應該開(kāi)發(fā)強大的人工智能系統。因此,公開(kāi)信呼吁要求所有人工智能實(shí)驗室立即暫停比GPT-4 更強大的人工智能系統的訓練至少6 個(gè)月?!拔覀儜搹奈kU的競賽中退一步……讓當今最強大的模型更加準確和安全。讓我們享受一個(gè)漫長(cháng)的人工智能夏天,而不是毫無(wú)準備地倉促進(jìn)入秋天。

ai毀滅人類(lèi)指令(ai毀滅人類(lèi)的游戲)

《AI教父:后悔一生的心血,無(wú)力阻止人類(lèi)AI戰爭》。5月初,深度學(xué)習泰斗、人工智能教父Geoffrey Hinton突然宣布從谷歌辭職,他終于可以暢所欲言了正是因為對人工智能風(fēng)險的深切憂(yōu)慮,讓這位深度學(xué)習巨頭直言:“我對自己一生的工作深感遺憾?!?” 在媒體報道中,Hinton 直接警告世界:小心,前面有危險,前面有危險,前面有危險! Hinton 在接受采訪(fǎng)時(shí)表示,“我們幾乎已經(jīng)學(xué)會(huì )了計算機如何改進(jìn)自己。這很危險。我們必須仔細思考如何控制它。 ”他曾指出,谷歌和微軟以及其他公司之間的競爭將升級為全球性競爭。如果沒(méi)有某種全球性監管,這種競爭將不會(huì )停止!他表示非常擔心GPT -4迭代對人類(lèi)構成威脅,強大的人工智能能夠從大量數據中學(xué)習意想不到的行為。他擔心有一天真正的自主武器——那些兇殘的機器人——將成為現實(shí)。圖片來(lái)自20 世紀80 年代的《西部世界》,Hinton卡內基梅隆大學(xué)計算機科學(xué)教授,但由于不愿意接受五角大樓資助,選擇離開(kāi)卡耐基梅隆大學(xué)前往加拿大。當時(shí)的辛頓強烈反對在戰場(chǎng)上使用人工智能,他稱(chēng)之為“機器人”士兵”。Hinton從人工智能先驅者到末日預言家的轉變,可能標志著(zhù)科技行業(yè)幾十年來(lái)最重要的拐點(diǎn)。本文不構成個(gè)人投資建議,也不代表平臺觀(guān)點(diǎn)。市場(chǎng)有風(fēng)險,投資需謹慎。請您做出獨立的判斷和決定。你擔心人工智能失控嗎?