3月29日,非營利組織“未來生命研究所(Future of Life Institute)”發表了一封題為“暫停巨型AI實驗”的公開信,呼吁全球的AI實驗室暫停訓練比GPT-4更強大的系統至少6個月,并在此期間開發出一份針對AI的共享安全協議,必要時需要政府介入。
1000多名科技人士在這份公開信上簽名,包括特斯拉CEO馬斯克、Stability AI 的CEO Emad Mostaque等企業掌門人,也包括Alphabet旗下DeepMin的研究人員,還有諸如圖靈獎得主Yoshua Bengio這樣的重量級學者。當然,也有人表達了不同意見,認為這是在阻礙技術進步。
開發出GPT-4模型的OpenAI公司內還沒有人簽名,該公司目前也沒有對這封公開信予以回應。但我們向卷入紛爭中的ChatGPT要了個回應。
這個AI自然語言大模型產品倒是表現出了善解人意的一面:暫停實驗存在合理性,但需要謹慎考慮這么做帶來的技術發展滯后問題。它還給出了關于AI的六大風險和十個管理制度建議。
人類精英:暫停實驗 確立規則
截至今日,掛在“未來生命研究所(FLI)“官網上的《暫停巨型AI實驗》公開信,已經收集了1130人的簽字,名單里精英云集,不乏特斯拉、蘋果等科技公司的高管,也有政客和作家,當年,更多的是全球多所高校的教授以及人工智能領域的專家。??????
肖風:區塊鏈是人類數字化遷徙重要工具,未來萬億美元公司會是常態:近日,在“第七屆全球投資并購峰會”上,萬向控股公司副董事長肖風博士表示,全球化分為2020年之前和2020年之后。這個分水嶺本來可能會晚幾年到來,但是疫情把它猛地往前推進了3年甚至5年。2020年之后的全球化,叫做“數字化遷徙”,已經不是物理結構上的重新擺布,而是從物理世界走向數字世界。在數字世界里,第一沒有國界,第二跨時空,那才是真正的全球化。他還指出,從物理世界遷徙到數字世界,所有的商業都必將被重做一遍。原因就是工業革命已經走到了邊際效應遞減的程度,必須得商量,必須得思考。數字化時代的公司邊際成本是零,但是任何一個工業公司加工一個物理結構的物品時,邊際成本都不可能是零。在邊際成本為零的經濟體里面,萬億美元市值將來會是常態。(金融界)[2020/6/6]
那么精英云集簽字的這封公開信到底說了什么?以下是這封信的全文(向上滑動啟閱)
廣泛的研究表明,具有能與人類競爭的智能的AI系統會對社會和人類構成深刻的風險,頂尖的AI實驗室也承認這一點。正如廣受認可的阿西洛馬人工智能原則(Asilomar AI principles)原則所述,高級AI可能代表著地球生命歷史的深刻變化,應該以合適的態度和資源去進行規劃和管理。不幸的是,這種水平的規劃和管理并沒有發生。盡管最近幾個月AI實驗室陷入了一場失控的競賽,以開發和應用越來越強大的數字思維,然而沒有人能夠理解、預測或可靠地控制這些思維,甚至他們的創造者也不能。
謝翔:隱私是人類的基本權利,不分鏈上和鏈下,都是同等重要:在今日的《金色深核》線上直播中,針對“ 現在對計算開銷和存儲開銷大多都是預設,如果利用鏈來實現應用,那怎樣判斷需要一條什么樣的區塊鏈,輸出能力、算力多少可行?是保護區塊鏈鏈上的隱私更重要,還是保護鏈下的隱私更重要?”PlatON 算法科學家謝翔表示鏈的能力評估其實很難的一個事情,并不是簡單的從tps或者開銷層面能夠說清楚的事。我們現在碰到更多的問題反而是穩定性,激勵機制和治理機制等等。區塊鏈給了密碼學技術一個充分應用的平臺,在區塊鏈上面的問題解決之后,才有可能集成更多的應用。隱私是人類的基本權利,不分鏈上和鏈下,都是同等重要。[2020/3/11]
當代AI系統在一般任務上正在擁有與人類競爭的能力,我們必須問問自己:
我們應該讓機器在我們的信息渠道中充斥宣傳和謊言嗎?
我們是否應該自動化所有的工作,包括那些有成就感的工作?
我們是否應該培養出可能比我們數量更多、比我們更聰明、最終超越并取代我們的非人類思維?
我們是否應該冒著失去對我們文明控制的風險?
此類決策決不應該委托給未經選舉產生的技術領導人。只有當我們確信AI的效果是積極的,風險是可控的時候,AI系統才應該被開發。這種對AI的判斷必須是合理的,并隨著系統潛在影響的變化而變化。
聲音 | 青島大學教授:區塊鏈等科技創新的涌現讓人類處理數據的能力全面提升:11月9日,青島大學經濟學院教授易憲容在證券日報上刊文《發展數字經濟 實現中國經濟高質量發展》。文章表示,(習近平講話)為何會把發展區塊鏈技術提升到如此的高度?因為,目前,人類正在經歷一場前所未有的科學技術革命。這場科學技術革命的基礎是計算機技術迅速發展及移動互聯網的出現,由此引發許多顛覆性影響的科技創新出現。可以說,這些科技創新的涌現不僅全面沖擊著人類社會生活的方方面面,也讓數據以非線性的幾何級數快速增長或海量數據的涌現,讓人類處理數據的能力全面提升。[2019/11/9]
OpenAI最近關于人工通用智能(AGI)的聲明指出,“在開始訓練未來的系統之前,進行獨立審查可能很重要。同時對于最前沿的工作而言,人們應該在合適的時間點限制用于創建新系統的計算增長率。我們同意這一說法,并認為現在就是合適的時間點。
因此,我們呼吁所有的AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。這種暫停應該是公開的和可核實的,所有關鍵的參與者也能暫停相關工作。如果這種暫停不能迅速開始,政府應該介入并實施暫停。
AI實驗室和獨立專家應利用這一暫停的時段,共同開發一套AI設計和開發的共享安全協議,這些協議需要由獨立的外部專家嚴格審計和監督。這些協議應確保所有遵守它們系統的AI是安全的。這種暫停并不意味著總體上暫停AI開發,只是讓人們從具有新興功能的、不可預測的危險競賽中后退一步。
現場 Kim Hyeong Joo:21世紀是機器人類化的時代而后是機器之間進行信息通訊的時代 變化的核心就是區塊鏈技術:金色財經現場報道,6月23日,2018年世界中小企業區塊鏈技術高峰論壇在北京召開。韓國區塊鏈產業協會理事長Kim Hyeong Joo發言稱,21世紀是機器人類化的時代,而后將是機器之間進行信息通訊的時代,帶來這些變化的核心就是區塊鏈技術。他認為,韓國在區塊鏈基礎設施和投資方面比較發達,但中國更具全球視野,且推動區塊鏈發展的大方向非常堅定,這讓韓國感到羨慕。[2018/6/23]
AI的研究和開發應該重新聚焦于使當今強大、最先進的系統更加準確、安全、可解釋、透明、穩健、一致、可信和可靠。
與此同時,AI開發人員必須與政策制定者合作,大幅加快強大的AI管理制度的開發。管理制度至少應包括以下內容:
?針對AI的新的、有能力的監管機構;
?監督和跟蹤能力強大的AI系統和計算能力池;
?幫助區分真實和合成數據的溯源、水印系統,并跟蹤模型泄露;
?提供健全的審計和認證生態系統;
?對AI造成的損害進行責任認定;
馬云:未來10-20年內 機器智能、IoT和區塊鏈三大技術讓人類面臨挑戰:在第二十屆中國科協年會開幕式上,阿里巴巴集團董事局主席馬云出席并發表題為《因為相信,所以看見》的演講。馬云認為,未來10-20年以內,將有三大技術讓人類面臨挑戰:機器智能、IoT和區塊鏈。對于區塊鏈,他認為區塊鏈不是泡沫,但今天的比特幣可能是泡沫。[2018/5/26]
?為AI技術的安全研究提供充足的公共資金;
?資源充足的機構以應對AI將造成的巨大經濟和破壞(尤其是對民主的破壞)。
人類可以通過AI享受一個繁榮的未來。在成功創建了強大的AI系統后,我們現在可以享受一個“AI之夏”。
在這個AI的夏天,我們可以收獲回報,為所有人的利益設計這些系統,并給社會一個適應的機會。人類社會曾經暫停使用一些可能會對社會造成災難性影響的技術,我們現在也可以在AI領域這樣做。讓我們享受一個漫長的AI之夏,不要在沒有準備的情況下匆忙進入秋天。
事實上,這封公開信是近期人類精英們對人工智能風險擔憂的總爆發。自 ChatGPT 高速迭代后,擔憂從未停止,特別是當微軟、谷歌、百度、華為等科技巨頭們在自然語言模型上展開“軍備競賽”之后。
日前,“深度學習之父”杰弗里·辛頓(Geoffrey Hinton)在媒體采訪中表示,人工智能正處于“關鍵時刻”,毀滅人類“并非不可能”。AI領域內的“大牛”蓋瑞·馬庫斯(Gary Marcus)發推特支持辛頓,甚至發出靈魂一問:“用百分之一的人類毀滅風險換取和機器對話帶來的樂趣,這值得嗎?”
而馬庫斯在轉發FLI這封公開信時表示,“這封信并不完美,但精神是正確的。我們需要放慢腳步,直到我們更好地理解AI帶來后果……他們可能會造成嚴重傷害……主要參與者對他們正在做的事情越來越保密,這使得社會很難抵御可能發生的任何傷害。”
也有科技圈人士對這封信的觀點持不同意見。
Writer的創始人Waseem 以諷刺的語氣表達了他對權威們的不滿,“讓我們停止建設和發展我們的公司,因為來自硅谷的億萬富翁說我們有風險。一定要喜歡那些比我們人類更聰明的人,因為他們告訴我們如何生活。當我們有他們神圣的指引時,誰還需要進步?”
OSS Capital的創始人Joseph Jacks 態度更是簡潔明了:強烈反對,絕對不簽這個。
ChatGPT:暫停合理但小心阻滯技術
目前,OpenAI 還沒有就 FLI 的這封公開信做出回應。而我們把人類精英們的擔憂與建議甩給了ChatGPT,引發這場紛爭的這個對話機器人不但認可了FLI要求暫停實驗的合理性,還補充了六大AI風險。
ChatGPT的答案中也包含了暫停實驗帶來弊端:導致技術發展的滯后。這也和輿論場上很多普通大眾的想法趨同。????????????????????
那么,問題擺在眼前,如果要讓研究人員和政府制定規則,該包含哪些內容呢?ChatGPT給出了十大建議,相當于給包括自己在內AI發展畫了一個規范圈。
連ChatGPT自己都這么說了,可見,“AI失控”、”替代人類“無論是在意見領袖圈層還是輿論場上都有探討的意義。
最近,微軟的創始人比爾·蓋茨在大力肯定人工智能帶來生產力提升的同時,也強調過風險,“AI失控的可能性是存在的,一臺機器會認為人類是自己的威脅嗎?它們會得出結論認為自身利益與人類的利益不同進而不在意我們嗎?” 他預測,隨著算法、算力的提升,超級智能AI會在未來出現。
連 OpenAI 的CEO Sam Altman都表示,超級智能AI的風險可能會遠遠超出我們的預料。此前,他在技術研究員Lex Fridman的播客中表達他的擔憂,包括AI造成的虛假信息問題,帶來的經濟沖擊等等,“危害可能遠遠超過了人類能應對的程度”,他舉了個例子,“我們怎么會知道,大語言模型沒有在推特上指揮大家的思想流動呢?”
這正應了那封公開信中所說的:沒有人能夠理解、預測或可靠地控制這些數字思維,“甚至他們的創造者也不能”。
雖然通用人工智能(AGI)還遠遠沒有到來,但就像比爾·蓋茨說得那樣,在這之前,世界需要建立規則以使AI帶來的正面影響遠遠超過其負面影響。
換句話說就是,別讓人類造出的東西把人類自己滅了。畢竟,戰爭、核事故帶來的災難還歷歷在目。
蜂巢Tech
個人專欄
閱讀更多
金色財經 善歐巴
金色早8點
白話區塊鏈
歐科云鏈
Odaily星球日報
Arcane Labs
MarsBit
深潮TechFlow
BTCStudy
鏈得得
作者:Hoeem 編譯:Biteye 核心貢獻者 Crush在加密圈子中,信息的獲取往往是投資的關鍵。好的信息渠道,人們常常稱之為 Alpha 信息渠道.
1900/1/1 0:00:00原文:zkvalidator 編譯:DeFi之道 歡迎來到我們的ZK報告首刊,這是一個季度性出版物,重點介紹零知識(ZK)生態系統中最相關的發展.
1900/1/1 0:00:00Binance 以巨大的優勢成為世界上最大的加密貨幣交易所。自 2017 年成立以來,它取得了持續的增長,但自 2020 年以來,其日益增長的主.
1900/1/1 0:00:00過去幾個月,OpenAI風頭無兩,各大科技公司爭先恐后地跟進大語言模型(LLM)這一技術路線。對比之下,OpenAI的老對手DeepMind,顯得有些低調和沉默.
1900/1/1 0:00:003月29日消息,Meta全球事務總裁、英國前副首相尼克-克萊格(Nick Clegg)周三表示,Meta會繼續發展元宇宙,計算的未來將出現在這個仍未被充分定義的虛擬世界中.
1900/1/1 0:00:00▌ 3月以太坊鏈上NFT銷售額超5.4億美元,創2023 Q1新低4月1日消息,據Cryptoslam最新數據顯示,3月以太坊鏈上NFT銷售額達到約541,971,085.63美元.
1900/1/1 0:00:00