當地時間本周二,包括OpenAI首席執行官Sam Altman在內的高級人工智能高管與專家和教授一起簽署了一份聲明,要在全球范圍內提升“人工智能滅絕的風險”,同時敦促政策制定者,要像對待流行病、核戰爭一樣對待。
銀柿財經發現,發起聲明倡議的人工智能安全中心(CAIS)是一家位于舊金山的研究和領域建設的非營利組織。它的使命是減少人工智能帶來的大規模社會風險。
【資料圖】
聲明前言是這樣寫的:全球人工智能專家、記者、政策制定者和公眾越來越多地討論著,人工智能帶來的一系列重要而緊迫的風險。即便如此,也很難表達我們對一些先進人工智能最嚴重風險的擔憂。我們簡明扼要的發言旨在克服這一障礙并想在廣泛范圍內與大家展開討論。
銀柿財經發現,這份聲明的簽署者已達到350多名,除了奧特曼,他們還包括人工智能公司 DeepMind和 Anthropic的首席執行官,以及微軟和谷歌的高管。名單中還包括了清華大學智能清華大學智能產業研究院院長張亞琴、中國科學院自動化研究所人工智能倫理與治理研究中心主任曾毅等多位來自中國的專家教授。
近日,人工智能的監管,人工智能帶來的風險等,都成了媒體和相關領域的熱議話題。是不是要像應對核戰一樣對待人工智能,針對這一說法,浙江大學人工智能研究所所長、求是特聘教授吳飛向銀柿財經表示,在他看來這個話題還是有點夸張了。
吳飛轉發給銀柿財經一篇文章來代表他的觀點。文章中,他表示,目前集中在人工智能討論上有四個問題,是否應該讓機器用宣傳和謊言充斥我們的信息渠道、是否應該自動化所有工作、是否應該發展最終可能超過并取代我們的非人類思維、是否應該冒險失去對文明的控制。在這些問題中,機器通過機械匹配所合成的非事實內容已經出現,另外三個問題離我們還很久遠。
在文中,吳飛表示,人工智能的出現將使人類社會諸多業務模式發生一次變革,同樣為奇妙的“多樣性”打開了一扇窗戶。
3月29日,生命未來研究所呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。吳飛認為,按下暫停鍵應視為對人工智能長遠健康發展的一次深思,而不是一次具體行為。
吳飛進一步闡述,機器是人類創造出來的,人類的作用就是在人和機器共處的社會中,不斷用知識強化機器。我們需要用進化觀點去看待這個過程,盡可能發展種種可能性,而不是陷入“人機相斗”和“人機相害”的臆想中。
銀柿財經發現,人工智能的第三位教父、Meta 首席人工智能科學家楊立昆(Yann LeCun)以及所在的Meta公司卻無人簽署這份聲明。去年10月,楊立昆(Yann LeCun)在接受 ZDNet 的一次采訪中,提出了一個重要觀點。他表示:“今天的人工智能方法永遠不會帶來真正的智能。所有人工智能都面臨的某些基本問題,特別是如何衡量信息。關于AI的發展走向,學術界和業界都需要進行深刻反思。”
在與 ZDNet 的對話中,楊立昆指出:“我對目前深度學習領域最成功的許多研究途徑,都持有極大的懷疑態度。”
(責任編輯:冀文超 )關鍵詞: