視頻:科技行業(yè)領袖警告AI可能給人類帶來“滅絕風險”來源:中國新聞網(wǎng)
中新網(wǎng)6月1日電 據(jù)美國《紐約時報》報道,5月30日,超過350名人工智能領域的行業(yè)高管、研究人員和工程師簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來“滅絕風險”。
這封公開信只有一句話的聲明:“減輕人工智能帶來的滅絕風險,應該成為全球的優(yōu)先事項,就像應對其他社會規(guī)模的風險——如大流行病和核戰(zhàn)爭一樣!
資料圖:ChatGPT
該公開信由非營利組織人工智能安全中心(Center for AI Safety)發(fā)表,350多名簽署者中包括三家領先人工智能公司的高管:OpenAI首席執(zhí)行官山姆·阿爾特曼,谷歌DeepMind首席執(zhí)行官杰米斯·哈薩比斯,以及Anthropic首席執(zhí)行官達里奧·阿莫代伊。
《紐約時報》稱,最近,大型語言模型,即ChatGPT和其他聊天機器人使用的人工智能系統(tǒng)所取得的進展,引發(fā)了人們的擔憂。人們擔心,人工智能有可能很快就會被大規(guī)模用于傳播錯誤信息和宣傳,或者可能消除數(shù)百萬白領的工作。
5月,阿爾特曼、哈薩比斯和阿莫代伊曾與美國總統(tǒng)拜登和副總統(tǒng)哈里斯碰面,討論人工智能的監(jiān)管問題。在會后的參議院證詞中,阿爾特曼警告,先進人工智能系統(tǒng)的風險已經(jīng)嚴重到需要政府干預的程度,同時,他呼吁對人工智能的潛在危害進行監(jiān)管。
當?shù)貢r間2023年5月16日,OpenAI首席執(zhí)行官山阿爾特曼 (Samuel Altman) 出席參議院司法委員會下屬的隱私、技術和法律委員會舉辦的聽證會。
此前,阿爾特曼和OpenAI的另外兩名高管提出了幾種負責任地管理強大人工智能系統(tǒng)的方法。他們呼吁領先的人工智能制造商進行合作,對大型語言模型進行更多技術研究,并成立一個類似于國際原子能機構的國際人工智能安全組織。
阿爾特曼還表示,支持制定規(guī)則,要求大型尖端人工智能模型的制造者,注冊政府頒發(fā)的許可證。
“我認為如果這項技術出了問題,它可能會大錯特錯!卑柼芈嬖V參議院小組委員會!拔覀兿Mc政府合作,防止這種情況發(fā)生。”
據(jù)報道,今年3月,包括埃隆·馬斯克在內(nèi)的1000多名科技領袖、技術人員和研究人員簽署了另一封公開信,呼吁暫停開發(fā)最大的人工智能模型六個月,理由是擔心“開發(fā)和部署更強大數(shù)字思維的競賽失控”。