(SeaPRwire) – 在世界各地的 ,一個名為「暫停AI」的小規模但不斷成長的運動的抗議者要求世界各國政府監管AI公司,並暫停開發新的 cutting edge 人工智能模型。他們表示,只有在公司同意讓它們被監管的情況下,這些模型的開發才應該繼續。周一,抗議活動在包括美國、英國、巴西、德國、澳大利亞和挪威在內的13個不同國家舉行。
在倫敦,約20名抗議者站在英國科學、創新和技術部門外高呼「停止競賽,這不安全」和「誰的未來?我們的未來」,希望吸引政策制定者的注意。抗議者表示,他們的目標是讓政府監管開發前沿人工智能模型的公司,包括OpenAI的Chat GPT。他們說,這些公司在確保其人工智能模型安全足以發布到世界上時沒有採取足夠的預防措施。
「[人工智能公司]一次又一次地證明……通過對這些公司工人的待遇以及將其他人的工作直接拿來塞進他們的模型的方式,他們證明自己無法被信任,」牛津大學本科生Gideon Futerman在抗議活動上發表演說時說。
一名抗議者Tara Steele,是一名從事博客和SEO內容的自由撰稿人,她表示已經看到這種技術影響到自己的生計。「自從ChatGPT推出以來,自由工作的需求明顯下降,」她說。「我本人真的很喜歡寫作……這實在很令人難過。」
她表示,抗議的主要原因是她擔心未來前沿人工智能模型可能會帶來更危險的後果。「我們有一大批高素質的專家、圖靈獎獲得者和高引用率的人工智能研究人員,以及人工智能公司的CEO本人都在警告[人工智能可能極為危險]。」(圖靈獎是一項年度獎項,用於表彰對該學科做出重要貢獻的計算機科學家,有時被稱為「計算機科學的諾貝爾獎」。)
她尤其擔心越來越多專家警告說,如果不妥善控制人工智能系統,可能導致災難性後果。美國政府委託的一份報告在3月發布,警告說「先進人工智能和通用人工智能的興起有可能以核武器問世時類似的方式破壞全球安全。」目前,最大的人工智能實驗室正嘗試建立能在幾乎每個任務上都超越人類的系統,包括長期規劃和批判性思考。如果他們成功了,越來越多人類活動可能會自動化,從線上購物等日常事項,到無法預測行為的自主武器系統的啟用。這可能導致一場「軍備競賽」,增加「全球性和大規模殺傷性武器事故、國與國之間的衝突和升級」的可能性。
專家目前還不了解像Chat GPT這樣的人工智能系統的內部運作機制,他們擔心在更先進的系統中,我們對其理解不足可能導致我們嚴重低估更強大系統的行為。取決於人工智能系統與人類生活的集成程度,它們可能造成破壞,並控制危險武器系統,讓許多專家擔心可能出現「失控」。她說:「這些警告沒有傳達給普通公眾,他們需要知道。」
目前,機器學習專家對人工智能技術進一步發展的風險程度存在一定分歧。深度學習這種讓人工智能系統更好地模擬人腦決策過程的機器學習類型的三位「教父」之中,Geoffrey Hinton和Yoshua Bengio公開表示他們相信這種技術可能導致人類滅絕的風險。
第三位「教父」Yann LeCun,同時也是Meta的首席人工智能科學家,堅決不同意其他兩位。他表示「人工智能將為世界帶來許多好處。但人們正在利用這項技術的恐懼,我們正冒著嚇跑人們的風險。」
另一名暫停AI抗議者Anthony Bailey表示,雖然他理解新人工智能系統可能帶來的好處,但他擔心技術公司將被激勵建立人類很容易失去控制的技術,因為這些技術也具有巨大的商業潛力。「這就是經濟上有價值的東西。如果人們不被說服它很危險,那就是自然會建立的模塊類型。」
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。