President Biden Speaks On Lowering Costs

(SeaPRwire) –   以 AI 打電話要求他在州內的總統初選中支持總統喬·拜登。電話中的 AI 生成的聲音與拜登獨特的節奏和口頭禪(「胡說八道!」)相匹配。從那通電話開始,想像在拜登執政下的一連串災難,以至於 AI 深度偽造影片,拜登似乎在考慮操縱選舉和提高啤酒價格,AI 已在全球各地的選舉中留下印記。在這個背景下,一些政府和科技公司已採取一些措施來減輕風險 – 歐洲立法機構最近批准了一項里程碑性法律,而最近的上個月,科技公司在慕尼黑安全會議上簽署了一項承諾。但還需要採取更多行動來保護美國民主。

在慕尼黑,包括OpenAI、蘋果、Meta、微軟、TikTok、Google、X等公司在內的公司宣布簽署一項協議,採取措施保護2024年美國和其他國家舉行選舉時不受影響。這些公司將幫助觀眾追蹤AI生成內容和真實內容的來源,嘗試檢測選舉期間的欺騙性AI媒體,並採取「合理預防措施」來遏制AI造成的選舉騙局風險。雖然這項協議不無裨益,但其成功與否將取決於如何執行其承諾。承諾措辭含糊 -「適度回應」、「在適當和技術可行的情況下」、「嘗試」等,為公司提供很大的裁量權,以很少採取行動。當然,一些公司正在採取進一步行動,但當前情況的緊迫性要求採取更強大和更普遍的行動。

今年是美國首次在AI發展允許欺詐分子以極短時間、幾乎無成本和大規模方式製作看起來幾乎完美的候選人和官員照片、視頻或音頻內容或說任何話後舉行的全國選舉。同時,生成AI對話機器人的底層技術使騙子能在幾秒鐘內和大規模建立假的選舉網站或假新聞網站。它也給國內和國外的惡意分子提供了進行難以追蹤的大規模互動影響力運動的能力。

隨著生成AI被整合入常見的搜索引擎中,選民與對話機器人交流時,尋求基本選舉信息的人可能會面臨錯誤信息、完全胡說或極端網站鏈接。AI民主項目和Proof News最近的一項研究表明,流行的AI工具 – 包括Google的Gemini、OpenAI的GPT-4和Meta的Llama 2 – 在回答某些選舉問題時會「誤導」。更傳統的非生成AI系統面臨著對成千上萬選民的合法性提出質疑,從而冒著錯誤剝奪選民的選舉權利,給選舉辦公室帶來負擔。隨著選舉官員考慮在日常工作中使用新的AI工具,缺乏有意義的監管存在著一定程度上危及部分選民投票權利的風險,即使AI也為短缺人手的辦公室解鎖了省時機會。

在慕尼黑會議之前,世界領先的生成AI運營商OpenAI最近宣布推出一項旨在減輕2024年美國大選期間選舉傷害的政策。這包括禁止用戶建立假冒候選人的定制AI對話機器人,禁止用戶利用OpenAI工具傳播有關投票時間和方式的虛假信息,並使用數字編碼保護圖像,這將有助於觀察人員確定是否有OpenAI的Dall-E生成的圖像在網絡上大量傳播。

但是,這些行動 – 儘管比一些其他主要AI公司到目前為止採取的行動更全面 – 仍有重要不足,並突顯出OpenAI和其他科技巨頭未來幾個月為了實現慕尼黑承諾而可能採取的舉措的限制。首先,公司公開政策未明確提出幾個在過去選舉周期中困擾人,並可能以新的形式在今年重新出現的核心虛假敘事和描繪。例如,它們並未明確禁止假造選舉官員干擾計票過程的假象、不可靠或受損的投票機器的偽造,或毫無根據地聲稱全面選民欺詐已發生的虛假主張(根據布倫南中心,這些被認為是2022年中期選舉期間選舉否定論者最常見的虛假敘事)。雖然OpenAI政策可能或全部涵蓋一些或所有此類內容,但明確禁止創建和傳播這些類別將為用戶和選民提供更清晰的指導和保護。由於選舉程序 – 以及偶爾快速解決的選舉日小問題 – 在縣之間有差異,公司應設立渠道來分享當地選舉官員和OpenAI員工之間的信息,以便在選舉前的幾個月內準備選舉。

最重要的是,這家科技先驅需要做更多工作來控制與第三方開發商的合作風險 – 即許可OpenAI模型的公司。例如,如果用戶將基本選舉問題輸入第三方搜索引擎,該搜索引擎利用OpenAI模型,答案可能會包含錯誤、過時的事實和其他失誤。(《WIRED》去年12月報導微軟Copilot時發現了一些問題,儘管其中一些問題可能已得到解決。)為了更好地在本次選舉季保護選民,公司必須為其與開發商的合作關係制定和執行更嚴格的規定,例如將OpenAI模型整合到搜索引擎或選民可能尋求有關投票和選舉ABC的信息的任何數字平台。雖然在慕尼黑簽署的協議旨在處理有意欺騙內容,但選民也可能受到AI「幻覺」 – 系統算法產生的虛構內容 – 或AI創造者和服務提供商未能防止的其他故障的影響。

但是,OpenAI無法單獨解決問題。其他科技巨頭必須發布自己的生成AI工具選舉政策,揭示任何內部調整,並將內部實踐開放給公眾了解和知情。首先,包括蘋果、字節跳動、三星和X在內的主要科技公司應簽署《信號標籤開放標準》,為內容嵌入數字標記,以幫助證明內容是否為AI生成或真實,並在網絡中傳播。(雖然蘋果和X在慕尼黑承諾考慮對其內容附加類似的信號,但一致標準將改善檢測能力和協調能力。)同時,標籤應設法更難移除。社交媒體公司必須迅速應對深度偽造和模擬人類活動的機器人帳戶,以及為選舉官員和真實新聞組織實施有意義的帳戶驗證流程,以幫助選民在充滿誤導信息、假冒帳戶和假裝為真實新聞的內容中的社交媒體中找到準確信息。

一家公司(或少數幾家公司)的行動,雖重要,但在充滿未經保護的開源AI模型的環境中,其底層代碼和演算法可公開下載和操作,這並不足夠。公司如Meta和Stability AI已發布未經保護的AI系統,其他玩家也迅速推出了更多。今天,任何希望干擾選舉的人都有AI技術可供選擇,加強其行動,並有多種部署方式。這意味著各級政府也必須採取緊急行動來保護選民。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。

國會、機構和各州手中有眾多選項可以在2024年選舉前減輕AI的風險。國會和各州應對深度偽造 – 尤其是運動、政治行動委員會和受薪影響者傳播的內容 – 進行監管,要求在可能壓制投票或錯誤表現候選人和選舉官員言行的欺騙性和數字修改圖像、視頻和音頻片段中加入聲明。立法機構也應要求運動和政治行動委員會明確標記生成AI對話機器人產生的部分內容,尤其是政治人物利用這種技術進行持續互動的情況。