(SeaPRwire) –   對於 Google 雄心勃勃的人工智慧策略來說,二月看來會是一個豐收月。該公司將其聊天機器人更名為 Gemini,並發布兩項主要產品升級,以便在白熱化的人工智慧軍備競賽中與各方的競爭對手一較高下。在這一切的過程中,Google 還允許 Gemini 使用者產生逼真的人像。

最初並沒多少人注意到這項功能。像 OpenAI 等其他公司已經提供工具,讓使用者可以快速製作人像,然後用於行銷、藝術和創意激盪。與其他 AI 產品一樣,這些圖像生成器在開發過程中按照餵養資料存在延續偏見的風險。要求提供護士,有些 AI 服務比較可能會顯示女性;要求提供執行長,你經常會看到男性。

在 Google 推出這項功能後的數週內,Gemini 用戶注意到了另個問題。自2 月 20 日開始到整個星期,X 社群媒體平台上的用戶持續湧入大量 Gemini 不顯示白人的例子,即使是在白人很有可能占主導地位的歷史背景下,例如當使用者要求提供建國先賢或 1943 年的德國士兵影像時。不久後,擁有大量右翼受眾的人物和新聞媒體聲稱,他們對 Gemini 的測試顯示,Google 對白人另有隱藏議程,且只用了可疑的證據。

身為 X 所有者的伊隆·馬斯克加入了這場爭論,與數十篇關於這場毫無根據的陰謀的貼文互動,其中幾篇還指出個別 Google 領導人是這項政策的幕後主使。週四,Google 暫停了 Gemini 的人物形象生成。第二天,Google 高級副總裁 Prabhakar Raghavan 宣布暫停這項功能,試圖釐清公司的決定,但沒有深入解釋該功能為何會出問題。

Google 發布一款在處理歷史影像請求時配備不佳的產品,凸顯了科技公司在防止其 AI 系統放大偏見和錯誤資訊時面臨的獨特挑戰,尤其是在 AI 產品競爭帶來的壓力下,要求將 AI 產品快速推向市場。Google 沒有暫停發布有缺陷的圖像生成器,而是嘗試了一種權宜之計。

據兩位知情人士表示,當 Google 推出這項工具時,便加入了一項技術修復措施以減少輸出的偏見。這些人士要求在討論私人資訊時不要透露姓名。但他們說,Google 沒有充分預測到該工具出錯的所有方式,也沒有對其方法保持透明。

Google 過度矯正 AI 眾所周知的對有色人種的偏見,使其容易受到另一場關於多元性的批評風暴。多年來,這家科技巨頭一直面臨批評,錯誤地在「相片」應用程式中搜尋「猩猩」時顯示黑人的影像,並長期公開爭論是否適當地驅逐其道德 AI 團隊的領導人。

在適當地暫停這項工具而沒有充分說明系統為何做出這樣的回應後,Google 員工和其他矽谷人士現在擔心,該公司的舉措會產生寒蟬效應。他們表示,這可能會阻止人才致力於 AI 和偏見問題,這對該領域來說是一個至關重要的議題。

「以 Google 為首的整個科技產業再次陷入他們自己製造的可怕困境中,」東北大學研究 AI 系統和大型網路間資訊流動的助理教授羅拉·艾德爾森說道。「這個產業拼命需要將 AI 描繪成具有魔力,而不是,」她說道,指的是一個流行的比喻,用於描述 AI 系統如何透過統計模式配對模仿人類語言,而沒有真正的理解或理解。「但他們擁有的只是鸚鵡。」

「Gemini 是一個創造力和生產力工具,它可能並非總是準確或可靠,」Google 發言人在一份聲明中表示。「我們將持續迅速處理產品沒有適當回應的事件。」

在週二深夜發送給員工的電子郵件中,Google 執行長桑達爾·皮查伊表示,員工們一直「夜以繼日」地努力解決使用者對 Gemini 回應提出的問題,並補充說,公司已註冊「在各種提示中大幅改進」。

「我知道它的一些回應冒犯了我們的使用者並表現出偏見,說清楚一點,那完全不能接受,我們弄錯了,」皮查伊寫道,備忘錄首先由 Semafor 報導。「沒有 AI 是完美的,尤其是在這個產業發展的初期階段,但我們知道我們的標準很高,我們將不懈追求,直到達成目標。我們會檢討發生的事情,並確保我們大規模地解決它。」

在過去一年裡,隨著公司加快推出 AI 產品的步伐以跟上 OpenAI 等競爭對手,從事道德 AI 的 Google 員工一直飽受士氣低落和無力感。Google 道德 AI 研究小組前共同負責人兼 AI 新創公司 Hugging Face 的首席道德科學家瑪格麗特·米切爾表示,雖然在 Gemini 影像中納入有色人種表明考慮到了多元性,但這也表示公司沒有充分思考用戶可能尋求建立影像的不同背景。當使用者搜尋的影像並非世界實際上在特定歷史時刻的模樣,而是他們認為世界應該有的模樣時,可能會考慮採用不同的多元性考量。

「Google 關注膚色多元性的事實是 Google 在短短四年內取得的長足進步。所以有點像是,進兩步,退一步,」米切爾說。「他們必須獲得認可,因為他們確實關注這些事情。只是他們需要做得更深入一點才能做對。」

Google 的圖像問題

對於 Google 來說,這家公司開創了一些當今 AI 繁榮的核心技術,一直以來都承受著巨大壓力,要求將影像生成做好。Google 非常擔心人們會如何使用他們的 AI 影像生成模型 Imagen,以致於在 Imagen 推出後長時間拒絕向公眾發布這項功能。

多年來,公司的團隊爭論過如何確保其 AI 工具在產生逼真的圖像時負起責任,這兩位知情人士說,他們要求在傳達內部討論時不要透露姓名。據一位消息人士稱,在某個時候,如果在 Google 內部嘗試使用 Google 的 Imagen 的員工要求該程式產生人類的圖像,或甚至包含人們的圖像,例如一座足球場,它就會回應一個黑盒子。另一位消息人士說,Google 在進行多次檢閱後才將產生人物影像的功能包含在 Gemini 中。另一位消息人士說,Google 沒有對該功能可能會產生意外結果的所有方式進行測試,但它被認為對於 Gemini 的圖像生成工具的第一個版本來說已經夠好了,該版本向公眾廣泛提供。他們說,儘管 Google 的團隊在建構這個工具時很謹慎,但公司普遍認為自己沒有為這種類型的後果做好準備。

隨著 X 上的使用者流傳 Gemini 的非歷史人物描寫,一位現任員工表示,Google 的內部員工論壇充斥著關於該模型缺點的貼文。在員工分享取笑公司的迷因的內部論壇 Memegen 上,一篇熱門貼文刊登了一張電視主持人安德森·庫珀用手遮住臉的照片。

「是一個扶額的動作,」這位員工說道。「有一種感覺,這顯然還不成熟……公司事實上正試圖迎頭趕上。」

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。

Google、OpenAI 和其他公司在他們的 AI 產品中建立防護措施,並經常進行對抗性測試——