谷歌解除對武器和監視領域人工智慧的禁令:先進技術令人不安的未來
谷歌解除了長期以來禁止在武器和監視系統中使用人工智慧的禁令,這標誌著該公司在人工智慧開發方面的道德立場發生了重大轉變,前員工和行業專家表示,這可能會重塑矽谷對待人工智慧安全的方式。
這項變更本週悄悄實施,消除了 谷歌的人工智慧原則 明確禁止該公司開發用於武器或監視的人工智慧。這些原則, 它成立於2018年。,成為負責任的人工智慧發展的行業標竿。
Tracy Pizzo-Fry 曾擔任 Google Cloud 出站產品管理、參與和負責任 AI 高級總監,花了五年時間實施 Google 的原生 AI 原則,她在一篇關於 藍天“最後的堡壘已經淪陷。谷歌確實是唯一一家如此明確地表明其建設目標的公司。”
修訂後的原則取消了四項具體禁令:可能造成公共危害的技術;武器應用;監視系統;以及違反國際法和人權的技術。取而代之的是,這些原則規定: Google 現在它將致力於“減輕意外或有害後果”,並將符合“廣泛接受的國際法和人權原則”。

谷歌放寬人工智慧道德限制:對監控技術和軍事應用意味著什麼?
這一轉變正值一個特別敏感的時期,因為人工智慧技術正在快速發展,而關於如何適當地控制該技術的爭論也日益升溫。儘管谷歌堅稱這些變革已經醞釀了很長一段時間,但這一時機的出現引發了人們對其動機的質疑。
皮佐-弗萊在接受 VentureBeat 採訪時表示:「我們目前對大型科技公司存在很大的不信任,而似乎每一項旨在取消控制的舉措都會加劇這種不信任。」她強調,在谷歌任職期間,明確的道德界限對於構建值得信賴的人工智能係統至關重要。
最初的原則是在 2018 年員工抗議期間提出的 項目Maven與五角大廈簽訂的合同,內容包括使用人工智慧分析無人機拍攝的畫面。儘管谷歌最終拒絕續簽這份合同,但新的變化可能預示著其對類似軍事合作的開放態度。
該修正案保留了先前道德框架的一些要素。 對於谷歌,但它從禁止特定應用程式轉向強調風險管理。這種方法更符合行業標準,例如 NIST 人工智能風險管理框架,儘管批評人士表示,它對潛在有害應用程式的限制不那麼嚴格。
貝佐·弗萊指出:“即使準確性不同,道德考慮與創造好的人工智慧同樣重要”,並強調道德考量如何提高人工智慧產品的有效性和可訪問性。
從 Maven 計畫到政策轉型:Google的 AI 倫理改革之路
產業觀察家表示,這項政策變化可能會影響其他科技公司如何處理人工智慧倫理問題。谷歌最初的原則為企業在人工智慧開發中的自我監管開創了先例,許多公司都希望谷歌在負責任的人工智慧實施方面提供指導。
這項修正案反映了科技業在快速創新與道德約束之間更廣泛的矛盾。隨著人工智慧開發領域競爭的加劇,企業面臨著在負責任的開發與市場需求之間取得平衡的壓力。
「我擔心疫情在全球蔓延的速度有多快,以及 Plus 和 Plus 是否會擺脫限制,」Pitso Frei 表示,他對在沒有充分評估潛在後果的情況下快速推出人工智慧產品的競爭壓力表示擔憂。
科技界的重大道德兩難:Google的人工智慧政策轉變是否會樹立新的產業標準?
這次審查也引發了人們對谷歌內部決策流程的質疑,以及員工如何在沒有明確禁令的情況下處理道德考量。貝佐-弗萊在Google任職期間,建立了匯集不同視角的審查流程,以評估人工智慧應用的潛在影響。
儘管Google始終致力於負責任的人工智慧開發,但取消具體禁令,與其先前在為人工智慧應用設定明確道德界限方面的領導地位相比,意義重大。隨著人工智慧的不斷發展,業界正密切關注這一轉變將如何影響人工智慧開發和監管的更廣泛格局。
評論被關閉。