Google人工智慧政策大轉彎 放寬AI開發武器和監控科技限制

《CNN》報導,谷歌()近日更新人工智慧(AI)倫理政策,從原本的版本中移除不開發武器及不超出國際規範的監控應用等承諾。報導指出,OpenAI在2022年推出聊天機器人ChatGPT後,AI的發展以令人目不暇給的速度向前邁進。儘管AI應用蓬勃發展,但相關的立法與監管卻未能跟上腳步,谷歌現在似乎也放寬自我約束。《CNN》透過網路檔案館 「Wayback Machine」查閱谷歌的倫理政策先前版本後,發現他們過去明確列出不會開發的AI應用,包括開發武器和傷人的技術、以及超出國際規範的監控科技。但在最新的政策頁面上,這些語句已經消失。《CNN》已聯繫谷歌尋求置評,但尚未獲得回應。

報導指出,谷歌在2018年首次發布AI原則時,AI還未像現在這麼普及。相較於當年的承諾,此次更新可說是谷歌在價值觀上的大轉變。谷歌2018年曾因無法確定是否符合內部AI原則,而放棄一項價值100億美元的五角大廈合約。據了解,當時有超過4000名員工連署請願,要求谷歌明確制定政策,保證公司及承包商永不開發戰爭技術,還有十幾名員工因此辭職抗議。Google DeepMind負責人哈薩比斯(Demis Hassabis)與資深副總裁曼伊卡(James Manyika)4日在部落格文章中則表示,民主國家發布的AI框架加深了谷歌對AI潛力與風險的理解。他們認為,在日益複雜的地緣政治格局下,民主國家應以自由、平等、尊重人權等核心價值引領AI發展,並呼籲擁有共同價值觀的企業、政府與組織攜手合作,開發能保護人民、促進全球經濟成長、支持國家安全的AI技術。  


標題:Google人工智慧政策大轉彎 放寬AI開發武器和監控科技限制

聲明: 本文版權屬原作者。轉載內容僅供資訊傳遞,不涉及任何投資建議。如有侵權,請立即告知,我們將儘速處理。感謝您的理解。

分享你的喜愛