②繼OpenAI、Meta等美國人工智能領(lǐng)軍企業(yè)放任自家模型用于軍事目的后,谷歌近來也“偷偷摸摸”地加入了這一陣營; ②據(jù)當(dāng)?shù)孛襟w本周二發(fā)現(xiàn),谷歌已從其人工智能原則中刪除了一段承諾避免將AI技術(shù)用于武器等潛在有害應(yīng)用的承諾。
財聯(lián)社2月5日訊(編輯 瀟湘)繼OpenAI、Meta等美國人工智能領(lǐng)軍企業(yè)放任自家模型用于軍事目的后,谷歌近來也“偷偷摸摸”地加入了這一陣營。
據(jù)當(dāng)?shù)孛襟w周二發(fā)現(xiàn),谷歌已從其人工智能原則中刪除了一段承諾避免將AI技術(shù)用于武器等潛在有害應(yīng)用的承諾。
該公司似乎更新了其公開的AI原則頁面,刪除了上周還存在的名為“我們不會追求的應(yīng)用”的部分——例如“造成或可能造成整體傷害的技術(shù)”,包括武器。
谷歌高級副總裁James Manyika和人工智能實驗室DeepMind負責(zé)人Demis Hassabis隨后在一篇博客文章中,為這一舉措進行了辯護。他們認為,企業(yè)和政府需要在“支持國家安全”的人工智能方面進行合作。
該博客文章表示,隨著技術(shù)的發(fā)展,該公司于2018年發(fā)布的最初的人工智能原則,需要進行更新。
“數(shù)十億人在日常生活中使用人工智能。人工智能已經(jīng)成為一種通用技術(shù),也是無數(shù)組織和個人用來構(gòu)建應(yīng)用程序的平臺,”文章稱,“AI已經(jīng)從實驗室的一個小眾研究課題,轉(zhuǎn)變?yōu)橐环N像手機和互聯(lián)網(wǎng)一樣普及的技術(shù)。”
值得一提的是,這篇博客文章是在Alphabet周二發(fā)布Q4報告之前不久發(fā)布的。最終財報顯示,谷歌去年四季度的業(yè)績?nèi)跤谑袌鲱A(yù)期,并導(dǎo)致其股價在盤后下跌。
又一家“撕毀承諾”
毫無疑問,此番谷歌在人工智能原則上措辭變動,將令其成為最新一家放任向AI軍事化靠攏的美國人工智能公司。
正如財聯(lián)社去年曾報道過的那樣,硅谷在數(shù)年前還對五角大樓避之不及,但如今隨著AI技術(shù)的發(fā)展,兩者之間卻似乎正在建立更為深層次的聯(lián)系。
Meta在去年11月初已表示,將允許從事國家安全工作的美國政府機構(gòu)和承包商,將該公司的人工智能模型Llama用于軍事目的。此舉無疑改變了Meta此前禁止將其AI技術(shù)用于軍事領(lǐng)域的方針政策。
OpenAI與美國國防科技初創(chuàng)公司Anduril Industries在去年12月則共同宣布,雙方將建立戰(zhàn)略合作伙伴關(guān)系,以開發(fā)和負責(zé)任地部署用于國家安全任務(wù)的先進AI解決方案。這是OpenAI正式向軍事領(lǐng)域邁出了實質(zhì)性的一步……
而此番谷歌的轉(zhuǎn)變則更為令人們感到唏噓。
事實上,早在人們對人工智能引發(fā)倫理問題的興趣高漲之前,谷歌創(chuàng)始人謝爾蓋·布林和拉里·佩奇就曾表示,他們的公司座右銘是“不作惡”。當(dāng)該公司于2015年重組為Alphabet時,他們的口號也依然是“做正確的事”。
前谷歌道德人工智能團隊的聯(lián)合負責(zé)人、現(xiàn)任人工智能初創(chuàng)公司Hugging Face首席倫理科學(xué)家Margaret Mitchell表示,刪除“傷害”條款可能會對谷歌開展的工作類型產(chǎn)生影響。
她說:“刪除該條款將抹去谷歌許多人在人工智能道德領(lǐng)域所做的工作,更成問題的是,這意味著谷歌現(xiàn)在可能會致力于直接部署可以殺人的技術(shù)?!?/p>
長期以來,谷歌員工一直在爭論如何平衡人工智能領(lǐng)域的道德問題和競爭態(tài)勢,尤其是OpenAI的ChatGPT的推出讓這家搜索巨頭倍感壓力之際。2023年,一些谷歌員工便曾對外表達了擔(dān)憂,認為該公司在人工智能領(lǐng)域重振雄風(fēng)的動力可能導(dǎo)致道德失范。