我們覺得這里頭有些玩笑是 Google 故意做的。
眾所周知,Google 的支柱業(yè)務———在線廣告一直有通過算法,把用戶進行區(qū)分對待,讓不同的人看到不同類型的廣告。
為了解不同的人所能看到的 Google 廣告有什么區(qū)別,卡耐基梅隆大學和國際計算機科學協會(ICSI)展開了一項研究。通過他們開發(fā)的名為 Adfisher 的程序,系統(tǒng)模擬出了大量虛擬的男性和女性身份,并讓他們訪問一些招聘網站。結果發(fā)現在之后 Google 顯示的廣告中,針對男性的招聘廣告所宣稱的工作待遇都要優(yōu)于針對女性的。
這不免讓人誤解,難道 Google 有明顯的性別歧視傾向,連廣告都不放過?研究人員倒是表示事實未必如此。這很有可能是算法所導致的錯誤,也不排除是廣告主針對特定人群進行廣告投放的結果。
盡管這次女權主義者也許不會做出抗議,但此前算法還是給 Google 引起過不少尷尬事。“龍鼎網絡
”推薦此文。
把人識別為大猩猩
Google Photos 是一款今年 5 月才發(fā)布的相冊應用。其亮點之一就是可以智能識別圖像中的人和物體,并做出分類。
然而,上周它卻因為把照片中兩名美籍黑人錯誤標記為大猩猩,而引起廣泛關注。招致用戶一番不滿和抱怨后,Google 不得不承認它在算法上的不足,并對當事人致歉,來避免更多的糾紛。
用圣經解釋恐龍滅絕
Google 起家的搜索引擎算法也并沒給這家公司少惹事。今年 5 月就有用戶發(fā)現,當他們搜索恐龍滅絕的原因時,排在其結果首位的卻是一家宗教網站。而其對問題的解釋居然運用了《圣經》進行論證。
難道這家科技公司開始宣揚宗教,還是程序員的一個彩蛋?恐怕,更合理的解釋只是算法的問題。
白宮都被錯誤標記
同樣是今年 5 月,有用戶在 Twitter 上爆料,用 Google 地圖搜索“Nigga House”,地圖上顯示的居然是白宮。而 Nigga 可是對黑人歧視性的俚語。
不知奧巴馬如果得知此事會怎么想,鬧不好,可是一場政治危機。當然,最后發(fā)現 這又是一次算法過失,并得到了及時的改正。
兒童應用顯示少兒不宜內容
今年 2 月,Google 旗下的在線視頻網站 YouTube 發(fā)布了它的兒童專版應用,通過算法來為孩子們推薦合適的視頻,以此打造一個健康的互聯網環(huán)境。
荒唐的是,5 月份的時候,這個本來讓父母放心的應用卻顯示了露骨的性語言,甚至是戀童癖的笑話。這也免不了,引起了家長們的重視和投訴。Google 也因此受到了政府的調查。
分不清“賣”和“蘋果股價”
2012 年 12 月,Google 的財經頻道(Google Finance)也因為算法問題,出現了惡作劇一樣的事件。
當用戶輸入 “Sell”(賣)或 “Over Sold”(賣空)時,系統(tǒng)竟然會分別跳轉到蘋果和亞馬遜的股價頁面??紤]到這些公司之間的競爭關系,小的惡作劇也不足為奇。不過,這次兩個關鍵詞與上述兩家公司實在相差太大。Google 的算法問題錯的有些離譜。
把 KFC 標識當做真人抹掉了
除了把人當成大猩猩,Google 的圖像識別算法把非人的對象當做人也是常有的事。出于對個人隱私的保護,Google 會給街景地圖上出現人物的面部打上馬賽克,但有時也會出意外。
在 2009 年的時候,就連肯德基的標識上那個白胡子老爺爺也沒能逃過 Google 算法的打碼。縱然圖片和真人頭像懸殊很大,英國的一家肯德基店鋪的標牌上依然被模糊處理了。不過,這家店鋪此后在街景地圖上卻得到了人們“格外地關注”。
盡管自 Google 誕生以來,算法就成了它取得成功的重要的因素,但它畢竟不能解決所有問題。我們也只能期望憑借數據的積累和技術的完善,能讓算法日益進步,并改善我們的生活。
晉城龍鼎 - 晉城網站建設為您解答!