亚洲欧美日韩狼人射_在线精品免费看国产_中文字幕日本免费视片_少妇人妻无码高清

×

網站建設

當前位置:首頁 > 龍鼎新聞 > 行業(yè)新聞 >

Google 的算法出過哪些囧事?

作者:龍鼎網絡發(fā)布時間:2015-07-29 16:25:15瀏覽次數:15386文章出處:晉城自適應網站制作

Google 的算法出過哪些囧事?,龍鼎網絡

我們覺得這里頭有些玩笑是 Google 故意做的。

眾所周知,Google 的支柱業(yè)務———在線廣告一直有通過算法,把用戶進行區(qū)分對待,讓不同的人看到不同類型的廣告。

為了解不同的人所能看到的 Google 廣告有什么區(qū)別,卡耐基梅隆大學和國際計算機科學協會(ICSI)展開了一項研究。通過他們開發(fā)的名為 Adfisher 的程序,系統(tǒng)模擬出了大量虛擬的男性和女性身份,并讓他們訪問一些招聘網站。結果發(fā)現在之后 Google 顯示的廣告中,針對男性的招聘廣告所宣稱的工作待遇都要優(yōu)于針對女性的。

這不免讓人誤解,難道 Google 有明顯的性別歧視傾向,連廣告都不放過?研究人員倒是表示事實未必如此。這很有可能是算法所導致的錯誤,也不排除是廣告主針對特定人群進行廣告投放的結果。

盡管這次女權主義者也許不會做出抗議,但此前算法還是給 Google 引起過不少尷尬事。“龍鼎網絡 ”推薦此文。

把人識別為大猩猩

Google Photos 是一款今年 5 月才發(fā)布的相冊應用。其亮點之一就是可以智能識別圖像中的人和物體,并做出分類。

Google 的算法出過哪些囧事?,龍鼎網絡

然而,上周它卻因為把照片中兩名美籍黑人錯誤標記為大猩猩,而引起廣泛關注。招致用戶一番不滿和抱怨后,Google 不得不承認它在算法上的不足,并對當事人致歉,來避免更多的糾紛。

用圣經解釋恐龍滅絕

Google 起家的搜索引擎算法也并沒給這家公司少惹事。今年 5 月就有用戶發(fā)現,當他們搜索恐龍滅絕的原因時,排在其結果首位的卻是一家宗教網站。而其對問題的解釋居然運用了《圣經》進行論證。

難道這家科技公司開始宣揚宗教,還是程序員的一個彩蛋?恐怕,更合理的解釋只是算法的問題。

白宮都被錯誤標記

同樣是今年 5 月,有用戶在 Twitter 上爆料,用 Google 地圖搜索“Nigga House”,地圖上顯示的居然是白宮。而 Nigga 可是對黑人歧視性的俚語。

Google 的算法出過哪些囧事?,龍鼎網絡

不知奧巴馬如果得知此事會怎么想,鬧不好,可是一場政治危機。當然,最后發(fā)現 這又是一次算法過失,并得到了及時的改正。

兒童應用顯示少兒不宜內容

今年 2 月,Google 旗下的在線視頻網站 YouTube 發(fā)布了它的兒童專版應用,通過算法來為孩子們推薦合適的視頻,以此打造一個健康的互聯網環(huán)境。

荒唐的是,5 月份的時候,這個本來讓父母放心的應用卻顯示了露骨的性語言,甚至是戀童癖的笑話。這也免不了,引起了家長們的重視和投訴。Google 也因此受到了政府的調查。

分不清“賣”和“蘋果股價”

2012 年 12 月,Google 的財經頻道(Google Finance)也因為算法問題,出現了惡作劇一樣的事件。

Google 的算法出過哪些囧事?,龍鼎網絡

當用戶輸入 “Sell”(賣)或 “Over Sold”(賣空)時,系統(tǒng)竟然會分別跳轉到蘋果和亞馬遜的股價頁面??紤]到這些公司之間的競爭關系,小的惡作劇也不足為奇。不過,這次兩個關鍵詞與上述兩家公司實在相差太大。Google 的算法問題錯的有些離譜。

把 KFC 標識當做真人抹掉了

除了把人當成大猩猩,Google 的圖像識別算法把非人的對象當做人也是常有的事。出于對個人隱私的保護,Google 會給街景地圖上出現人物的面部打上馬賽克,但有時也會出意外。

Google 的算法出過哪些囧事?,龍鼎網絡

在 2009 年的時候,就連肯德基的標識上那個白胡子老爺爺也沒能逃過 Google 算法的打碼。縱然圖片和真人頭像懸殊很大,英國的一家肯德基店鋪的標牌上依然被模糊處理了。不過,這家店鋪此后在街景地圖上卻得到了人們“格外地關注”。

盡管自 Google 誕生以來,算法就成了它取得成功的重要的因素,但它畢竟不能解決所有問題。我們也只能期望憑借數據的積累和技術的完善,能讓算法日益進步,并改善我們的生活。

晉城龍鼎 - 晉城網站建設為您解答!

客戶評價

專業(yè)的網站建設、響應式、手機站微信公眾號開發(fā)

© 2010-2020 龍鼎網絡 版權所有 晉ICP備14008335號-1

注冊號:140502200020561

公眾號 微信聯系

手機版 進入手機版