張經(jīng)理 / 18665606093
Email / service@2000new.com
掃一掃添加顧問
近年來,網(wǎng)站建設(shè)被稱為時代主題。企業(yè)、政府、政府機構(gòu)、組織和個人都在為自己的網(wǎng)絡(luò)宣傳平臺做準(zhǔn)備。自從媒體時代發(fā)展以來,網(wǎng)站建設(shè)不能走向破產(chǎn)。隨著人工智能技術(shù)在物聯(lián)網(wǎng)中的應(yīng)用,通過人工智能技術(shù)對應(yīng)用技術(shù)進行深化和改革,使整個時代的機械化變?yōu)槿诵曰?。SEOer行業(yè)人士曾指出,人工智能時代將徹底改變世界,也將對網(wǎng)絡(luò)優(yōu)化產(chǎn)生一定影響。SEO搜索算法目前只使用搜索引擎算法,沒有融入人工智能技術(shù)。影響人工智能技術(shù)擴展的人,需要看搜索引擎工程師對搜索系統(tǒng)的判斷。
人工智能是一個黑匣子
深度學(xué)習(xí)以一種不太嚴(yán)格但容易理解的方式,就是給已有的數(shù)據(jù)(大量數(shù)據(jù))貼標(biāo)簽,然后系統(tǒng)自己總結(jié)數(shù)據(jù)和結(jié)果的關(guān)系(即標(biāo)簽),面對新的數(shù)據(jù)時,可以根據(jù)自己總結(jié)的規(guī)則進行判斷。對于圍棋來說,無論是歷史游戲還是自我游戲,AlphaGo都知道臉和結(jié)局(也是標(biāo)簽),所以系統(tǒng)會總結(jié)規(guī)則,判斷面對新臉時贏棋的概率。但是AI系統(tǒng)發(fā)現(xiàn)了數(shù)據(jù)的什么特征,和結(jié)果有什么關(guān)系,連創(chuàng)造AI的工程師都不知道。
所以,目前的人工智能系統(tǒng)是一個黑箱。我們知道AI判斷的準(zhǔn)確率高,但是不知道為什么,也不知道怎么判斷。
AI在搜索算法上也是如此。百度搜索工程師很少說只知道百度現(xiàn)在是All In AI。谷歌工程師已經(jīng)明確表示,他們不知道RankBrain到底是如何工作的。這種情況下,算法中大量使用人工智能就比較麻煩了。一旦出現(xiàn)異常結(jié)果,不知道是什么原因,無法調(diào)試。
我寫這個帖子是因為前幾天在紐約時報上看到一篇文章“AI能學(xué)會自我解釋嗎?”,很有意思。心理學(xué)家Michal Kosinski將20萬個社交網(wǎng)絡(luò)賬號(是交友網(wǎng)站)的照片和個人信息(包括很多內(nèi)容,比如性取向)輸入人工智能系統(tǒng)進行面部識別,發(fā)現(xiàn)人工智能在只看到照片的情況下判斷性取向的準(zhǔn)確率很高。通過照片判斷一個人是否是同性戀的準(zhǔn)確率為60%,比扔硬幣的準(zhǔn)確率略高,但人工智能判斷男性是否是同性戀的準(zhǔn)確率高達91%,判斷女性的準(zhǔn)確率更低,也是83%。
你看不到有助于你判斷的信息,比如語氣、姿勢、日常行為、人際關(guān)系。同性戀是否具有外表純潔的特點?我個人的經(jīng)驗是,以貌取人不靠譜。以前認識一對男同性戀,很有男人味,常年健身,待人彬彬有禮但從不女性化,從外面看不出來??赡芤彩强磕承┓b特點?表情?背景?人工智能從照片中看到了哪些我們?nèi)祟惡芸赡芎雎曰蛘呷祟惛究床坏降奶卣?,?zhǔn)確率91%?不知道,只是知道AI很準(zhǔn)。不能說明你的AI不可信
這個黑盒特征有時候是不相關(guān)的,比如判斷性取向。有時候不能這么草率,比如看醫(yī)生。雖然AI系統(tǒng)診斷某些癌癥的正確率已經(jīng)達到了人類醫(yī)生的水平,但得出的結(jié)論是目前醫(yī)生還是要做的,尤其是AI無法告訴我們其診斷原因的時候。除非AI能解釋為什么以后會做出這種診斷,否則人類百分百信任AI是有很大的心理障礙的。
前幾天剛看到新聞,新加坡政府開始測試無人駕駛公交車。這顯然是正確的方向,相信在不久的將來會成為現(xiàn)實。雖然自駕汽車的事故率比人低,大家都知道其實更安全,但是過馬路的時候,停在我旁邊的公交車沒有司機,我會不會有點擔(dān)心它突然啟動?當(dāng)我開車時轉(zhuǎn)過頭,我看到我旁邊的公共汽車上沒有司機。我會不會震驚,下意識的遠離?至少在早期。和幾個朋友聊起這件事,我理性的相信,情感上愧疚。
此前,該計劃依賴于確定性和因果關(guān)系。例如,搜索算法中的哪些頁面特征是排名因素,每個占據(jù)多少權(quán)重,這些都是由工程師選擇和確定的。雖然可以通過拍打頭部來決定選擇,但是在監(jiān)控效果和調(diào)整參數(shù)之后可以獲得令人滿意的平衡。人工智能系統(tǒng)并不依賴于工程師給出的因果關(guān)系,而是更善于發(fā)現(xiàn)概率和相關(guān)性之間的聯(lián)系。對于人來說,往往很難解釋以概率和相關(guān)性為特征的判斷原因,比如,也許看心情,也許看起來好不好。
要求AI系統(tǒng)解釋自己的判斷不僅僅是心理問題,將來可能會變成倫理法律問題,就像看病一樣。再比如涉及用戶利益的事情,比如貸款。人工智能基于大量數(shù)據(jù)做出拒絕貸款的決定,但銀行無法解釋為什么拒絕,應(yīng)該如何向用戶解釋?今年,歐盟可能會發(fā)布規(guī)定,要求機器做出的決定必須得到解釋。這對谷歌、Facebook等全球性企業(yè)來說是一種壓力。在許多領(lǐng)域,如軍事、法律和金融,所有的決策都需要有人負責(zé)。如果一個決定不能說明原因,恐怕沒有人敢承擔(dān)責(zé)任。
需要AI來解釋原因的另一個原因是,如前所述,人工智能看的是概率和相關(guān)性,但是基于相關(guān)性做出決策有時會導(dǎo)致嚴(yán)重的錯誤?!都~約時報》的文章舉了一個例子??偟膩碚f,數(shù)據(jù)訓(xùn)練出來的人工智能系統(tǒng)輔助了醫(yī)院急診室的分診,但研究人員仍然不敢真正使用,因為數(shù)據(jù)中的相關(guān)性可能會誤導(dǎo)人工智能做出錯誤的判斷。比如數(shù)據(jù)顯示,哮喘合并肺炎患者最終恢復(fù)情況好于平均水平,這種相關(guān)性是真實的。如果AI系統(tǒng)因為這個數(shù)據(jù)而給哮喘肺炎患者較低的治療水平,可能會發(fā)生一些事情。因為這些病人最后狀態(tài)都很好,因為他們一到就被給了最高的等級,得到了最好最快的治療。所以,有時候我們從關(guān)聯(lián)性中看不到真正的原因。解釋性人工智能
X.A.I .(可解釋人工智能)是一個新興領(lǐng)域,旨在使人工智能解釋自己的判斷、決策和過程。去年,美國國防部高級研究計劃局啟動了由大衛(wèi)葛寧博士領(lǐng)導(dǎo)的XAI項目。谷歌在這一領(lǐng)域仍然處于領(lǐng)先地位,深夢似乎是這項研究的副產(chǎn)品:
人工智能與SEO
回到搜索算法和SEO,搜索引擎不能完全應(yīng)用人工智能的原因之一是人工智能的判斷無法解釋和理解。如果算法使用目前的人工智能,一旦排名出現(xiàn)異常,工程師就不知道是什么原因,更不知道如何調(diào)整。
我覺得自動駕駛是AI最早的實用領(lǐng)域之一,和能否解釋有關(guān)系。自駕汽車的大多數(shù)決策幾乎不需要解釋,或者解釋一目了然,因為離前面的車太近,需要減速或者剎車。這樣的判斷應(yīng)該不需要進一步解釋。
SEO的人大概也有同樣的疑惑。一個競爭對手的頁面看起來沒什么特別,內(nèi)容不好,視覺設(shè)計一般,外鏈一般,大家做同樣的頁面優(yōu)化。為什么排名這么好?目前的搜索算法也可以探究原因,搜索工程師大概有內(nèi)部工具看排名的合理性。如果搜索工程師看了一個不好的頁面,排名第一,但是不知道為什么,還找不到,心里可能會著急。
XAI研究剛剛開始,給SEO們一個最后的緩沖期。從人工智能系統(tǒng)在其他領(lǐng)域碾壓人類的表現(xiàn)來看,一旦大規(guī)模應(yīng)用于搜索,作弊和黑帽SEO很可能成為過去式,目前的常規(guī)SEO工作可能變得無足輕重,所以SEO人需要回歸網(wǎng)站的本質(zhì):提供有用的信息或產(chǎn)品,沒有其他辦法。