YouTube如何逐步把使用者推向極端主義?

YouTube如何逐步把使用者推向極端主義?
Photo Credit: Reuters/達志影像
我們想讓你知道的是

「YouTube的演算法似乎得出一個結論,那就是相較於剛開始使用時,一般而言人們閱聽的內容似乎有漸趨極端、煽動的趨勢。」可是,YouTube也如同Facebook、Twitter宣示身為中立「平台」而非發行人的立場,拒絕像電視頻道一樣為播出的內容負責。

文:DAVID Z. MORRIS
譯:劉松宏

如果你試著在YouTube上搜尋政治相關的影音,你可能會無意中被引介到該主題中逐漸增長的較極端、刻意誤導、或徹底錯誤的內容。若你感興趣的是左翼思想,該平台的演算法會指引你觀看相對應的左翼陰謀論。另一方面,搜尋右翼相關主題也是一樣。

無論如何,傳播學者Zeynep Tufecki於週六向《紐約時報》(New York Times)解釋,那正是她經過非正規實驗後得出的結論。Tufecki的實驗並沒有經過嚴謹的科學程序,她也表示Google不是很願意提供研究者實際的數據。但《華爾街日報》(Wall Street Journal)在上個月由前YouTube工程師協助執行的調查也得出相似的結論

近期的研究同樣顯示Twitter上的假新聞傳播的速度遠比事實更快,因此YouTube使用的演算法並不能被指控為刻意擾亂世界的罪魁禍首。相反地,問題可能是根植於人性以及YouTube商業模式兩者間的交互影響。

如同Facebook、Twitter、以及過往美好時代的電視節目,YouTube賺錢的方式是透過廣告──因此也可以說是透過觀眾的關注度。Tufecki寫到,隨著時間推移,「YouTube的演算法似乎得出一個結論,那就是相較於剛開始使用時,一般而言人們閱聽的內容似乎有漸趨極端、煽動的趨勢。」然而,YouTube也如同Facebook、Twitter,宣示其身為中立「平台」而非發行人的立場,拒絕像電視頻道一樣為播出的內容負責。

若該說法為真,那麼即使是對個人影音稍微嚴格的施壓──比如YouTube最近決定譴責陰謀論家亞歷斯.瓊斯(Alex Jones)──都只不過是稍微嚴肅點的打地鼠遊戲。

如同《華爾街日報》在上個月的報導中指出,顯然我們不必然一定要選擇這種作法。YouTube的母公司Google會在回傳搜尋結果時權衡內容的可信度,並優先考慮來自主流媒體的消息。YouTube則直截了當地拒絕針對此問題做任何處置。YouTube向《華爾街日報》表示,在他們的情況要像Google一樣做管制會更困難,因為相較於文字載體,即時新聞影片的選擇要少得多。

所以可想而知,YouTube表示其並未造成政治分歧。這種宣稱形同忽視了長期趨勢,包括傑利蠑螈(按:Gerrymander是一個來自美國的政治術語,指以不公平的選區劃分方法操縱選舉,致使投票結果有利於某方)和政治黑錢的現象更可能導致選情極端化。

YouTube和其他數位平台非常有可能使問題惡化地更快、更嚴重。

© 2017 Time Inc. 版權所有。經Time Inc.授權翻譯並出版,嚴禁未經書面授權的任何形式與語言版本轉載。

責任編輯:朱家儀
核稿編輯:翁世航

或許你會想看
更多『評論』文章 更多『社會』文章 更多『FORTUNE』文章
Loader