誰該為臉書「過濾氣泡」負責?臉書的《科學》期刊發表指出:用戶個人該負首要責任
本文出自新媒體世代:https://goo.gl/Y6ujtB (臉書連結)
網頁圖文好讀版:http://goo.gl/L13O29
許多學者表示,暴露於多元言論和價值觀的機會,對於民主社會養成有正面影響,包括提
高民眾對政治事件的興趣、增加對不同言論立場的包容性,以及提升政治知識等;而處在
過高的同質性言論環境,則可能會造成像是態度極化等負面影響。然而也有學者指出,處
在異質性的人際網絡中(network heterogeneity),部分個體可能會為了避免衝突而降低
參與某些政治活動的意願 [2]。
普遍來說,學者們對於網路媒體運算機制可能造成的影響,像是「過濾氣泡現象」和「回
聲室效應」,有諸多疑慮和批評。
然而,社群媒體的運算機制和相關數據多是不公開資訊,進行運算機制實質影響的研究並
不容易且不常見,因此當臉書研究員前幾天在《科學》(Science)期刊發表一篇最新報告
「臉書上具多元意識形態的新聞與評論接觸」(Exposure to ideologically diverse
news and opinion in Facebook),探討民眾臉書社群網絡組成,以及「用戶個人選擇」
與「臉書運算機制」對民眾接觸對立政治立場文章的影響,該篇文章隨即在學術圈以及媒
體產業界引起一陣熱烈討論。[3]
研究背景與重要發現
在提出這篇研究報告的相關評論前,先來細看重要的研究背景與發現。
研究背景:
研究樣本包括在 2014 年 7 月 7 日到 2015 年 1 月 7 日半年期間,在個人檔案上填寫
政治立場的 1010 萬名 18 歲以上的美國活躍臉書用戶(每周需至少登入 4 天),以及約
23 萬筆有關「硬」新聞(像是全國新聞、政治和全球事務新聞等)的連結分享,而每則
連結都需要在這半年期間,被至少 20 個前述回報個人政治立場的臉書用戶分享。
研究將用戶回報的政治立場轉換成五點量表(-2:非常民主;+2:非常保守),由於只有
9% 的 18 歲以上美國臉書用戶填寫政治立場,且其中只有 46% 填寫政治立場的用戶其立
場可以被轉換成五點量表,因此最終研究樣本只包括大約 4% 的所有美國臉書用戶。
每則「硬」新聞連結的政治立場,是透過計算所有該則新聞分享者政治立場的平均值而得
,該數值被稱為「內容對齊」(A 值; content alignment),正值代表分享文章立場趨保
守派立場,而負值則表示分享新聞偏自由派立場。舉例來說,政治立場偏共和黨的
Foxnews.com 其 A 值為 +.80,而被認為偏民主黨的 Huffington Post 的 A 值為 -.65。
研究發現:
研究樣本分享「硬」新聞的行為呈現極化現象,越容易被鮮明政治立場民眾分享的文章(
極大或極小 A 值),也就是文章立場越認為越接近自由派或保守派時,分享次數越高。偏
保守派文章的分享次數,也比偏自由派文章來得高。
研究發現臉書用戶交友情況呈現同質性現象(homophily),政治立場偏自由派用戶的臉書
朋友網絡中,有更高比例是同樣傾向自由派的用戶,反之亦然。
研究分析用戶在四種狀況下看到(或點閱)的「交叉內容」(cross-cutting content),
也就是和用戶政治立場對立的新聞文章,四種情況包括「隨機」(如果用戶能隨機看到所
有臉書平台上的內容)、「潛在」(臉書好友們分享的所有內容)、「暴露」(經臉書運
算機制調整後,出現在動態牆上的內容),以及「挑選」(用戶自行點擊文章連結)。隨
著情況從「隨機」轉變為「潛在」、「暴露」以及「挑選」,用戶接觸的「交叉內容」比
例也逐漸下降。換句話說,用戶的臉書交友圈、臉書運算機制,以及個人點擊選擇,都會
逐項降低用戶看見的「交叉內容」比例。
當處在「隨機」情況,用戶看見的「交叉內容」比例最高(偏自由派用戶可以看見約 45%
的偏保守派內容,而偏保守派用戶可以看見約 40% 的偏自由派文章);如果考量用戶只
能看見自己所有臉書朋友的分享內容(「潛在」情況),偏自由派用戶看見的偏保守內容
下降為 24%,而偏保守派用戶可以看見約 35% 的偏自由派文章。這也表示,偏自由派用戶
其臉書好友中,只有 24% 會分享對立立場(偏保守派)的文章,而偏保守派用戶的臉書朋
友中,有較高比例(35% )會分享偏自由派立場的文章。
該研究也分析四種情況轉變時,用戶看到「交叉內容」機率的變化:臉書機制對於自由派
立場民眾的影響(8%)比對於保守派民眾的影響(5%)來得大;而個人點擊選擇對於保守
派立場民眾的影響(17%),則比對於自由派民眾的影響(6%)來得大。
該研究也證實文章在動態牆的排序,確實會影響文章被用戶點擊的機率。排序在臉書動態
牆前面的文章,遠比下面的文章有更高的閱覽機會。臉書研究者也在文章中表示:「用戶
在動態牆上看到文章的順序由許多因素決定,包括用戶拜訪臉書的頻率、他們和特定朋友
的互動頻率,以及用戶過去多常點擊特定網站的連結。」
整體而言,臉書用戶樣本平均只會點擊動態牆上 7% 的「硬」新聞內容。
該研究指出,和社會普遍對網路民眾「只會和意識形態相近者互動」的想像不同,研究結
果證實民眾不是只會接觸到和自己立場相近的文章,社群媒體(臉書)還是會讓民眾閱讀
到部分政治不同立場的新聞文章。研究也表示,「或許不意外地,我們的社群網路組成,
是限制我們在社群媒體上看見多元內容最重要的因素。」(註1)
臉書研究員們為這篇研究報告下了個總結:「最後,我們的結果確切地顯示出,在臉書上
的平均狀況而言,個人選擇比起運算機制,更容易限制用戶看見挑戰個人價值觀的內容」
,以及「我們的研究結果建議,要讓個人在社群媒體有暴露於對立意識形態觀點的機會,
用戶個人有首要及最關鍵的掌控權。」(註2)
社會科學家們的評論
篇文章可以說是難得的透過臉書實際數據,來回答社會學家長久以來關心的社群媒體研
究課題。只是,重要的研究價值雖然並引起眾多關注,卻也引來部分學者批評。
像是密西根大學傳播學系副教授克里斯提· 桑維(Christian Sandvig)發表一篇標題為
「臉書的”這不是我們的錯”研究」,抨擊臉書研究中不合理之處,以及不尋常的論述包
裝。北卡羅來納大學教堂山分校資訊與圖書館學系助理教授澤奈普· 圖費克吉
(Zeynep Tufekci)也在網誌中寫道「我讀過很多學術研究文章,通常作者都會想方設法
地突顯重要發現。然而(臉書的)這篇研究,卻盡可能地透過迂迴的言語和不相關的比較
,來隱藏研究發現」。而「過濾氣泡現象」提出者伊萊·帕李澤(Eli Praiser)也立即對
這篇研究做出回應,雖然用詞相較之下和緩許多,但是文中仍點出不少該研究不足之處。
[4]
為什麼臉書的研究文章會讓學者們產生這些批判呢?最重要的關鍵問題在於,研究最後總
結表示「個人選擇」比起臉書的「運算機制」,更應該為臉書上的「過濾氣泡現象」和「
回聲室效應」來負責。
學者們表示這樣的說法並不恰當,原因包括:
伊萊·帕李澤表示,雖然研究證實用戶的「臉書社群組成」和「個人點擊」,都會降低用
戶看到內容的多元性,但是臉書選擇強調這兩者比起「運算機制」扮演更重要的角色,似
乎有些言過其實。他強調如果「臉書運算機制」的影響,和「社群組成」以及「個人點擊
選擇」的個別影響相似,其實就已經是個嚴重問題。
此外,如果比較臉書用戶在不同情況下看到「交叉內容」的機率,對於立場偏保守派的民
眾而言,「運算機制」(5%)的確比起「用戶選擇」(17%)的影響來得低,但是對於立場
偏自由派的民眾而言,「運算機制」(8%)比起「用戶選擇」(6%)的影響來得高。因此
臉書研究的總結並未真實反映結果。
學者們都指出,其實將「個人選擇」與「運算機制」做比較是非常不恰當且不合理的,因
為兩者同時發生且存在明顯的回饋循環(feedback loop)關係。用戶個人做出的點擊選擇
是基於臉書篩選後的結果,而臉書篩選的演算法則又是以用戶臉書使用紀錄為基準。更恰
當的研究結果描述應該是,「個人選擇」和「運算機制」都會加強用戶的同質化資訊吸收
。
澤奈普· 圖費克吉認為,早在網路普及之前,學者們就開始針對個人會透過選擇性暴露
(selective exposure)來挑選立場一致的言論及避免相左立場觀點的現象,進行深入研
究。但是臉書運算機制會造成資訊選擇單一化的現象,卻是很重要的新發現,也不該被忽
略。且「個人選擇」與「運算機制」間更適合的描述應該是加成而非比較關係,而學者們
也應該著重於此加成關係的深遠影響。
此外,學者們表示研究員在結論中指出這些結果反映臉書上的「常態」,卻忽略此篇「研
究樣本的特殊性」。在個人檔案上註明政治立場的樣本條件並不尋常,這些用戶相較一般
臉書觀眾,可能政治意識形態特別強烈鮮明,或是對政治特別熱衷且積極。這些樣本的特
殊性也解釋為什麼此篇研究最後樣本數,只佔所有臉書用戶的極小比例。
而學者們也點出其他的潛在研究限制,包括「硬」新聞連結的政治立場,是由文章分享者
的立場,而不是依據文章來源的政黨傾向,或文章內容分析來決定(不過研究發現,此種
計算方式得到的結果,很接近大眾平常對這些新聞媒體的政治立場認知),以及臉書「運
算機制」隨時都在改變的特性(延伸閱讀:臉書更改運算機制?掌握 5 個核心法則加上
15 個 Dos and Don’ts),也會降低該篇研究結果的通則性。臉書研究員在文章中也表示
,他們對於接觸和點擊文章的定義並不完善,像是有些文章的重要結論已經摘要在動態牆
上,用戶並不需要透過點擊就可以看見。
延伸想想:臉書研究的一堂課
當然,臉書願意進行研究並且公開分享成果的行為是值得鼓勵的,無論對於研究者、廣告
商還是一般大眾來說,這些內部研究發現都可說是非常珍貴且重要,許多學者和廣告商們
長久的疑問和猜測,也終於透過臉書的內部研究解開了部分謎團。
像是研究指出,對於少數會表明政治立場的臉書用戶,除了個人選擇(「好友組成」和「
連結點擊」)外,臉書「運算機制」也被證實在某種程度上,會些微地降低用戶閱覽新聞
的多樣性。平均來說,這些臉書用戶只會點閱臉書牆上不到一成的「硬」新聞(也就是超
過九成的硬新聞連結都不會被用戶點擊),而政治立場越鮮明甚至極端的文章,被用戶分
享的機率也更高。此外,動態牆上的新聞排列順序,也被證明確實會影響點閱機率且差異
極大。
雖然臉書的研究成果提供非常多重要發現,只是,當商業公司提出學術發表時,也會被用
更嚴格的眼光來審視,這也是為什麼學者們會提出諸多個人觀察和批判,希望幫助民眾更
正確且深入地去解釋研究結果。
最後也不妨思考看看,是不是真的如臉書在研究最後總結,用戶個人(而非運算機制)該
為臉書「過濾氣泡」現象負首要責任呢?
——————————————————————————–
註1:Perhaps unsurprisingly, we show that the composition of our social
networks is the most important factor limiting the mix of content encountered
in social media.
註2:Finally, we conclusively establish that on average in the context of
Facebook, individual choices more than algorithms limit exposure to
attitude-challenging content… Our work suggests that the power to expose
oneself to perspectives from the other side in social media lies first and
foremost with individuals. (請參考文章最後一段的首句與末句)