靈感範文站

位置:首頁 > 論文 > 論文精選

智媒時代下對算法偏見的研究:構成、機理與策略文獻綜述

智媒時代下對算法偏見的研究:構成、機理與策略文獻綜述

智媒時代下對算法偏見的研究:構成、機理與策略文獻綜述

(一)國內研究現狀

本論文將涉及幾個概念,包括算法推薦、算法偏見。以CNKI 數據庫的文獻數據爲參考,通過對以上兩個重要概念進行搜索關鍵詞,篩選符合要求的研究記錄。

1. 關於算法推薦的研究

所謂“算法”,是解題方案的準確而完整的描述,是一系列解決問題的清晰指令,能對一定規範的輸入在有限時間內獲得所要求的輸出(呂國英,2006)。而算法推薦就是指使用算法技術,將海量用戶的網上行爲和發佈的信息進行數據化,進而挖掘用戶的愛好習慣和社交興趣圖譜。它的主要任務就是匹配用戶和信息,讓每一位用戶都能最快、最便捷地獲取自己最需要的信息(李瀟涵,2020)。

根據知網搜索功能對“算法推薦”進行檢索,學科限定爲新聞與傳媒,共計318條搜索結果。國內對於算法推薦的研究始於2014年,並且研究相關文獻逐年呈增長趨勢,在2018 年相關文獻已達64篇、2019 年更是高到115篇,呈現持續增長趨勢。多數文章是圍繞算法推薦發展現狀和發展策略地研究。筆者對算法推薦的相關文獻做了以下幾個方面地梳理。

1)對算法推薦客體影響的研究

一是對算法推薦的消極影響和反思方面的研究。很多學者從算法設計入手,探討算法與新聞在生產模式上的聯繫,進而分析算法新聞推送對新聞倫理產生的不利影響。算法推薦新聞對新聞專業主義有着如下幾種倫理挑戰:首先是內容過濾與客觀性、真實性產生矛盾。算法只是將類似的新聞報道進行整理呈現,但卻缺少質量評估,因此會更容易出現新聞失實、標題黨等新聞亂象,影響新聞的客觀性和真實性。其次,新聞分發中監督力度不足。今日頭條爲代表的新聞資訊客戶端,沒有嚴格的內部審覈機制,那麼很容易將不規範的新聞報道分發給受衆。最後就是算法推薦新聞如今缺乏主流價值的引導。算法的長期推送強化了用戶固有的認知,以至於很難接受其他信息。如果這種認知本身違背主流價值,那麼容易使其得不到有效的糾正,產生知識鴻溝。長此以往,主流價值觀得不到有效的傳播,社會共識的凝聚也會愈加困難(王智豪,2020)。與此同時,也有學者從個人信息權益遭到侵犯的角度來分析算法推薦技術的倫理風險。算法新聞推薦蘊藏着侵犯個人信息權益的風險。首先,算法新聞中存在隱匿的強制性告知與同意,受衆在使用新聞的時候不得不接受新聞的強制性要求。其次,算法新聞中存在着對個人信息的再利用與他用,也在一定程度上侵犯了受衆個人權益。最後,算法新聞在精準投放信息的過程中,存在着對受衆個人隱私的侵犯(李寧,2020)。艾嵐等學者也在其文章中論述了算法推薦技術對受衆隱私帶來的隱患,“受衆所享受的媒介服務是以個人信息來換取的,算法技術將受衆的網上“痕跡”進行整合,生成用戶畫像,受衆就像是生活在圓形監獄之中的囚犯。算法推薦系統掌握着全部受衆的個人信息,假如此係統遭遇外來入侵,那麼所有受衆的隱私將完全暴露。”算法推薦技術所帶來的新聞分發方式的改變,不光影響了新聞生產方式,還在價值觀層面對社會產生着一定衝擊。首先,精準的推送會導致信息窄化,出現“信息繭房”效應。人工智能技術爲受衆過濾掉大量的無效信息,受衆可以只看到其想看到的信息,將其不感興趣、不熟悉的信息直接過濾掉,大大加強了信息推送的有效性,但這也導致了受衆長期沉浸於同質化的信息中,導致信息窄化現象嚴重。其次,算法推薦技術會造成受衆的過度依賴,進而淪爲算法的奴隸(艾嵐,2020)。由於算法推薦新聞對內容有絕對的控制權,通過只爲受衆推薦其感興趣的內容,就可以使其極易依賴於這種新聞模式,進而逐漸成爲算法推送工具的“奴隸”。

二是從算法推薦的積極影響及重構方面來進行探討。算法推薦技術在發明之初,是以其個性化的推送方式著稱,伴隨着技術發展以及新聞生產理念的革新,算法新聞的推送方式逐漸實現了從“個性化”向“人性化”的轉向。

其一,它是一種在“個性化發現”基礎之上對用戶消費行爲進行的深層次解讀,比如,它不僅考慮到讀者的內容偏好,同時還考慮到用戶的閱讀情境;其二,在信息過載的時代,對生產者來說,用戶的注意力資源是稀缺品;然而對消費者來說,稀缺的是具有品味的優質信息,人工編輯的加入可以讓推薦更具“人情味”,更加符合用戶的期待。其三,“人性化”終究要回歸到用戶本身,把選擇權交給讀者,否則受衆只能被動地依賴算法來消費內容,陷入另一種“困境”(李唯嘉,2020)。

總之,智能技術應用到新聞推送領域是大勢所趨,媒體平臺也在不斷改進新聞的推送方式。算法推薦新聞會引發一些倫理方面的問題,但與此同時,也促使着媒介技術理念的更迭和進步。要想避免這些倫理問題,首先要做到的就是在優化算法技術的同時,逐漸迴歸人類在新聞推送過程中的主體性角色,保障受衆的權利。

2)對算法推薦本體的多層面研究

有關於這一方面的文獻主要是着眼於算法推薦技術本身,就技術本身的發展歷程和實踐原理來分析算法新聞的相關議題。

算法推薦新聞依託於計算能力、數據與大數據以及算法模型這三方面,其中數據是人工智能得以成長的物質基礎,今日頭條將自己定位於“基於數據挖掘技術的個性化推薦引擎產品”,也說明了數據在算法新聞中至關重要的地位。大數據所具備的精準智能價值匹配的特性,將人與人、人與物、物與物之間的關係進行嶄新的重構,在這樣的作用下,傳媒社會整合、塑造意識形態、集成社會經濟空間也在不斷延伸(喻國明,2017)。在這樣的前提下,我們可以把算法當作一種權力範式來進行研究。英國文化研究專家斯科特·拉什強調:“在一個媒體和代碼無處不在的社會,權力越來越存在於算法中。”人工智能的技術本質是算法,而算法的社會本質則是一種權力,控制着整個社會。

在大數據時代,數據與算法正在重塑新聞業的整個生態系統。喻國明、楊瑩瑩等學者對算法在新聞線索獲取、新聞寫作編輯、新聞事實覈查以及新聞分發與推送這些新聞環節中的權力體現進行了具體分析,並考察了媒介和受衆的權力變化過程。算法技術如今應用在新聞生產的全環節中,受衆的權力也隨技術的發展而有所變化,具體體現爲信息權在線索獲取階段有彌散化趨勢,把關權力在新聞寫作編輯階段被收編,受衆的自由度在一定程度上被窄化等。

3)對算法推薦引發倫理問題的發生機制的研究

有關於這方面的文獻側重於分析算法新聞產生諸多倫理問題的背後的原因。算法分發新聞模式背後存在的多重力量:經濟力量是源動力,技術力量是直接推動力,政治力量是前進方向的規制力,社會力量是算法分發技術改進的反作用力(張蕩,2020)。正是因爲算法技術在運作時會受到來自多方面的限制,算法無法成爲絕對中立的技術,其背後所代表的政治、商業等利益,往往會讓算法產生諸多倫理問題。只有對其背後存在的經濟力量、政治力量、社會力量和技術力量進行深入且全面的認知研究,將會使技術得以更好的服務於人類,技術的發展方向也將真正爲人所把握。

2. 關於算法偏見的研究

國內對於算法偏見的研究始於2016年目前對於算法偏見的研究還處於初期階段,相關的文獻內容較少,在知網中以算法偏見爲關鍵詞進行檢索,有65篇相關文獻,鮮有比較系統性的研究成果。筆者對算法偏見的相關文獻做了以下幾個方面地梳理。

1)算法偏見的發生機制和內在原因

算法偏見是指算法技術應用於信息生產與分發過程中,由於算法設計,輸入數據,技術侷限等因素造成的算法決策不客觀、不公正的現象。簡而言之,算法偏見是指違反公認的規範、法律或道德原則而對數據進行有偏處理。有關於算法偏見的發生機制,方師師就曾以facebook運作機制爲例,分析了2016年facebook偏見門事件,挖掘算法偏見發生的內在原因。Facebook公司爲了提高算法的精確程度和用戶體驗,設置了一套協同過濾機制,也就是吧讓算法工程師定期對億萬的點贊、評論和點擊進行重估,使之更爲有用,而他們的評估都會反饋給Facebook加州總部,供新的算法來參考調整新聞推送的準度和精度。這種機制再提高用戶體驗感的同時,也會導致信息操控,當受衆發現“趨勢話題”是由新聞團隊操作的,再編輯打扮成新聞的樣子,就會感到受到了欺騙,因爲誰也不能保證這些算法工程師的客觀公正性,算法偏見的風險也由此產生。

算法在進入實際應用前,要經過問題的定義、數據的輸入、機器的學習和訓練等環節,而設計者自身的價值判斷、數據所隱含的社會傾向性等因素貫穿了算法的整個過程。因此許向東、王怡溪等學者將算法偏見定義爲了社會偏見的延伸,也是媒介偏見在人工智能時代的升級版。也就是說算法偏見之所以產生,是因爲我們身處的社會本身就存在着很多偏見,而算法偏見只不過是新聞偏見在新媒體時代的最新表現。算法偏見具體會產生於運算規則設計中、數據收集處理及運用中,以及運算過程中。

2)算法偏見客體影響的研究

個人傳播的信息或觀點中隱含了偏見,只會影響少數人或部分人,而算法一旦存在偏見,則會在短時間內將錯誤信息推送指衆多用戶,其危害也會更大。從新聞信息傳播的角度來看,算法偏見的影響主要表現在以下幾方面,首先是背離了公平公正的新聞職業規範,新聞媒體要求公平公正,算法偏見作爲一種預設的態度,將錯誤或偏頗的判斷融入新聞傳播活動中,便違背了新聞的職業規範。其次是挑戰了用戶知情權和信息選擇權,算法推薦在滿足用戶個性化需求的同時,也窄化了用戶的信息接觸面,形成較爲封閉的空間,增加了出現“迴音室效應”的風險,這便消解了用戶的權利。最後是算法偏見易於解構社會共識,引發輿論風險。算法與社交媒體的結合突破了主流媒體對傳播渠道的壟斷,體現了個性化和利益相關性,削弱了傳播的公共性,影響了主流價值觀的構建,很多非理性、煽動的信息傳播打着個性化的旗號,解構了主流的社會共識,埋下了引發公共輿論的潛在風險(許向東王怡溪,2020)。

算法偏見對刑法領域構成的挑戰,主要集中在算法偏見本身導致的犯罪行爲和算法偏見對刑事審判系統人工智能化的威脅。如今的人工智能發展還不夠完善,所依據的數據可能會帶有一定偏向性,如果法官所用來的參照信息經人工智能系統處理過本身就發生偏差,那麼得出的結論則自然就帶有導向性,那麼也就有違於司法公正(陳洪兵陳禹衡,2019)。

3)對算法偏見的規制和防治

對於算法偏見的治理,要從法律法規、職業倫理等多方面進行佈局。首先,要從法律法規層面規約算法設計者和使用者。如今算法越來越多的參與到人們生活的決策中來,因此需要有相關法律法規對算法是否存在歧視性偏見進行評估。在這個過程中,無論是算法的設計者還是使用者,都承擔着自己的責任和義務(許向東王怡溪,2020)。市場監管部門硬定期和不定期的對企業運營情況進行審覈,監測算法的運營情況。如果算法使用者因算法偏見等問題,損害了受衆的利益,相關部門可以參照法律對其給予懲罰(劉友華,2019)。

其次,要以“技術之力”消除“技術風險”。可以考慮將公平公正的原則這一觀念,嵌入到機器學習中。所謂機器學習,是指利用一些數據,通過訓練摸索出規律,來分析未知的數據。如今人工智能有着逐漸替代人類決策的趨勢,那麼如果可以從技術層面在機器學習的過程中嵌入“機會平等”的概念,則會大大提高人類決策的工作效率和公平度。

最後,要建立第三方審覈機構,強化行業自律。美國計算機學會公共政策委員會在2017年初發布了《關於算法透明度和問責制的聲明》,幫助第三方對算法的倫理問題進行規制。通過行業內的自我監督和引導,或以行業公約的方式來規範行業秩序,有助於預防算法的偏見與歧視。

(二)國外研究現狀

筆者在社會科學引文索引(SSCI)核心合集以“Arithmetic”、“Algorithm bias”爲主題詞,研究領域限定爲“COMMUNICATION”、“SOCIAL SCIENCE” 進行搜索,共搜索到65篇文獻,經過研讀發現目前西方學界對“算法偏見”關注的領域主要包括以下三個方面:

1. 對算法偏見產生的原因以及本體性研究

美國學者羅伯特·塞裏諾認爲媒介媒介偏見存在於新聞來源中、新聞省略中、新聞選擇中等十三個方面,並提出媒介偏見在新聞生產中是不可避免的。“一篇報道是知情者和已知的事實的混合產物,觀察者在其中的作用總是帶選擇的,而且通常是帶想象的。”(李普曼,1922/1984:51)自動化的新聞信息生產過程就是“在沒有或者有限的人類干預下,由預先設定的程序將數據轉化爲新聞文本的自動算法過程”(Carlson, 2015),算法偏見就是在數據轉化爲新聞的這個過程中產生的,而算法偏見是新媒體時代媒介偏見的新表現。

美國學者巴蒂婭·弗裏德曼和海倫·尼森鮑姆認爲算法存在三種類型的偏見:先存偏見,即算法偏見根源於帶有偏見的社會制度;技術偏見,即認爲算法偏見是由於技術的限制;突發偏見,即由社會價值觀的變化而帶來的突發性算法偏見。

對於算法偏見產生的原因,很多國外學者將目光集中於數據的處理和運用過程中。紐約大學教授麗莎·吉特曼(Lisa Gitelman)在《原始數據只是一種修辭》一書中指出:

數據從來都不可能是原始存在的,而是依照一個人的傾向和價值觀念而被建構出來的。我們最初定下的採集數據的辦法已經決定了數據將以何種面貌呈現出來。數據分析的結果貌似客觀公正,但其實如同所有新聞報道一樣,價值選擇早已貫穿了從構建到解讀的全過程。最終的結果看起來很無私,但實際上從構建到演繹的整個過程一直伴隨着價值選擇。

這就說明,不管算法使用的數據多麼標榜客觀公正,其內在都會包含一些具有價值偏向的內容,進而導致算法新聞的偏見。

2. 算法偏見對新聞傳播的影響

從對社會價值觀的衝擊方面來看,算法偏見滲透於新聞信息的生產與傳播的過程中,其所帶來的主要有認知偏見和道德偏見,認知偏見是指個體的認知與社會認知和社會現實不符;道德偏見則是社會知覺或態度與某一羣體或社會所擁有的公平原則之間的不一致(Sun,1993:1152)。算法偏見藉助於新媒體傳播的放大效應,會以更迅速和在更大範圍內的傳播,其危害便是容易造成信息傳播的混亂,誤導社會輿論,進而導致社會衝突和隔閡。

從對受衆的權利影響來看,“能用技術熟練駕馭新聞發佈渠道的新一代媒體人,對有關現有和潛在讀者的海量量化信息重度依賴,認爲讀者是‘算法受衆’,這些人有着極容易識別的需求和慾望,用合適的算法很容易就能識別並給予滿足。”(莫羅佐夫,2013/2014:168)但是受衆的信息慾望能夠更容易的滿足的同時,其接收信息的質量卻越發無法得到保證,也就是如今的媒體突出了用戶“欲知”的訴求,而忽略了其“應知”的訴求。

3. 應對算法偏見的策略

關於解決算法偏見的策略方面,國外學者多將目光集中在了增強算法透明度方面。算法的透明度問題本質上也是新聞生產的透明度問題。算法自身的複雜性再加上無法洞悉的“算法黑箱”的存在,增加了公衆對算法的設計原理、運行邏輯的理解難度。

算法的透明度不僅牽涉新聞生產流程的“客觀性”“公平公正”,而且關聯着公衆對新聞媒體及其產品的信任。因此,隨着算法在新聞生產、新聞推送的應用日漸增多,面對的作者的困惑和不願披露的算法過程,“透明度”越來越多地被用作新聞合法化的規範基礎,透明度不僅可以對算法進行有價值的檢查,還可以提高算法對道德、文化和認識論等的影響力(Carlson,2018)。

三、國內外研究現象綜述

“技術比任何其他東西都更能定義它們所描述的時代。”(阿瑟,2009/2014:81)算法作爲一種新興技術,一定程度上代表着我們這個時代的發展現狀,技術的影響是雙面的,我們在享受算法爲我們帶來的便利的同時,也不能忽略算法偏見這一負面問題。通過對國內及國外有關算法偏見的文獻梳理,可以大致得出以下幾點結論:首先,國內外的學者都將研究重點放在了算法偏見出現的原因、算法偏見產生的影響以及算法偏見的規制這三個方面上,但側重點有所不同,例如在規制方面,國外的學者比國內的學者更多也更爲詳細的闡釋了算法透明度這個概念及其重要性。

其次,國內學界對算法新聞方面的研究頗爲深入,尤其是2015年之後,文獻數量持續增長狀態,但是對於算法偏見的研究,相較於國外學界,國內學界暫時處於起步階段,相關領域的研究數量較少。

最後,通過總結國內外研究成果,可以看出如今對於算法偏見的研究還存在着這樣一個問題:對算法偏見的研究停留在宏觀的理論闡述層面,實踐性和操作性不強。如:林愛珺《智能新聞信息分發中的算法偏見與倫理規制》解釋了算法偏見的產生原因和規避路徑,但是主要停留在理論闡釋的層面,而沒有引用可供佐證的現實案例。