新媒體環(huán)境下智能算法推薦技術的新聞倫理思考
算法推薦滿足大眾對定制化信息的需求
隨著互聯網技術的發(fā)展,智能移動設備的普及,受眾已經擺脫了以往傳統(tǒng)的信息接收方式的種種限制,從而可以實現隨時隨地的獲取自己需要的信息。信息傳播技術的發(fā)展,傳播主體的增多,也導致信息總量的極大豐盈,如何抓住受眾的注意力就成為媒體思考的首要問題。算法推薦是通過大數據技術,將受眾的信息搜索、信息瀏覽等數據進行收集、分析和比較,了解受眾喜歡的信息類型,信息接受習慣,從而對每個用戶進行精準的用戶畫像。根據受眾的興趣和信息需求,進行新聞信息的個性化推送,以此來滿足了人們對信息的個性化需求,同時極大提升人們獲取信息的效率。
當受眾接收到個性化的推送信息時,算法系統(tǒng)會根據用戶在各類型信息的瀏覽時間、評論、舉報、轉發(fā)等互動行為,進一步精確受眾的興趣愛好,探尋用戶的信息尋求規(guī)律,從而對用戶的信息需求和信息態(tài)度實現更加全面和精準地分析和考量。通過持續(xù)搜集用戶行為數據,不僅可以明確用戶當前的信息需求和喜好,還可以對其未來的信息需求進行預測和推斷,使平臺的信息分發(fā)能夠與受眾的需求保持高度一致。其次,這樣精準的反饋還能夠幫助信息平臺進一步地了解受眾的經濟水平、認知水平以及消費模式,完善對用戶的畫像。在這個信息爆炸的時代,智能的算法推薦技術能夠幫助人們節(jié)省時間和精力,滿足人們的個性化的信息需求。
智能算法推薦技術引發(fā)新聞倫理失范
“信息繭房” 導致用戶認知失真。“信息繭房”這一概念自算法推薦技術問世以來,就成為了學者們熱議的話題。究其根本,這一理論關注的是信息媒介如何通過精準的用戶畫像,按照用戶的興趣偏好來推送信息。長期以往,受眾可能會沉迷于這種定制化的信息環(huán)境,以至于忽視了那些真正有價值的信息和內容。
更為嚴重的是,長期處于一個相同的意見氛圍之下,會強化人們對某一觀點或態(tài)度的認知,產生一種“回音壁”效應。當相同的聲音或觀點不斷在受眾耳邊回蕩時,這無疑會對他們全面地認知世界造成困擾。就如同被困在自我構建的信息繭房中,只能聽到自己喜好的聲音,而無法接觸到其他有價值的信息和多元化的觀點。
這種現象在社交媒體和新聞應用中尤為明顯。通過算法推薦技術,這些平臺能夠根據用戶的瀏覽歷史、點擊行為和偏好來推送相應的內容。雖然這種個性化的推薦能夠提高用戶的使用體驗,但也可能導致用戶的信息環(huán)境越來越狹窄,使得他們無法接觸到不同的觀點和意見。
“信息繭房”的負面影響不僅限于個人的視野和認知。從更宏觀的角度來看,如果一個社會的大部分人都被困在自我構建的信息繭房中,那么公眾的輿論環(huán)境就可能變得單一化,甚至可能引發(fā)社會撕裂和沖突。因為當人們只能接觸到和自己意見相同的觀點時,他們可能會對其他群體產生誤解和偏見,進而導致社會的不和諧。
算法推薦侵犯個人數據與隱私。隨著社會的發(fā)展,公眾與媒介的接觸變得越來越頻繁;同時,隨著互聯網技術的發(fā)展,移動智能設備的普及,讓信息的記錄和存儲都變得輕而易舉,民眾通過互聯網進行的每一次操作都會變成一行代碼,被上傳至大數據平臺當中。在大數據時代,每一個社會公眾都是透明的,民眾對于個人信息的保護變的愈發(fā)困難的同時,個人隱私被侵犯的機率也大大增加。
近些年來,算法推薦技術一直受到國內外新聞媒體APP和各類社交媒體的追捧,通過智能機器人來抓取用戶的瀏覽信息、搜索記錄、頁面停留時間、點贊,評論,轉發(fā)等互動行為的數據,通過此類數據對用戶畫像進行勾勒,從而進行精準的信息分發(fā)。但是,當民眾為了自身尋求信息的便利,在一個個授權提醒的彈窗下點擊同意時,也就讓渡了自己的隱私權。民眾的一舉一動都轉化為數據被上傳至了后臺,但是公眾卻無從知曉,這種操作的不透明性就使一些平臺催生以用戶的隱私來換取經濟利益的想法。當社會公眾在信息平臺上想要了解某個商品,從而對其進行搜索,下一秒,這個商品就會出現在購物APP的首頁上并且會通過信息彈窗這種形式推送到受眾的面前。
智能算法推薦技術的設計初衷在于提升人們獲取信息的效率。通過收集和分析用戶數據,該技術旨在深入了解受眾的需求和喜好,以便更好地為用戶提供定制化的信息推薦服務,從而成為用戶信賴的伙伴。當用戶逐漸開始接納這位朋友,相互的了解進一步的加深,為了商業(yè)利益的考量而變得不那么忠誠。人工智能技術的確給人類社會帶來了極大的便利,促進了信息社會的發(fā)展。但同時,它也對人的隱私權造成了極大的侵害。
算法推薦導致虛假新聞 低俗信息泛濫。智能算法推薦技術,作為一種客觀的數學表達,本應純粹以數據和算法為基礎,不摻雜任何獵奇、偏見、歧視等不良因素。然而,回顧我們所處的信息環(huán)境,可以看到獵奇、低俗的新聞和信息廣泛流傳,充斥著我們的社交媒體平臺和新聞網站。這種現象應該引起我們的關注和反思,以確保信息傳播的公正、客觀和優(yōu)質。算法偏見其實是指,在客觀的算法程序的研發(fā)當中,參與研發(fā)的人員本身帶有的偏見和歧視的色彩,畢竟程序可以是客觀的,但是人在改造客觀世界時不可能做到完全的客觀,必然帶有一定的主觀傾向。其次,算法偏見也有可能是采用的數據具有某些傾向性。畢竟,智能算法就是通過對數據的采集和挖掘,進而對數據進行分析和總結,數據的體量大小,準確性都會對算法程序造成影響。同時,算法研究人員的選取的數據分布狀況,對算法進行的測試都有可能使主觀的偏見披上技術客觀的外衣。
如果研發(fā)算法程序的程序員本身就帶有某種偏見或傾向,那么算法程序本身就不可能是客觀的。況且,算法研究的背后還是媒體機構在主導,那么一些商業(yè)媒體機構為了自己經濟利益的考量,吸引流量,或許在推薦算法研究之初,就會為那些獵奇、低俗的信息留有后門。即使這些信息不是受眾主動尋求的,但當其出現在受眾的視野中,人們還是會無法抵抗獵奇心理的誘惑,將大量的時間和精力花費在它們身上。這種低俗信息的傳播不但會危害受眾個人的價值取向,還會對整個社會的信息傳播環(huán)境造成惡劣影響。
如何克服算法推薦對新聞倫理的沖擊
明確算法推薦中的“主流價值”觀念。在推薦算法應用之初,就引起了很多的爭論與指責。一些互聯網通過技術中立,算法無罪等論調來為自己辯護,聲稱算法推薦只是對信息進行分發(fā),并不會對信息內容進行加工。因此,把關就顯得沒有必要。但這是正是利用工具的理性來為逐利行為打掩護,技術中立并不意味著價值中立,當前算法推薦為虛假新聞和低俗信息助推的局面正是因為算法推薦背后的價值觀出現了偏差。作為客觀的數學表達的算法程序,雖然不具備價值觀,但當它介入到新聞生產中時,算法背后的媒介平臺和算法的研發(fā)者,便應當承擔起自身的社會責任和價值導向。在算法研發(fā)時,應該在保證算法可行性的基礎上,將健康的“主流價值”刻入到算法之中。
首先,可以在關鍵詞上下功夫。對于新聞生產過程中的關鍵詞,我們應該減少那些低俗、獵奇的內容出現,多分發(fā)一些積極、健康的信息內容。通過優(yōu)化關鍵詞的篩選機制,我們可以有效地抑制不良信息的傳播,提高新聞的質量和價值。
其次,使算法推薦更加多元化。算法推薦不能僅僅以受眾的興趣和愛好為準則,而應該為受眾推送更加多元化的信息內容,打造一個全面的信息空間。例如,對于同一事件或主題,我們可以從不同的角度和視點來報道和分析,讓受眾了解到事情的多面性和復雜性。這樣不僅可以提高受眾的信息素養(yǎng),還可以促進社會的多元思考和交流。
此外,對于算法的評估和監(jiān)督也至關重要。應該建立一套科學、公正、客觀的評價體系,對算法的推薦結果進行定期評估和監(jiān)督。如果發(fā)現算法存在偏差或誤判,我們應該及時修正和調整。同時,我們也需要加強對算法研發(fā)者的培訓和教育,提高他們的職業(yè)素養(yǎng)和社會責任感。
增強算法設計中的把關意識 提升算法“透明度”。算法的運行規(guī)則、數據的搜集和處理都會包含著算法研究者的主觀傾向,他們個人的倫理和道德標準都會潛移默化的植入到算法程序當中,對信息的分發(fā)造成影響。如果算法的研究者缺乏了對價值理性的思考,那么算法在新聞領域的發(fā)展就會受到限制。因此,算法的研究在設計算法的底層邏輯時,就必須以健康的價值觀為引領,遵守社會的道德和價值準則。同時,也應該對算法的研究者進行把關,對其資質和品性進行審查,如果研究者本身的倫理道德就出現了問題,那么其研究出的算法必然在倫理道德產生偏離。其次,還需要對算法的研究者加強新聞專業(yè)知識和新聞倫理道德的培訓,減少算法偏見。
算法的“透明度”也是值得關注的問題。算法設計的技術門檻較高,其專業(yè)性和復雜性讓普通的民眾無法對它的運行機制進行透明化的監(jiān)督,即使是算法的設計者對其產生的結果也不能實現完全的把控。因此,民眾開始呼吁相關的管理機構介入算法平臺的研究之中,對算法的研究流程建立一套完整的監(jiān)督體系。在一些涉及到受眾關鍵利益信息、隱私信息等環(huán)節(jié),在不涉及商業(yè)機密的情況下,應該將算法目的和流程公之于眾,接收社會大眾的輿論監(jiān)督。
制定完善相關法律法規(guī) 嚴懲違規(guī)創(chuàng)作行為。為了解決算法推薦所引起的弊端,我們應從兩個方面著手。一方面,對算法推薦技術進行內部的制約規(guī)定;另一方面,從外部進行強有力的法律制約。
從算法推薦技術的規(guī)定制約看,算法推薦技術的開發(fā)者應該制定相應的規(guī)范和準則,以確保算法在推薦內容時能夠遵循公平、公正、透明、負責任的原則。這些規(guī)范和準則應該明確算法推薦的具體流程、標準和方法,以及在出現不公正、不透明、不負責任的推薦結果時應該采取的措施。同時,算法推薦技術的開發(fā)者還應該加強對算法的審查和監(jiān)督,確保算法在運行過程中不會出現偏見、歧視等問題。
從外部的法律制約方面來看,政府應該加強對算法推薦的監(jiān)管力度,制定更加嚴格的法律法規(guī),以規(guī)范算法推薦技術的使用。法律法規(guī)應該明確對算法推薦的違規(guī)行為進行定義和分類,并規(guī)定相應的處罰措施。此外,政府還應該加強對新聞事業(yè)的監(jiān)管力度,建立新聞失范黑名單,對低質量、媚俗內容的傳播主體和傳播平臺進行懲治和處罰。
為了確保新聞事業(yè)的長期健康發(fā)展,需要在不斷完善算法推薦技術的同時,加強對低質量、媚俗內容的懲治和處罰力度。新聞相關部門可以建立新聞失范黑名單,通過自主監(jiān)察、輿情監(jiān)測、用戶舉報等多種途徑形成合力,及時發(fā)現并清理低俗、低質量的傳播內容。對于違規(guī)的新聞創(chuàng)作者或傳播平臺,應該采取相應的警告、處罰措施,必要時甚至可以清退相關賬號。只有提高新聞創(chuàng)作者的準入門檻,才能確保更高質量、更負責任的新聞信息在傳播渠道中得以傳遞。
此外,我們還可以通過教育和宣傳來提高公眾對高質量新聞的認知和意識。政府和社會各界應該加強對公眾的引導和教育,讓公眾認識到高質量新聞的重要性,并培養(yǎng)公眾對低質量新聞的鑒別能力。同時,新聞媒體也應該加強自身的自律機制建設,提高新聞從業(yè)人員的專業(yè)素養(yǎng)和道德水平,以更好地服務于公眾。
總之,解決算法推薦所引起的弊端需要從多個方面入手。我們需要從內部和外部兩個方面來制約規(guī)定算法推薦技術;加強對低質量、媚俗內容的懲治和處罰力度;提高新聞創(chuàng)作者的準入門檻;以及通過教育和宣傳來提高公眾對高質量新聞的認知和意識。只有這樣,我們才能確保新聞事業(yè)的長期健康發(fā)展,為公眾提供更高質量、更負責任的新聞信息。
結語
算法推薦技術為信息生產和傳播環(huán)境帶來了重大變革,為人們的信息尋求提供了極大的便利。然而,由于算法本身的局限性、設計者存在主觀偏見、缺乏審查機制等原因,也對信息傳播環(huán)境造成了極大的影響,甚至逐步威脅著新聞倫理道德。針對當前信息傳播環(huán)境中存在的問題,國家已經出臺了相關政策來治理算法帶來的種種問題。下一步,除了進一步完善相關的法律法規(guī),加強對算法研究平臺的審查外,還應該采取措施提升民眾的媒介素養(yǎng),以淡化算法對新聞倫理造成的沖擊。在實踐中,可以加強對算法技術的研究和探索,以進一步了解其優(yōu)缺點。同時,應該建立健全的審查機制,對算法進行嚴格的監(jiān)管和審查,以避免潛在的風險和負面影響。此外,政府和相關機構可以加強對算法平臺的監(jiān)管和規(guī)范,以確保算法技術的合理使用和發(fā)展。同時,應該鼓勵媒體和傳播行業(yè)加強自律和規(guī)范,遵循新聞倫理和道德準則,以確保信息的公正、客觀和真實傳播。
綜上所述,算法推薦技術對信息傳播環(huán)境帶來了深刻的影響,需要采取綜合措施來治理其中存在的問題。除了法律和監(jiān)管措施外,提升民眾的媒介素養(yǎng)也是重要的途徑之一。
文章來源: 《聲屏世界》 http://00559.cn/w/xf/24481.html
- 別被這個老掉牙的報紙理論版投稿郵箱誤導了!最新核實91個報紙理論版投稿郵箱通道,一次集齊
- 喜報!《中國博物館》入選CSSCI擴展版來源期刊(最新CSSCI南大核心期刊目錄2025-2026版)!新入選!
- 2025年中科院分區(qū)表已公布!Scientific Reports降至三區(qū)
- 2023JCR影響因子正式公布!
- 國內核心期刊分級情況概覽及說明!本篇適用人群:需要發(fā)南核、北核、CSCD、科核、AMI、SCD、RCCSE期刊的學者
- 我用了一個很復雜的圖,幫你們解釋下“23版最新北大核心目錄有效期問題”。
- CSSCI官方早就公布了最新南核目錄,有心的人已經拿到并且投入使用!附南核目錄新增期刊!
- 北大核心期刊目錄換屆,我們應該熟知的10個知識點。
- 注意,最新期刊論文格式標準已發(fā)布,論文寫作規(guī)則發(fā)生重大變化!文字版GB/T 7713.2—2022 學術論文編寫規(guī)則
- 盤點那些評職稱超管用的資源,1,3和5已經“絕種”了

0373-5939925
2851259250@qq.com

