亚洲色在线无码国产精品不卡,亚洲av综合a色av中文,亚洲国产欧美国产综合一区,亚洲欧美日韩国产综合一区二区 ,亚洲av一般男女在线

返回首頁

網(wǎng)站導航
資訊首頁> 高端訪談 > 今日頭條再遭人民網(wǎng)質疑:技術是一把雙刃劍,不能讓算法決定內容

    今日頭條再遭人民網(wǎng)質疑:技術是一把雙刃劍,不能讓算法決定內容

    高端訪談2017年10月09日
    分享
      10月5日,人民日報發(fā)表題為《不能讓算法決定內容》的文章稱,隨著大數(shù)據(jù)、人工智能技術的廣泛應用,一些商業(yè)網(wǎng)站、移動新聞客戶端,包括直播平臺、瀏覽器、搜索引擎、影音軟件等,在運用算法為用戶量身打造信息定制服務的同時,也帶來了一定的弊端,導致“一切圍著流量轉,唯點擊量、轉發(fā)量馬首是瞻,‘標題黨’泛濫,價值取向跑偏,內容淪為附庸。”
    “新聞的搬運工”再受質疑
      在互聯(lián)網(wǎng)革命的下半場,流量已經(jīng)成為了稀缺資源。在信息爆炸時代如何吸引用戶的注意力,也成為了現(xiàn)在幾乎所有媒體平臺的共同課題。因此,通過大數(shù)據(jù)、人工智能技術分析用戶喜好,進行精準推送,創(chuàng)造新的個性化閱讀體驗的模式也隨之迅速推廣開來。

      這種技術的本身并沒有問題,也確實在信息海洋中幫助我們進行了篩選;但在利益的天平上,也就隨之產生了一些不好的現(xiàn)象。人民日報此次發(fā)文,也重點在強調我們應當重視內容本身。文章表示,“技術再怎么變,傳播渠道再怎么變,內容為王的地位沒有變也不會變。離開權威客觀公正的新聞報道、離開積極健康向上的信息內容,再強大的算法也是無源之水、無本之木。”

      同時,這篇文章也對一些新媒體平臺進行了批評。
      一些新媒體平臺口口聲聲稱自己只是“新聞的搬運工”,可“搬運”的結果就是,大量來路不明、藏污納垢的信息橫行在網(wǎng)絡空間?!鞍徇\”什么要講規(guī)矩講責任,決不可任性而為之,更不能用滿足用戶閱讀需求而自動分發(fā)的借口去搪塞。

      而在文中提到的“新聞的搬運工”,則讓人想到目前在新媒體平臺中如日中天的今日頭條。雖然在此前的版權爭議一事中,張一鳴已經(jīng)對“新聞的搬運工”這一稱謂表示了不認同,但不得不承認,這依然是大眾對于今日頭條最直觀的印象。
      值得一提的是,這已經(jīng)不是今日頭條第一次受到人民日報的質疑了。

    人民日報三評算法,今日頭條貶大于褒
      早在今年7月6日,人民日報就刊發(fā)了文章《新聞莫被算法“綁架”》,文章表示,“搭上算法的“便車”后,一些原本信息量豐富的新聞客戶端推薦的內容越來越單一,一些原本客觀公正的內容生產者變得越來越偏激,一些新聞媒體原本宏大的格局變得越來越狹??;并且呼吁內容生產者堅持“真實、全面、客觀、獨立”的創(chuàng)作態(tài)度。

      技術本質上都是單純的,高下立現(xiàn)的是操作者的理念、情懷和洞察力,媒體也是一樣。是被算法、流量和點擊量綁架,只說受眾想聽的話,只寫平臺可能會推送的話題,只展示讀者想看的那部分世界,還是堅持真實、全面、客觀、獨立,用態(tài)度和價值贏得尊重,用優(yōu)質的內容塑造風格?這才是媒體人應該深入思考的問題。

      如果說著還僅僅是對于當前內容生產者的一次忠告,那么后面人民日報則直接把矛頭指向了今日頭條。
      9月18日到9月20日的三天時間內,人民網(wǎng)連續(xù)發(fā)表了題為“三評算法推薦”的三篇觀點文章。

    人民網(wǎng)三評算法推薦
      這一系列的文章從抑制創(chuàng)新性、固化信息偏見、放大信息野蠻生長三方面,對于現(xiàn)在的算法推薦技術進行了質疑,并且點名提到了今日頭條推送中存在的一些問題。
      實際上,今日頭條上許多的所謂自媒體賬號一直充斥著低俗、無下限甚至謠言信息。更有甚者,所謂的算法推送和定制發(fā)布,誤導一些個地方政府和部門,算糊涂賬,花冤枉錢,已經(jīng)引起廣大網(wǎng)友的熱議和不滿。

      比如未經(jīng)科學驗證的健康知識、夸大其詞的廣告、只為博眼球的標題黨、過于情緒化的觀點乃至毫無用處的信息,都時常出現(xiàn)在智能平臺首頁的推薦當中。比如有位網(wǎng)友無意點擊了一條關于花圈的消息,結果今日頭條就連續(xù)推送喪葬用品信息,令人不堪其擾。還有網(wǎng)友總結那些劣質的信息可以分為三類:真假難辨,魚龍混雜;對錯不分,價值導向錯亂;缺乏深度,內容和觀點越來越膚淺。

      不得不承認,在智能推送為用戶帶來便利的同時,確實也對用戶的信息獲取產生了一定的負面效應。
      一方面是信息的媚俗化,由于智能平臺能夠輕易掌握大多數(shù)人想看什么、愛看什么,并且根據(jù)用戶需求精準送達信息,導致用戶接收到的眼球新聞遠遠大于深度內容。盡管用戶看“爽”了,但這并不利于其長期的學習和發(fā)展。


      另一方面是“自我封閉”的危險,在算法的幫助下,我們可以輕易過濾掉自己不熟悉、不認同的信息;而一旦身處這樣的“信息繭房”,就再難接受異質化的信息和不同的觀點,甚至在不同群體、代際間豎起阻礙溝通的高墻。


      目前,這些問題都是算法推薦應用過程中確實存在也值得注意的,當然它們的解決可能還需要技術的進一步發(fā)展。


    今日頭條回應:正視不足,勉力前行


      在人民網(wǎng)三評算法推薦后,9月21日今日頭條也對此作出了回應,并表示將正視機器學習技術目前整體發(fā)展的不足,勉力改進。
      今日頭條的初衷,是希望通過人工智能技術促進人與信息的交流。機器學習已經(jīng)在信息分發(fā)中表現(xiàn)出了它不可替代的作用,尤其是長尾內容的分發(fā)和觸達。它和信息傳播介質的升級一起,降低了人們獲取信息的知識門檻,讓“知識普惠”從口號變成了現(xiàn)實。

      機器學習和人工編輯,在現(xiàn)階段,是相輔相成的。未來也是如此。再聰明的人工智能,也只是一個需要不斷升級的工具,而人是不可替代的。這是一個不斷磨合和優(yōu)化的過程。這也是人民網(wǎng)三篇評論的價值所在。

      無論是算法推薦技術,還是今日頭條本身,都依然還在成長當中,也依然面臨著挑戰(zhàn)。而正如其在回應中所說,技術受到質疑并不是一件壞事,而是代表了它們可以改進的方向。