国产精品成人无码a?v毛片,男人女人做黄刺激性视频,jiizz日本老师高潮喷水,爆出白浆超碰人人人人

信息技術發(fā)展 我們需要什么樣的“算法”?

2020年11月16日 07:13    來源:人民日報海外版   

  原標題:隨著信息技術發(fā)展、大數(shù)據(jù)廣泛應用,算法推薦讓信息傳播更加個性化、定制化、智能化,但也出現(xiàn)了一些亂象——我們需要什么樣的“算法”?

  您是否有過類似經(jīng)歷:在求職網(wǎng)站填寫一份有關工作喜好的調查,網(wǎng)站會自動推送匹配的崗位;打開購物軟件,發(fā)現(xiàn)頁面上多是近期搜索或瀏覽過的商品;通過App閱讀一條養(yǎng)生信息,隨后便會經(jīng)常收到養(yǎng)生知識、養(yǎng)生產(chǎn)品的廣告推送……伴隨著信息技術迅猛發(fā)展、大數(shù)據(jù)廣泛應用,算法推薦技術正在將人們帶入個性化、定制化、智能化更強的信息傳播時代。

  因為算法推薦,互聯(lián)網(wǎng)平臺越來越能抓住用戶的心,幫助人們更加方便、精準地獲取信息,也牢牢吸引了用戶的注意力。據(jù)不完全統(tǒng)計,當前基于算法的個性化內容推送已占整個互聯(lián)網(wǎng)信息內容分發(fā)的70%左右。算法推薦逐漸成為各平臺“基本操作”的同時,諸如低俗劣質信息精準推送、“大數(shù)據(jù)殺熟”等亂象也凸顯出來。

  作為數(shù)字經(jīng)濟的重要推動力,算法如何實現(xiàn)更高質量發(fā)展?移動互聯(lián)時代,我們究竟需要怎樣的“算法”?

  

  互聯(lián)網(wǎng)平臺越來越“懂”用戶了嗎?

  “看完一個短視頻后,平臺會自動推薦很多相關視頻,很方便。”在北京一家企業(yè)工作的陳輝是某款網(wǎng)絡對戰(zhàn)游戲的“發(fā)燒友”,平時喜歡通過手機觀看相關短視頻來提高操作水平。他發(fā)現(xiàn),隨著刷短視頻的頻率增加,平臺推薦的相關視頻越來越多,“游戲攻略、英雄介紹、對戰(zhàn)視頻都有,電商平臺還會推薦鼠標、鍵盤。”

  這些平臺的自動推薦功能,運用了一種叫算法推薦的技術。這是一種通過人工智能分析和過濾機制對海量數(shù)據(jù)進行深度分析、完成信息內容與用戶精準匹配的技術。

  自從1994年美國明尼蘇達大學研究組推出第一個自動化推薦系統(tǒng),算法推薦技術如今已深入到資訊、社交、電商、短視頻、搜索引擎等平臺和互聯(lián)網(wǎng)應用中。

  互聯(lián)網(wǎng)平臺變得越來越“懂”用戶,在極大方便用戶獲取信息的同時,也容易引發(fā)一些用戶尤其是青少年不同程度的沉迷問題。

  “說好只看5分鐘,結果一刷就是幾小時!辟F州省貴陽市的林忠信說,他12歲的兒子最近迷上刷一些惡搞的短視頻,不僅影響學習成績,與同伴一起進行戶外活動的時間也少了。

  從去年5月底開始,全國主要網(wǎng)絡短視頻平臺中推廣青少年防沉迷系統(tǒng)。在“青少年模式”下,大多數(shù)平臺主要推送教育類、知識類等有益內容。但是,在缺乏監(jiān)護人照管監(jiān)督的情況下,防沉迷系統(tǒng)效果容易打折扣。

  有受訪者反映,一些新聞資訊、網(wǎng)絡社交等平臺的個性化推送存在“泛娛樂化信息多、低俗內容多、未經(jīng)核實內容多”的“三多”現(xiàn)象;一些網(wǎng)絡社交等平臺防沉迷手段較少,容易導致青少年沉迷和盲目模仿。

  北京大學中國社會與發(fā)展研究中心主任邱澤奇對記者表示,對自我的偏好是人類認知偏好的一部分,“偏好”閱讀可能加速形成“信息繭房”效應和“情緒傳染”效應,前者易導致視野局限,后者易使個人情緒受他人感染。

  一些喜歡網(wǎng)購的人還可能因遭遇“大數(shù)據(jù)殺熟”而蒙受損失。一些平臺利用算法技術給不同類型消費者數(shù)據(jù)“畫像”,判斷其偏好、用戶黏合度、價格敏感度等,使不同用戶看到的價格或搜索的結果不同。通常是老用戶看到的價格比新用戶貴,或搜索到的結果比新用戶少。

  今年“雙11”期間,北京消費者韓女士發(fā)現(xiàn),她通過某App預訂一家酒店,“同一時間,不同手機”預訂,價格相差約1000元。

  9月中旬,微博上發(fā)起的一個投票顯示,有1.5萬人認為自己遇到價格明顯差異的情況,占所有投票人員的近八成。

  “算法”是中性的,問題出在人身上

  算法技術的重要意義在于,將此前基于人力的“人找信息”轉變成基于電腦自動化運算的“信息找人”,既極大解放了人力,又更高效地完成了人和信息的匹配。

  從2012年起,互聯(lián)網(wǎng)平臺今日頭條在業(yè)內較早將算法推薦系統(tǒng)應用到資訊領域的產(chǎn)品中,實現(xiàn)了系統(tǒng)的自動學習推薦。據(jù)今日頭條算法架構師曹歡歡介紹,推薦系統(tǒng)綜合考量內容特征、用戶特征、環(huán)境特征等因素進行決策。例如,環(huán)境特征包括上班期間、上班路上、下班休息等不同場景下用戶的興趣偏好信息。

  為幫助用戶發(fā)現(xiàn)更多興趣點,今日頭條不斷引入多領域的優(yōu)質內容生產(chǎn)者,并運用算法推薦給用戶;推出“靈犬”反低俗助手,剔除低俗信息。推薦系統(tǒng)還增加了消重和打散策略,前者旨在消除內容相似文章推薦,后者降低了同領域或主題文章的推薦頻率。

  不過,在頭部互聯(lián)網(wǎng)平臺切實嚴格自律的同時,仍有一些采編流程不規(guī)范、管理不嚴的網(wǎng)絡社交媒體、新聞客戶端在業(yè)務導向上走偏了。主要表現(xiàn)在:

  ——向用戶推薦劣質信息。部分平臺為留住用戶,不斷向用戶推薦其關注過的相似內容,其中摻雜低俗媚俗、色情暴力、真假難辨、缺乏深度、價值觀導向錯亂等信息。一些互聯(lián)網(wǎng)平臺為增加點擊率和流量,還會進行人工推薦,主動推薦“博眼球”、打“擦邊球”信息,很多用戶直呼“辣眼睛”。這反映出一些平臺社會責任感缺失,更忽視了價值觀建設。

  ——增加用戶權益保護難度。一些算法推薦的內容過度強化用戶偏好,影響了用戶對于信息內容的自主選擇權,加劇“信息繭房”效應,極易造成個體與社會的隔離,缺乏對當下國情世情的深刻認識和判斷。由于依托于用戶瀏覽記錄等數(shù)據(jù),算法推薦若設計不當,還可能侵犯用戶個人隱私。

  ——進行“大數(shù)據(jù)殺熟”。中國傳媒大學大數(shù)據(jù)研究中心教授沈浩介紹,對于算法而言,通過用戶數(shù)據(jù)量以及數(shù)據(jù)更新頻次,可輕易判斷出是“生客”還是“熟客”。結果是平臺大賺,商家、消費者利益受損,還容易導致壟斷。

  作為一項技術應用,算法推薦是中性的,問題出在設計者、操作者身上。

  一方面,奉行“流量至上”的單一價值導向。一些平臺為應對競爭,將用戶停留時間作為重要考核指標,忽視了自身作為“把關人”的角色定位。而“把關人”必須用積極健康、符合公序良俗的價值觀,指引算法推薦的設計和應用,方能確保推送內容價值導向正確。

  另一方面,過度追求“利益至上”,利用其信息不對稱優(yōu)勢侵犯消費者合法權益。這是一個需要引起足夠重視的法律問題。

  “一些算法的頂層設計思路存在問題。”中國社科院信息化研究中心主任姜奇平對記者表示,英國著名數(shù)學家、邏輯學家圖靈等學者在勾畫人工智能圖景時提出,人和機器是對等、雙向互進的關系,但現(xiàn)在一些算法設計呈現(xiàn)出人與機器的關系是單項的。比如在大數(shù)據(jù)方面,迷信相關分析,忽略因果分析。在定義算法效率方面,只把專業(yè)化效率定義為效率,而實際上多樣化效率也是一種效率。

  大數(shù)據(jù)、算法推薦應更有“溫度”

  有網(wǎng)友最近在一個問答平臺發(fā)文稱,自己在某社交平臺和朋友聊天時提到了一款掃地機,隨后該平臺出現(xiàn)了掃地機器人的廣告。在跟帖中,很多網(wǎng)友疑問:“平臺是否可能利用算法等技術,抓取用戶聊天記錄進行廣告精準投放?”

  App專項治理工作組專家何延哲今年9月表示,四部委App專項治理工作組在對App多批次檢測中尚未發(fā)現(xiàn)App有“竊聽”行為。但App“竊聽”在技術實現(xiàn)上是有一定可能性的,相關部門有必要出臺規(guī)定,明確企業(yè)進行大數(shù)據(jù)“畫像”時能否使用個人語音信息,讓用戶更放心。

  從另一角度看,社會輿論的疑問其實指向了大數(shù)據(jù)、算法等技術應用的價值導向問題。如何規(guī)范使用大數(shù)據(jù)、算法技術,讓其變得更有“溫度”、更讓人放心?需要建立起一套行之有效的監(jiān)管體系、評價系統(tǒng),確保算法設計者、操作者以健康、正確、積極的價值觀,指引算法推薦的設計和應用。

  相關立法和監(jiān)管亟待加強,特別是要強化對算法推薦本身的法治監(jiān)管。

  例如,正在公開征求意見的《個人信息保護法(草案)》規(guī)定,個人認為自動化決策對其權益造成重大影響的,有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。

  11月10日,國家市場監(jiān)管總局發(fā)布的《關于平臺經(jīng)濟領域的反壟斷指南(征求意見稿)》規(guī)定,基于大數(shù)據(jù)和算法,根據(jù)交易相對人的支付能力、消費偏好、使用習慣等,實行差異性交易價格或者其他交易條件;對新老交易相對人實行差異性交易價格或者其他交易條件;實行差異性標準、規(guī)則、算法;實行差異性付款條件和交易方式等,都可能被認定為“大數(shù)據(jù)殺熟”等不正當競爭行為而面臨更嚴格監(jiān)管。

  北京大學電子商務法研究中心主任薛軍對記者表示,應針對算法運用的場景、對公民基本權益的影響,對算法進行不同強度的監(jiān)管。除了法律規(guī)定需更加明確外,可以建立某種社會化的評議機制,對平臺運用算法產(chǎn)生的后果進行評價,要求平臺基于公共價值予以優(yōu)化。

  壓實平臺的社會責任。曹歡歡表示,今日頭條已不完全依賴算法推薦,而是一個綜合“算法+熱點+搜索+關注”的通用信息平臺,以幫助用戶拓展興趣。用戶還可以選擇關閉“個性化推薦”按鈕或“永久清除歷史行為”,自主選擇獲取信息的方式。

  “應該在算法技術內講價值倫理,把人之為人的一面當作技術本身來考慮,倡導企業(yè)在商業(yè)行為中履行社會責任!苯嫫秸J為,對算法推薦技術和平臺的監(jiān)管應確保公平和效率、個人信息開發(fā)與保護、個人信息與平臺信息等方面的平衡,在促進數(shù)字經(jīng)濟服務業(yè)態(tài)健康發(fā)展層面考慮,可按照個性化信息服務所得和付出的均衡原則進行政策調整。他建議,確保消費者對信息采集者的服務好壞有評判權,使消費者始終處于主動地位。

  有專家認為,監(jiān)管部門應督促企業(yè)調整業(yè)務邏輯,將正面價值取向、用戶高品質追求作為關鍵標簽納入算法頂層設計之中;政府、學校、家長、平臺各方應責任共擔,不斷提升青少年網(wǎng)絡素養(yǎng)。(記者 彭訓文)

更多精彩內容,請點擊進入文化產(chǎn)業(yè)頻道>>>>>

(責任編輯: 李冬陽 )

信息技術發(fā)展 我們需要什么樣的“算法”?

2020-11-16 07:13 來源:人民日報海外版
查看余下全文