亚洲色在线无码国产精品不卡,亚洲av综合a色av中文,亚洲国产欧美国产综合一区,亚洲欧美日韩国产综合一区二区 ,亚洲av一般男女在线

刷臉識別性取向 AI 有這么可怕嗎?

  斯坦福大學的兩位研究員發(fā)布了一個研究報告,他們用數十萬張約會網站的照片來訓練一個面部識別系統(tǒng),嘗試讓AI學會通過照片來判斷一個人是否是同性戀。
  權威外媒《經濟學人》第一個報道了這個研究,之后其他媒體也做了跟進的報道,諸如《可怕!AI只要一張照片就能看出來你是不是同性戀》的標題很快散播在各家媒體網站上。
  從多家外媒的報道來看,研究指出通過一張面部圖片,該系統(tǒng)就可以判斷出圖片上的人性向如何,判斷準確率男性81%,女性71%,如果同一人物的圖片素材達到5張,則準確率可以上升到男性91%,女性83%。

  但著名科技媒體TheVerge指出,其實這類報道出現了偏差,斯坦福大學研究員們的這個研究并不是像諸多文章中寫的那樣,只要一張照片就能看出來性取向,事實上,該研究是通過兩張圖片二選一的機制讓機器選出「更可能是同性戀」的圖片。這種對比判斷其實是從50%的隨機幾率開始計算的,因此與單純對一張圖的分析有著很大的區(qū)別。

  除了報道的理解偏差以外,這項研究本身也遭到了不少批評聲。馬里蘭大學的社會學家PhilipCohen就表示,人們本來擁有一個私密的生活,性取向也沒有打算公之于眾,結果去了一趟機場或者運動場就被攝像頭掃描出來了,這樣的可能性會讓人們感到恐懼。

  研究人員之一的Michal Kosinski也表示,他們的意圖就是警醒人們AI的危險性。他認為人工智能和面部識別在不遠的將來不僅僅可以識別人的性取向,甚至還能檢測出人的政治立場、犯罪傾向,甚至智商。
  The Verge文章還認為,這種從人臉圖片判斷出性取向的科研成果其實是19世紀到20世紀的種族主義披上了神經網絡、機器學習等計算機技術的外衣,對真正科學的反攻倒算。它像過去的偽科學、相面術一樣,給了某些人譴責、滅絕其他人類同胞的理由。

  從道德的角度看,這項研究確實有著很大的缺陷,但人們也無法否認,機器確實有著人類所沒有的分析能力,也許能夠發(fā)現人類所發(fā)現不了的規(guī)律和事實。

  比如AlphaGo就可以從圍棋的規(guī)則和以往的經典棋局中「研究」出一套獨特的棋路,而不是簡單的模仿學習。
  所以該研究指出的同性人群可能存在不同于異性戀人群的某些特征,從人類的角度我們也不能一昧地從道義上反駁,相反,類似的研究成果可能會被性學專家重視,并加以深入研究。

  但另一方面,從訓練算法的數據來看,這項研究本身也存在著一定的問題。

  數據源的問題。從婚戀交友網站獲取的數十萬張照片不能代表人類全體,這些人本身可能就存在著某些特征,而這些特征極有可能會影響到機器對性取向的判斷與學習。

  數據類型的問題。圖片就夠了嗎?判斷一個人的性取向這樣重要的特征,簡單的靜態(tài)圖片就夠了嗎?機器也許可以發(fā)現人類無法發(fā)現的東西,但前提是數據的厚度、密度和廣度都必須達到一定的量。
  在這一點上,研究者只給機器提供靜態(tài)的圖片作為學習的素材,不禁讓人懷疑他們的初衷究竟是出于科學地研究不同人群的潛在特征,還是一些易于媒體傳播的商業(yè)意圖。

  畢竟,從網站上扒圖并不是什么技術活,讓機器做選擇題的概念,也像極了十多年前哈佛某個宅男做的校園選美網站。

文章來源:河姆渡智能建筑