為什么人工智能也逃脫不了社會的有色眼鏡?

關(guān)于未來的AI會是什么樣子的討論從未停止過,有一些專家認為這些機器會具有很強的邏輯性,而且非??陀^非常理性。但是普林斯頓大學(xué)的研究者們已經(jīng)證實了,人工智能其實也會學(xué)到創(chuàng)造它們的人的壞習(xí)慣。

創(chuàng)新互聯(lián)公司自2013年創(chuàng)立以來,先為慶安等服務(wù)建站,慶安等地企業(yè),進行企業(yè)商務(wù)咨詢服務(wù)。為慶安企業(yè)網(wǎng)站制作PC+手機+微官網(wǎng)三網(wǎng)同步一站式服務(wù)解決您的所有建站問題。

機器學(xué)習(xí)程序通常是用網(wǎng)絡(luò)上就能找到的正常人類對話進行訓(xùn)練的,那么它們在學(xué)習(xí)語言的過程中,也能夠同步學(xué)到隱藏在字面意思后面的文化偏見。

4月14日的《科學(xué)》雜志刊登了研究者們的這項發(fā)現(xiàn)。Arvind Narayanan是這篇論文的作者之一。他擔任著普林斯頓大學(xué)和CITP(信息技術(shù)政策研究所)的副教授職位,同時他還是斯坦福法學(xué)院網(wǎng)絡(luò)與社會研究中心合作學(xué)者。在他看來,“機器學(xué)習(xí)在公平和偏見方面表現(xiàn)出的問題會對社會產(chǎn)生極為重要的影響?!?/p>

論文的第一作者Aylin Caliskan在普林斯頓大學(xué)的博士后工作站進行著研究,他同樣加入了CITP。論文還有一位參與者是英國巴斯大學(xué)的學(xué)生,也加入了CITP。

Narayanan說:”我覺得目前的狀況是,這些人工智能系統(tǒng)正在給這些曾經(jīng)存在過的偏見一個持續(xù)下去的機會。現(xiàn)代社會可能無法接受這些偏見,我們也需要避免出現(xiàn)這些偏見?!?/p>

研究人員用內(nèi)隱聯(lián)想測驗(IAT)的方法來測試機器學(xué)習(xí)程序的偏見程度。自從上世紀90年代華盛頓大學(xué)開發(fā)出了這套測試以來,它作為人類偏見的試金石,被運用在無數(shù)的社會心理學(xué)研究中。它的測試過程中會要求人類被測者把電腦屏幕上的單詞根據(jù)意思進行配對,并以毫秒為單位記錄下所花的時間。這項測試也反復(fù)證明了,如果被測者覺得兩個單詞的意思越匹配,他所花的時間就越會明顯地短。

比如,“玫瑰”、"雛菊" 這樣的單詞就可以和正面的詞匯 "愛撫"或者“愛情”配對,而"螞蟻"、"飛蛾"這樣的單詞就會和“骯臟”、“丑陋”這樣的單詞配對。人們給描述花的單詞配對的時候,會更快地配對到正面詞匯上去;同樣地,給描述昆蟲的單詞配對的時候,就會更快地配對到負面詞匯上去。

普雷斯頓團隊用機器學(xué)習(xí)版的IAT測試程序GloVe設(shè)計了一個實驗。GloVe是斯坦福大學(xué)的研究者編寫的熱門開源程序,單獨看甚至可以作為一個初創(chuàng)機器學(xué)習(xí)公司產(chǎn)品的核心功能。GloVe的算法可以算出一段話中指定的單詞一同出現(xiàn)的概率。那么經(jīng)常一同出現(xiàn)的單詞之間就有更高的相關(guān)性,不經(jīng)常一起出現(xiàn)的單詞的相關(guān)性就較低。

斯坦福大學(xué)的研究者們讓GloVe從網(wǎng)絡(luò)上廣泛獲取了大約8400億詞的內(nèi)容。在這樣的詞匯庫中,Narayanan和他的同事們查看了很多組目標詞匯,比如“程序員、工程師、科學(xué)家”,或者“護士、老師、圖書館員”,然后跟兩組屬性詞匯比如“男的、男性”和“女的、女性”進行交叉對比,看看人類在這些事情上會有怎樣的偏見。

然后結(jié)果展示出,既有“對花的喜歡多一些、對昆蟲的喜歡少一些”這樣比較單純、無攻擊性的偏好存在,也有跟性別、種族相關(guān)的嚴重偏見出現(xiàn)。普林斯頓的機器學(xué)習(xí)測試與人類參與對應(yīng)的IAT測試體現(xiàn)出了如出一轍的結(jié)果。     具體舉個例子,這個機器學(xué)習(xí)程序會更多地把帶有家庭屬性的單詞和女性相關(guān)聯(lián),比如“父母”和“婚禮”;跟男性相關(guān)聯(lián)更多的則是與事業(yè)相關(guān)的單詞,比如“專業(yè)性”和“薪水”。當然了,這種結(jié)果很大程度上是對不同性別有著不對等的社會職能的真實、客觀反映,正如現(xiàn)實世界中確實有77%的美國計算機程序員都是男性。

這種社會職能的偏見最終可能會帶來有害的男權(quán)主義影響。比如,機器學(xué)習(xí)程序有可能在對句子做翻譯的過程中體現(xiàn)出、甚至加強了對性別的刻板印象。用到土耳其語中的不區(qū)分性別的第三人稱代詞”o”的時候,谷歌翻譯卻會把性別無關(guān)的”o bir doctor”和”o bir hem?ire”(醫(yī)生和護士)翻譯成帶有明顯性別區(qū)分的“他是醫(yī)生”和“她是護士”。

“機器學(xué)習(xí)并不會因為它們的設(shè)計和運行依靠數(shù)學(xué)和算法就變得客觀和公正,這個觀點在這篇文章中得到了重申;”微軟紐約研究院的高級研究員Hanna Wallach這樣說,她雖然沒有親身參與這項研究,但是她很清楚狀況,”相反地,只要機器學(xué)習(xí)的程序是通過社會中已經(jīng)存在的數(shù)據(jù)進行訓(xùn)練的,那么只要這個社會還存在偏見,機器學(xué)習(xí)也就會重現(xiàn)這些偏見。"

研究者們還發(fā)現(xiàn),機器學(xué)習(xí)程序更容易讓非洲裔美國人的名字和不愉快的詞語產(chǎn)生關(guān)聯(lián);這種事情就不怎么會發(fā)生在歐洲裔美國人名字上。同樣地,這些偏見在人類中也大規(guī)模存在。芝加哥大學(xué)的Marianne Bertrand和哈佛大學(xué)的Sendhil Mullainatha在2004年合作發(fā)表過一篇著名論文,其中他們向1300個招聘職位發(fā)送了接近5000封簡歷,而這些簡歷間的區(qū)別僅僅在于求職者的名字是傳統(tǒng)歐洲裔美國人的還是傳統(tǒng)非洲裔美國人的。結(jié)果是驚人的,前者得到面試邀請的概率要比后者高50%。

通過給底層的AI系統(tǒng)和機器學(xué)習(xí)程序開發(fā)明確的、數(shù)學(xué)性的指導(dǎo)規(guī)范,有可能可以避免讓電腦程序把人類文化中的刻板性別觀念一直延續(xù)下去。就像爸爸媽媽或者老師們給小孩逐漸灌輸公平公正的觀念一樣,人工智能的設(shè)計者們也可以努力讓人工智能更多地反映出人性中更好的那一面。

Narayanan最后總結(jié)說:“我們在這篇文章中研究的偏見確實很容易在人工智能系統(tǒng)的設(shè)計過程被忽視,這些社會中的偏見和刻板印象以復(fù)雜的方式反映在我們語言中,而且難以去除。相比于減少甚至完全消除這些偏見,我覺得更好的方式是先接受這些偏見是我們語言習(xí)慣的一部分,然后在機器學(xué)習(xí)方面建立明確的標準來區(qū)分哪些偏見是我們可以接受的,哪些是不允許出現(xiàn)的。”

本文題目:為什么人工智能也逃脫不了社會的有色眼鏡?
標題來源:http://muchs.cn/article10/soepgo.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站設(shè)計公司、App開發(fā)電子商務(wù)、關(guān)鍵詞優(yōu)化、ChatGPT、用戶體驗

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

小程序開發(fā)