人工智能已出現(xiàn)種族和性別偏見

2021-04-06    分類: 網(wǎng)站建設(shè)

讓計(jì)算機(jī)具備理解人類語言的人工智能(ai)工具已經(jīng)出現(xiàn)了明顯的種族和性別偏見。
這些發(fā)現(xiàn)令人擔(dān)憂現(xiàn)有的社會不平等和偏見正在以新的、不可預(yù)知的方式得到強(qiáng)化,因?yàn)橛绊懭藗內(nèi)粘I畹拇罅繘Q策正越來越多地由機(jī)器人做出。
在過去的幾年里,谷歌翻譯等程序的語言翻譯能力有了顯著提高。這些成就要得益于新的機(jī)器學(xué)習(xí)技術(shù)和大量在線文本數(shù)據(jù)的使用,并在此基礎(chǔ)上對算法進(jìn)行訓(xùn)練。
然而,最新研究顯示,隨著機(jī)器越來越接近于掌握人類的語言能力,它們也在吸收隱藏于語言中的根深蒂固的偏見。
巴斯大學(xué)的計(jì)算機(jī)科學(xué)家、論文合著者喬安娜·布萊森(joanna bryson)說:“很多人都認(rèn)為這表明人工智能(ai)存在偏見。不,這表明我們有偏見,人工智能正在有樣學(xué)樣?!?br />但布萊森警告說,人工智能有可能強(qiáng)化現(xiàn)有偏見,因?yàn)樗惴ㄅc人類不同,可能無法有意識地抵制學(xué)到的偏見?!拔kU(xiǎn)在于,你擁有的人工智能系統(tǒng)沒有一處零部件明確需要依靠道德觀念驅(qū)動,這就不好了,”她說。
微軟去年推出的twitter機(jī)器人因不當(dāng)言論而緊急下線
微軟去年推出的twitter機(jī)器人因不當(dāng)言論而緊急下線
上述研究發(fā)表在《科學(xué)》雜志上,重點(diǎn)關(guān)注一種名為“單詞嵌入”機(jī)器學(xué)習(xí)工具,后者已經(jīng)改變了計(jì)算機(jī)解讀語音和文本的方式。有人認(rèn)為,下一步科技發(fā)展將自然而然地涉及到開發(fā)機(jī)器的類人化能力,如常識和邏輯。
“我們選擇研究單詞嵌入的一個(gè)主要原因是,近幾年來,它們已幫助電腦在破解語言方面取得了巨大成功,”這篇論文的資深作者、普林斯頓大學(xué)計(jì)算機(jī)科學(xué)家阿爾文德·納拉亞南(arvind narayanan)說。
這種方法已經(jīng)在網(wǎng)絡(luò)搜索和機(jī)器翻譯中使用,其原理是建立一套語言的數(shù)學(xué)表示式,依據(jù)與每個(gè)單詞同時(shí)出現(xiàn)的最常用單詞,將這個(gè)詞的意思提煉成一系列數(shù)字(也就是詞向量)。也許令人驚訝的是,這種純粹的統(tǒng)計(jì)方法似乎能夠捕捉到每個(gè)詞所在的豐富的文化和社會背景,這是字典無法定義的。
例如,在數(shù)學(xué)“語言空間”,與花朵有關(guān)的詞匯往往與描繪心情愉悅的話語聚集在一起,而與昆蟲相關(guān)的詞匯則往往與心情不愉快的詞匯同時(shí)出現(xiàn),反映出人們對昆蟲與花朵的相對特點(diǎn)所達(dá)成的共識。
最新的文件顯示,人類心理實(shí)驗(yàn)中一些更令人不安的隱性偏見也很容易被算法捕獲?!按菩浴焙汀芭浴迸c藝術(shù)、人文職業(yè)和家庭的聯(lián)系更緊密,“雄性”和“男性”與數(shù)學(xué)和工程專業(yè)更為接近。
而且,人工智能系統(tǒng)更有可能將歐美人的名字與諸如“禮物”或“快樂”之類的愉快詞語聯(lián)系在一起,而非裔美國人的名字通常與不愉快的詞語聯(lián)系在一起。
研究結(jié)果表明,算法與隱式聯(lián)想測試擁有同樣的偏見,也就是把表示愉快的單詞與(美國和英國的)白人面孔聯(lián)系起來。
這些偏見會對人類行為產(chǎn)生深遠(yuǎn)的影響。一項(xiàng)先前的研究表明,相對于非洲裔美國人,如果申請者的名字是歐洲裔美國人,即使簡歷內(nèi)容相同,后者所能獲得的面試邀請將比前者多出50%。最新的研究結(jié)果表明,除非采用明確的編程來解決這個(gè)問題,否則,算法將與現(xiàn)實(shí)社會一樣,充斥著相同的社會偏見。
“如果你不相信種族主義與姓名存在聯(lián)系,這就是例證,”布萊森說。
研究中使用的機(jī)器學(xué)習(xí)工具是在被稱為“通用爬蟲”語料庫的訓(xùn)練數(shù)據(jù)集中接受訓(xùn)練的,其中的 8400 億個(gè)詞語都是從網(wǎng)上公布的材料中選取的。當(dāng)研究人員把訓(xùn)練數(shù)據(jù)集換成谷歌新聞的數(shù)據(jù)對機(jī)器學(xué)習(xí)進(jìn)行訓(xùn)練時(shí),也出現(xiàn)了類似結(jié)果。
牛津大學(xué)數(shù)據(jù)倫理和算法領(lǐng)域的研究人員桑德拉·沃徹(sandra wachter)說:“世界存在偏見,歷史數(shù)據(jù)存在偏見,因此,我們得到帶有偏見的結(jié)果,不足為奇。”
她補(bǔ)充說,算法不僅代表一種威脅,也可能為采取適當(dāng)方式解除和對抗偏見提供機(jī)會。
“至少利用算法,我們可能知道算法會在什么時(shí)候出現(xiàn)偏差,”她說。例如,人類會在解釋為何不雇傭某人時(shí)說謊,與此相反,算法不會撒謊,不會欺騙我們。”
然而,沃徹說,問題在于如何從旨在理解語言的算法中消除不恰當(dāng)?shù)钠?,同時(shí)又不剝奪它們的解讀能力,這將是具有挑戰(zhàn)性的工作。
“原則上,我們可以建立一些系統(tǒng)對帶有偏見的決定進(jìn)行檢測,然后采取行動,”沃徹說,并與其他人一起呼吁建立一個(gè)人工智能監(jiān)管機(jī)構(gòu)。“這是一項(xiàng)非常復(fù)雜的任務(wù),但作為一種社會責(zé)任,我們不應(yīng)回避。

標(biāo)題名稱:人工智能已出現(xiàn)種族和性別偏見
瀏覽地址:http://muchs.cn/news/106554.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供定制網(wǎng)站、營銷型網(wǎng)站建設(shè)電子商務(wù)、做網(wǎng)站靜態(tài)網(wǎng)站、網(wǎng)站設(shè)計(jì)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

成都網(wǎng)站建設(shè)