AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮-創(chuàng)新互聯(lián)

作者 | AI Now學院

“專業(yè)、務(wù)實、高效、創(chuàng)新、把客戶的事當成自己的事”是我們每一個人一直以來堅持追求的企業(yè)文化。 成都創(chuàng)新互聯(lián)公司是您可以信賴的網(wǎng)站建設(shè)服務(wù)商、專業(yè)的互聯(lián)網(wǎng)服務(wù)提供商! 專注于成都網(wǎng)站設(shè)計、成都網(wǎng)站建設(shè)、軟件開發(fā)、設(shè)計服務(wù)業(yè)務(wù)。我們始終堅持以客戶需求為導(dǎo)向,結(jié)合用戶體驗與視覺傳達,提供有針對性的項目解決方案,提供專業(yè)性的建議,創(chuàng)新互聯(lián)建站將不斷地超越自我,追逐市場,引領(lǐng)市場!

譯者 | Raku

編輯 | Jane

【導(dǎo)讀】10月2日,紐約大學AI Now學院在紐約大學斯克博劇院(Skirball Theatre)組織召開了第四屆年度AI Now研討會。研討會邀請了業(yè)內(nèi)組織者、學者和律師帶來演講,并共同登臺探討相關(guān)工作,這次研討會圍繞五大熱議話題,重點探討了AI負面影響以及不斷擴大的抵制聲潮。

五大熱議問題:

  • 面部與情感識別

  • 從“AI的偏見”向公正的轉(zhuǎn)變

  • 城市、監(jiān)控、邊界

  • 勞動力、工人組織與 AI

  • AI 對氣候的影響

AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮

第一個小組討論了AI在警務(wù)與邊境控制中的用途;第二個小組與布魯克林的租戶組織者進行了交談,他們反對房東在建筑物中使用面部識別系統(tǒng);第三個小組以民權(quán)律師為由起訴密歇根州,該小組使用了錯誤且有偏見的算法;最后一個小組討論的重點是藍領(lǐng)技術(shù)人員,從亞馬遜倉庫到演出經(jīng)濟驅(qū)動程序,向小組人員講解他們在過去一年中的組織和重大成就。

AI Now聯(lián)合創(chuàng)始人凱特·克勞福德(Kate Crawford)和梅雷迪斯·惠特克(Meredith Whittaker)以總結(jié)一年來關(guān)鍵時刻的簡短講話作為開場白,研討會上有四個小組在研討會上發(fā)表了看法,以下是他們演講的摘錄。

1、面部與情感識別

AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮

2019 年,公司和 政府都紛紛加大在公共住房、招聘和城市街道中推廣人臉識別的力度?,F(xiàn)在,一些美國航空公司甚至也用此來代替 登機牌,聲稱這樣會更方便。

同樣,情感識別也得到了更廣泛的應(yīng)用,通過解釋面部的微表情來“讀取”我們的內(nèi)在情緒。正如心理學家麗莎·費爾德曼·巴 雷 特(Lisa Feldman Barret)在一份廣泛的調(diào)查報告中所表明的,這類人工智能相貌學沒有可靠的科學基礎(chǔ)。但是,它已經(jīng)在課堂和工作面試中,在人們不知情的情況下被使用了。

例如,喬治敦(Georgetown)隱私和技術(shù)中心獲得的文件顯示,未經(jīng)個人同意或未經(jīng)州、聯(lián)邦立法者的授權(quán),F(xiàn)BI和ICE一直在悄悄訪問駕照數(shù)據(jù)庫,對數(shù)百萬張照片進行面部識別搜索。

但是今年,隨著ACLU的Kade Crockford、羅切斯特理工學院的Evan Selinger和東北大學的Woodrow Hertzog等學者和組織者呼吁對嚴格限制使用面部識別后,選民和立法者對這項技術(shù)的使用也開始采取相應(yīng)的舉措。第九巡回上訴法院最近裁定,F(xiàn)acebook可能因未經(jīng)用戶許可對照片進行面部識別而被起訴,稱這是對隱私的侵犯。

由于媒體正義組織(Media Justice)等組織的領(lǐng)導(dǎo),今年5月,舊金山簽署了第一個面部識別禁令,隨后另外兩個城市也開始禁止面部識技術(shù)的應(yīng)用。并且現(xiàn)在有一位總統(tǒng)候選人承諾全國范圍內(nèi)的禁令;很多音樂家要求在音樂節(jié)上停止面部識別;還有一項名為《禁止生物特征住房壁壘法案》的聯(lián)邦法案,其目標是在公共房屋中進行面部識別。

同樣,面試識別的應(yīng)用在歐洲也不順利。英國議會委員會要求停止對面部識別的試驗,直到建立法律框架為止,而且最近發(fā)現(xiàn)布魯塞爾警方對這些AI工具的使用是非法的。

當然,這些改變需要大量的工作。而且還要明確一點,這不是需要完善技術(shù)或是消除偏差的問題。考慮到對監(jiān)視、跟蹤、逮捕的人種和收入的差異,即使是非常準確的面部識別也會產(chǎn)生危害。正如凱特·克勞福德(Kate Crawford)最近在《自然》雜志上寫的那樣——消除對這些系統(tǒng)的偏差并不是重點,它們“發(fā)生錯誤時是危險的,成功了則是有害的”。

2、從“AI的偏見”向公正的轉(zhuǎn)變

AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮

今年,我們還看到了一些重要的變化,從只 關(guān)注技術(shù)層面的人工智能“去偏見”,轉(zhuǎn)向?qū)λ痉ü膶嵸|(zhì)性 關(guān)注。

許多令人不安的事件在一定程度上推動了這一點。

例如,密歇根州的前州長里克·斯奈德(Rick Snyder)是一位技術(shù)主管,同時也是弗林特水危機的負責人,他決定在全州范圍內(nèi)安裝一個自動化決策系統(tǒng),稱為MiDAS。它旨在自動標記涉嫌福利欺詐的工人。為了削減成本,該州安裝了MiDAS并解雇了整個欺詐檢測部門。但事實證明,93%的時間MiDAS系統(tǒng)都會出錯。錯誤地指控了40,000多名居民,從而引發(fā)了許多破產(chǎn)乃至自殺事件。但是,MiDAS只是緊縮政策的一部分,這些政策旨在讓窮人成為替罪羊。

AI Now政策總監(jiān)Rashida Richardson負責一個案例研究警察日常工作與預(yù)測性警務(wù)軟件之間聯(lián)系。她和她的團隊發(fā)現(xiàn),在美國各地的許多警察部門中,預(yù)測性警務(wù)系統(tǒng)可能會使用來自種族主義和腐敗的警務(wù)記錄。

顯然,在這種情況下糾正偏差與刪除數(shù)據(jù)集中的變量無關(guān),需要改變的是警察制作數(shù)據(jù)的做法。人權(quán)數(shù)據(jù)分析小組的研究人員克里斯蒂安·盧姆(Kristian Lum)在她開創(chuàng)性工作“算法如何放大警務(wù)中的歧視性”問題中也表明了這一點。

最近,凱特·克勞福德(Kate Crawford)和AI Now藝術(shù)家研究員特雷弗·帕格倫(Trevor Paglen)還在他們的Training Humans展覽中探討了分類政治,這是首個 關(guān)注創(chuàng)建機器學習系統(tǒng)的訓(xùn)練數(shù)據(jù)的大型藝術(shù)展覽。這個項目從1963年Woody Bledsoe的第一個實驗,到最著名和使用最廣泛的基準集,如Wilded Labeled Faces和ImageNet,回顧了AI訓(xùn)練集的歷史和邏輯。

今年9月,數(shù)百萬人上傳了他們的照片來看他們將如何被ImageNet分類。這是一個具有重大意義的問題。ImageNet是規(guī)范的對象識別數(shù)據(jù)集。它在塑造AI產(chǎn)業(yè)方面做得比其他公司都多。

雖然ImageNet的一些類別很奇怪,甚至很有趣,但數(shù)據(jù)集也充滿了極具問題的分類,其中許多是種族主義者和厭惡婦女主義者(misogynist)。Imagenet Roulette提供了一個界面,使人們可以查看AI系統(tǒng)如何對它們進行分類??藙诟5拢–rawford)和帕格倫(Paglen)發(fā)表了一篇調(diào)查文章,展示了他們?nèi)绾卧诙鄠€基準訓(xùn)練集上揭開它們的面紗,以揭示其體系結(jié)構(gòu)。

這也是為什么藝術(shù)和研究結(jié)合在一起有時比單獨時更有影響力的一個原因,這讓我們考慮由誰來定義我們所處的類別,以及會產(chǎn)生什么后果。

3、城市、監(jiān)控、邊界

AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮

能源,分類和控制問題是今年在美國大規(guī)模部署公司監(jiān)視系統(tǒng)的前景。以亞馬遜的Ring為例,它是一款監(jiān)控攝像頭和門鈴系統(tǒng),旨在讓人們能夠7*24小時全天候監(jiān)控家和附近地區(qū)。

亞馬遜正在與400多個警察部門合作推廣Ring,希望警察說服居民購買該系統(tǒng),這有點像把警察變成挨家挨戶推銷安防系統(tǒng)的銷售員。

作為交易的一部分,亞馬遜將持續(xù)獲得視頻片段;警察可以隨時調(diào)用他們想要的監(jiān)控的視頻。該公司已經(jīng)在這一領(lǐng)域申請了人臉識別專利,這表明他們希望能夠?qū)z像頭拍攝的對象與“可疑人員數(shù)據(jù)庫”進行對比,從而有效地在全國范圍內(nèi)建立私有化的家庭監(jiān)控系統(tǒng)。

但是Ring并不是解決這個問題的最佳方案。正如Burku Baykurt,Molly Sauter和AI Now研究員Ben Green學者所表明的那樣,“智慧城市”的技術(shù)烏托邦式言論掩蓋了更深層次的不公正和不平等問題。

居民小區(qū)也在考慮這個問題。8月,圣地亞哥居民抗議安裝“智能”燈桿。今年6月,紐約州洛克波特市的學生和家長抗議學校使用面部識別系統(tǒng),該系統(tǒng)能夠隨時追蹤和繪制任何學生或老師的信息,目前此系統(tǒng)已暫停使用。

這些工具最被濫用的地區(qū)之一是在美國南部邊境,在那里,ICE,海關(guān)和邊境巡邏隊正在部署AI系統(tǒng)。目前,有52,000名 移 民被關(guān)在監(jiān)獄、拘留所或其他限制自由的場所,還有4萬名無家可歸者在邊界的墨西哥一側(cè)等待庇護。到目前為止,在過去的一年中,有7名兒童在ICE羈押期間死亡,許多兒童面臨的食物和醫(yī)療不足。這些恐怖的事情確確實實在發(fā)生。

根據(jù)倡導(dǎo)組織Mijente的一份重要報告,我們知道,亞馬遜(Amazon)和Palantir等公司正在為ICE驅(qū)逐難民提供出境理由。為了反對以上的行為和組織,有數(shù)十所大學的2000多名學生簽署了不與Palantir合作的承諾,在與ICE簽約的科技公司總部,幾乎每周都有抗議活動。

4、勞動力,工人組織與AI

AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮

當我們審視AI領(lǐng)域日益增長的多樣性問題時,種族,階級和性別等方面的結(jié)構(gòu)性歧視問題將得到充分顯示。

4月,AI Now發(fā)布了由AI Now博士后Sarah Myers West負責的Discriminate Systems。這項研究展示了AI內(nèi)部歧視性文化與AI系統(tǒng)中嵌入的偏差與歪曲事實之間的反饋回路。調(diào)查結(jié)果令人震驚,正如AI行業(yè)將自己確立為財富和權(quán)力的紐帶一樣,它也變得更加同質(zhì)。這一領(lǐng)域顯然存在一個普遍的問題。

但是也有越來越多的人呼吁變化。最早呼吁問責的人之一是肯尼亞研究生阿瓦·姆博雅(Arwa Mboya)。從Google 罷工到Riot Games,再到與CEO面對面的Microsoft員工,我們已經(jīng)看到了多家科技公司的一系列罷工和抗議,所有都要求消除工作中的種族和性別不平等。

現(xiàn)在,AI Now聯(lián)合創(chuàng)始人梅雷迪思·惠特克(Meredith Whittaker)于今年早些時候離開了Google。她對行業(yè)的發(fā)展方向越來越感到震驚,事情變得越來越糟,而不是更好,因此,她和她的同事們開始圍繞工作場所中AI的不當使用和濫用等現(xiàn)象展開行動。

用于工人管理的AI平臺也是一個日益嚴重的問題。從Uber到Amazon倉庫,這些龐大的自動化平臺指導(dǎo)員工行為,設(shè)定績效目標并確定員工工資,使員工幾乎沒有控制權(quán)。例如,今年早些時候,Uber大幅削減了工人的工資,沒有任何解釋或警告,而是通過對其平臺的更新悄悄地實施了這一變更。

幸運的是,我們也看到了這些工人的一些重大勝利。CA的Rideshare工人在AB-5法中取得了巨大勝利,該法案要求基于應(yīng)用程序的公司向駕駛員提供全面的就業(yè)保護。與現(xiàn)狀相比,這是一個巨大的變化。

5、AI對氣候的影響

AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮

所有這些問題的背景都是氣候。

AI非常耗能,并消耗大量自然資源。來自Amherst的研究員Emma Strubell在今年早些時候發(fā)表了一篇論文,揭示了訓(xùn)練AI系統(tǒng)的巨大碳足跡。她的團隊表明,僅創(chuàng)建一種用于自然語言處理的AI模型,就可以排放多達600,000磅的二氧化碳,相當于往返紐約與北京125次飛行的耗能。

大型AI的碳消通常被隱藏在諸如“云”類產(chǎn)品背后。實際上,據(jù)估計目前世界的計算基礎(chǔ)設(shè)施所的碳排放量與航空業(yè)一樣多,占全球排放量的很大比例。

不斷涌現(xiàn)的抗議聲音

AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮

大家可以看到越來越多的抵制AI濫用的浪潮涌現(xiàn)。

很明顯,人工智能引發(fā)的問題是社會、文化和政治問題,而不僅是技術(shù)問題。這些問題,從刑事司法到工人權(quán)利,再到種族和兩性平等,都有悠久的歷史。

2019年的AI技術(shù)的濫用提醒我們,還有一個機會來決定接受哪類AI以及如何使其承擔責任??梢暬瘯r間軸中所代表的組織,立法和獎金涵蓋了過去一年中抵制AI的負面影響和無法說明的技術(shù)力量的一些關(guān)鍵時刻。這不是詳盡的清單,而是工作人員、組織者和研究人員積極抵制AI負面影響的某些方式的快照。

原文鏈接:

https://medium .com/@AINowInstitute/ai-in-2019-a-year-in-review-c1eba5107127

https://www.toutiao.com/i6749828780862210568/

網(wǎng)頁名稱:AI發(fā)展這一年:不斷衍生的技術(shù)丑聞與抵制聲潮-創(chuàng)新互聯(lián)
文章分享:http://muchs.cn/article48/djghep.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供靜態(tài)網(wǎng)站、手機網(wǎng)站建設(shè)標簽優(yōu)化、建站公司App開發(fā)定制網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

綿陽服務(wù)器托管