像任何新技術(shù)一樣,人工智能能夠產(chǎn)生巨大的好壞。公眾似乎越來(lái)越關(guān)注壞處,尤其是在談到AI的潛在偏見(jiàn)時(shí)。這種擔(dān)憂是有充分根據(jù)的,也是有據(jù)可查的。但是什么是AI?它是機(jī)器對(duì)人類過(guò)程的模擬。這種對(duì)有偏見(jiàn)的AI的恐懼忽略了一個(gè)關(guān)鍵事實(shí):AI產(chǎn)生偏見(jiàn)的最深層次原因是它正在模擬的人類行為。它是用于訓(xùn)練算法的有偏見(jiàn)的數(shù)據(jù)集。如果您不喜歡AI所做的事情,那么您肯定會(huì)不喜歡人類的所作所為,因?yàn)锳I純粹是在向人類學(xué)習(xí)。
讓我們專注于招聘。招聘的現(xiàn)狀存在嚴(yán)重缺陷,坦率地說(shuō),反烏托邦主義的原因主要有三個(gè)。
無(wú)意識(shí)的人為偏見(jiàn)使招聘變得不公平。在面試之前對(duì)申請(qǐng)人進(jìn)行審查的典型方法是通過(guò)招聘人員對(duì)簡(jiǎn)歷進(jìn)行審查。大量研究表明,這一過(guò)程導(dǎo)致對(duì)婦女,少數(shù)民族和老年工人的重大無(wú)意識(shí)偏見(jiàn)。
申請(qǐng)人大池被忽略。LinkedIn和其他采購(gòu)平臺(tái)非常成功,平均有250名申請(qǐng)人申請(qǐng)任何公開(kāi)職位。這轉(zhuǎn)化為數(shù)以千計(jì)的公開(kāi)職位申請(qǐng)者。顯然,此過(guò)程無(wú)法手動(dòng)處理。因此,招聘人員將他們對(duì)申請(qǐng)人池的審查限制在他們認(rèn)為將顯示出最大希望的10%到20%:來(lái)自常春藤盟校區(qū)的人才,尋求填補(bǔ)職位的公司競(jìng)爭(zhēng)對(duì)手的被動(dòng)應(yīng)聘者或員工推薦計(jì)劃。但猜猜怎么了?與提交簡(jiǎn)歷的申請(qǐng)人數(shù)量相比,頂尖的大學(xué)和員工推薦計(jì)劃的多樣性要少得多。
傳統(tǒng)的招聘工具已經(jīng)偏向。這是由美國(guó)法律的一個(gè)漏洞允許的:聯(lián)邦法律聲明,如果是與工作相關(guān)的租用工具可以偏頗。“與工作相關(guān)”是指成功完成某個(gè)角色的人具有某些特征。但是,如果所有“成功的員工”都是白人,由于人類在聘用習(xí)慣上的偏見(jiàn),那么幾乎可以肯定的是,與工作相關(guān)的聘用評(píng)估將偏向于白人,而不是白人和白人。來(lái)自非常春藤盟校的一名非洲裔美國(guó)婦女很幸運(yùn)地成為了人才的一部分,其簡(jiǎn)歷得到了審查,并且通過(guò)了招募人員評(píng)估她的簡(jiǎn)歷的候選人,然后可能會(huì)被要求進(jìn)行有偏見(jiàn)的評(píng)估。
難怪我們要雇用多樣化的勞動(dòng)力嗎?導(dǎo)致當(dāng)今長(zhǎng)期缺乏多樣性的因素以及將繼續(xù)阻礙多樣性的因素是當(dāng)今存在的人類范式,而不是人工智能。
人工智能最大的希望是消除招聘偏見(jiàn),其主要原因有兩個(gè):
1.人工智能可以消除無(wú)意識(shí)的人類偏見(jiàn)。當(dāng)前許多用于招聘的AI工具都有缺陷,但是可以解決。AI的優(yōu)點(diǎn)在于我們可以設(shè)計(jì)它以滿足某些有益的規(guī)范。像OpenAI和未來(lái)人生研究院這樣的AI從業(yè)者之間的運(yùn)動(dòng)已經(jīng)提出了一套設(shè)計(jì)原則,以使AI符合道德規(guī)范和公平(即,對(duì)所有人有利)。一個(gè)關(guān)鍵原則是應(yīng)設(shè)計(jì)AI,以便對(duì)其進(jìn)行審核并消除其中的偏見(jiàn)。AI審核的功能應(yīng)與新車開(kāi)車前的安全測(cè)試一樣。如果不符合標(biāo)準(zhǔn),則必須先修復(fù)有缺陷的技術(shù),然后才能將其投入生產(chǎn)。
2. AI可以評(píng)估候選人的整個(gè)流程,而不是強(qiáng)迫時(shí)間緊迫的人員實(shí)施有偏見(jiàn)的流程以從一開(kāi)始就縮小流程。只有使用真正的自動(dòng)化漏斗處理程序,我們才能消除因收縮初始管道而造成的偏差,因此手動(dòng)招聘人員的能力可以處理它。令人震驚的是,如今的公司毫不掩飾地承認(rèn),數(shù)以百萬(wàn)計(jì)的申請(qǐng)者中只有一小部分受到審查。技術(shù)人員和立法者應(yīng)共同努力,創(chuàng)建工具和政策,使對(duì)整個(gè)管道的審查成為可能和強(qiáng)制性。
此外,對(duì)AI公平性的關(guān)注應(yīng)該使我們以相同的標(biāo)準(zhǔn)評(píng)估現(xiàn)有的聘前評(píng)估。美國(guó)平等就業(yè)機(jī)會(huì)委員會(huì)(EEOC)于1970年代制定了現(xiàn)行的公平招聘條例,當(dāng)時(shí)公共互聯(lián)網(wǎng)問(wèn)世,而申請(qǐng)每種工作的人數(shù)激增。EEOC沒(méi)想到現(xiàn)代算法比人類更容易偏見(jiàn),但也能夠評(píng)估更大,更多樣化的管道。我們需要更新和闡明這些規(guī)定,以真正鼓勵(lì)招聘中的機(jī)會(huì)均等,并允許使用符合明確標(biāo)準(zhǔn)的算法招聘系統(tǒng)。標(biāo)準(zhǔn)的一些先例已經(jīng)出現(xiàn)。加利福尼亞州議會(huì)通過(guò)決議為了使用公正的技術(shù)來(lái)促進(jìn)招聘的多樣性,舊金山DA在刑事司法程序中使用了“盲判”人工智能。
相同的標(biāo)準(zhǔn)應(yīng)適用于現(xiàn)有的招聘工具。亞馬遜因其男性偏見(jiàn)的招聘算法而在全國(guó)范圍內(nèi)受到了沉重的打擊。然而在當(dāng)今的美國(guó),法律上允許雇主使用歧視婦女或少數(shù)族裔的傳統(tǒng)偏見(jiàn)評(píng)估。怎么會(huì)這樣?可能是因?yàn)榇蠖鄶?shù)人不知道偏見(jiàn)的評(píng)估被廣泛使用(和合法)。如果我們要呼吁無(wú)偏的AI(我們絕對(duì)應(yīng)該這樣做),我們還應(yīng)該呼吁消除所有有偏見(jiàn)的傳統(tǒng)評(píng)估。