近年來,利用算法進(jìn)行AI招聘已成為職場中的一大新熱點(diǎn),如何規(guī)避AI算法可能帶來的歧視問題成為保障就業(yè)公平面臨的一個新問題。近日,在上海市政協(xié)的一場重點(diǎn)提案督辦專題調(diào)研暨辦理推進(jìn)會上,監(jiān)管部門、行業(yè)專家以及業(yè)內(nèi)人士表示,防范AI就業(yè)歧視,需要加強(qiáng)對算法濫用的監(jiān)管、強(qiáng)化技術(shù)手段,多方面共同努力消除隱藏在算法背后的歧視。(9月12日《工人日報》)
當(dāng)前,我國互聯(lián)網(wǎng)招聘平臺快速發(fā)展。數(shù)據(jù)顯示,一些頭部平臺累計服務(wù)求職者已超過1億人次,求職有效簡歷數(shù)超過1.5億份,認(rèn)證企業(yè)接近1000萬家。利用人工智能技術(shù)進(jìn)行簡歷篩選和人力資源開發(fā)正在成為招聘領(lǐng)域發(fā)展趨勢,多家招聘平臺紛紛探索通過AI算法為數(shù)據(jù)賦能。
與傳統(tǒng)人力招聘相比,AI招聘可以大大提升人力資源開發(fā)效能,更好地對應(yīng)聘者能力與崗位需求進(jìn)行匹配。不過,任何技術(shù)都是把雙刃劍。從理論上講,AI招聘可以避免人為因素干擾,更加公平公正,但在實(shí)際操作中,倘若算法設(shè)置不夠科學(xué),反而會在客觀上造成“算法歧視”,影響就業(yè)公平。更有甚者,一些人可以通過編輯算法,將對求職者的偏見和歧視巧妙地植入AI招聘中,從而逃避就業(yè)歧視責(zé)任,讓系統(tǒng)背鍋。
這種擔(dān)心并非多余。事實(shí)上,在人工智能發(fā)展歷程中,“性別歧視”已經(jīng)不是一個新詞。2014年,美國亞馬遜公司開發(fā)了用于簡歷篩選的人工智能程序,發(fā)現(xiàn)該系統(tǒng)存在“性別歧視”,通常將男性的簡歷視為更合適的候選人。最終,亞馬遜解散了該開發(fā)團(tuán)隊(duì),棄用了這個模型。事后進(jìn)一步查實(shí),該系統(tǒng)選取了10年間的5萬個簡歷,對涉及的關(guān)鍵詞按重要程度進(jìn)行排序,這些簡歷中大部分求職者為男性,導(dǎo)致AI誤以為沒有這類關(guān)鍵詞的女性簡歷不那么重要。
避免AI招聘夾帶歧視“私貨”,首先要強(qiáng)化技術(shù)手段,確保算法公正。近年來,國家網(wǎng)信辦等部門先后出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,持續(xù)開展企業(yè)算法排查整治專項(xiàng)行動?!吨笇?dǎo)意見》要求,建立算法備案制度,梳理算法備案基本情況,健全算法分級分類體系,明確算法備案范圍,有序開展備案工作;組織建立專業(yè)技術(shù)評估隊(duì)伍,深入分析算法機(jī)制機(jī)理,評估算法設(shè)計、部署和使用等應(yīng)用環(huán)節(jié)的缺陷和漏洞,研判算法應(yīng)用產(chǎn)生的意識形態(tài)、社會公平、道德倫理等安全風(fēng)險,提出針對性應(yīng)對措施。
有關(guān)部門應(yīng)盡快構(gòu)建算法安全風(fēng)險監(jiān)測、算法安全評估、科技倫理審查、算法備案管理和涉算法違法違規(guī)行為處置等多維一體的監(jiān)管體系,進(jìn)一步規(guī)范算法生態(tài),確保導(dǎo)向正確、公平公正。
其次,加強(qiáng)執(zhí)法監(jiān)管,提高違法成本。AI招聘歧視具有一定隱蔽性,有關(guān)部門必須加強(qiáng)監(jiān)管,打消一些企業(yè)的僥幸心理。前不久美國首起AI招聘歧視案中,我國在線教育機(jī)構(gòu)麥奇教育科技與美國平等就業(yè)機(jī)會委員會達(dá)成和解。麥奇教育科技因招聘軟件算法會自動拒絕55歲以上的女性和60歲以上的男性求職者,被判賠36.5萬美元,用于補(bǔ)償被拒的應(yīng)聘者。反觀國內(nèi),有關(guān)部門也應(yīng)加大線上執(zhí)法檢查力度,對于涉嫌就業(yè)歧視的企業(yè)予以依法處罰,營造風(fēng)清氣正的AI招聘環(huán)境。
(編輯:月兒)