人工智能該如何遠(yuǎn)離偏見(jiàn)與歧視

  來(lái)源:文匯報(bào)作者:伊麗莎白·艾塞萊2018-10-15
打印本文
核心提示:越來(lái)越多的高技術(shù)產(chǎn)業(yè)和數(shù)字服務(wù)都以人工智能和機(jī)器學(xué)習(xí)為基礎(chǔ)。但是,我們必須看到:人類社會(huì)存在的偏見(jiàn)和歧視也會(huì)被復(fù)制到人工智能系統(tǒng)中。因此,我們應(yīng)對(duì)人工智能的整個(gè)程序進(jìn)行監(jiān)管,包括信息輸入輸出、數(shù)據(jù)、算法、模型等,以克服偏見(jiàn)與歧視在人工智能領(lǐng)域的延續(xù)。

 越來(lái)越多的高技術(shù)產(chǎn)業(yè)和數(shù)字服務(wù)都以人工智能和機(jī)器學(xué)習(xí)為基礎(chǔ)。但是,我們必須看到:人類社會(huì)存在的偏見(jiàn)和歧視也會(huì)被復(fù)制到人工智能系統(tǒng)中。因此,我們應(yīng)對(duì)人工智能的整個(gè)程序進(jìn)行監(jiān)管,包括信息輸入輸出、數(shù)據(jù)、算法、模型等,以克服偏見(jiàn)與歧視在人工智能領(lǐng)域的延續(xù)。

在人工智能問(wèn)題上,有個(gè)所謂 “黑盒子”的問(wèn)題,即我們不能看到程序算法的內(nèi)部,因此無(wú)法理解人工智能是如何做出決策的。如果沒(méi)有解決好這個(gè)問(wèn)題,一些涉嫌歧視的數(shù)據(jù)將被算法永久性地編碼進(jìn)人工智能程序中,從而影響未來(lái)人類與人工智能的關(guān)系。不過(guò),僅靠純粹的技術(shù)手段,很難實(shí)現(xiàn)對(duì)人工智能的每個(gè)階段實(shí)現(xiàn)無(wú)漏洞監(jiān)控,同時(shí)還需通過(guò)人工評(píng)估和干預(yù),才能確保偏見(jiàn)和歧視被徹底消除。
要消除人工智能潛在的歧視問(wèn)題,第一步是打開(kāi)算法“黑匣子”。出于專利保護(hù)和商業(yè)機(jī)密的考慮,許多公司的人工智能程序算法都處于保密狀態(tài)。不過(guò),這一狀況正得到改變,目前人工智能領(lǐng)域正在加快代碼的開(kāi)源,制定新的透明度標(biāo)準(zhǔn),來(lái)提高人工智能產(chǎn)品的可靠性。AI NOW是美國(guó)紐約大學(xué)一個(gè)倡導(dǎo)算法公平的非營(yíng)利組織,它提倡 “程序員必須對(duì)算法得出的結(jié)論做出解釋,否則就不能投入使用”。
目前,相當(dāng)一部分互聯(lián)網(wǎng)巨頭開(kāi)始正視這一點(diǎn)。如谷歌開(kāi)發(fā)的幾個(gè)人工智能項(xiàng)目,程序員為機(jī)器學(xué)習(xí)增加了手動(dòng)限制,使輸出的信息更準(zhǔn)確,可理解性更高。美國(guó)國(guó)防部高級(jí)研究計(jì)劃局還資助了一項(xiàng)名為XAI(可解釋的人工智能)的計(jì)劃,旨在打開(kāi)人工智能的 “黑匣子”,以保證用戶更好地控制人工智能程序。微軟首席執(zhí)行官薩蒂亞·納德拉也認(rèn)可 “算法問(wèn)責(zé)制”的必要性。
但通過(guò)打開(kāi)算法 “黑匣子”,制定法規(guī)和政策來(lái)確保消除人工智能的偏見(jiàn)和歧視,這還遠(yuǎn)遠(yuǎn)不夠。因?yàn)槠?jiàn)與歧視不光存在于算法中,還存在于人工智能得出的結(jié)論、預(yù)測(cè)和建議中。
以虛擬助手為例,處理比較簡(jiǎn)單的任務(wù)時(shí),人工智能系統(tǒng)會(huì)偏向使用女聲(例如Apple的Siri和亞馬遜的Alexa);而解決疑難問(wèn)題時(shí),系統(tǒng)則選用男聲(例如IBM的Watson和微軟的愛(ài)因斯坦)。由于在人工智能行業(yè)女性從業(yè)人數(shù)偏少,這更是增加了性別歧視的可能性。
鑒于此,我們應(yīng)加強(qiáng)對(duì)人工智能所使用的數(shù)據(jù)、算法以及模型的評(píng)估,以剔除潛在的可導(dǎo)致偏見(jiàn)與歧視的因素,并且加強(qiáng)程序員的 “算法問(wèn)責(zé)制”,這樣才能提高人工智能產(chǎn)品的可靠性,最終建立起人機(jī)信任。


(作者:伊麗莎白·艾塞萊 英國(guó)皇家國(guó)際事務(wù)研究所;上海全球治理與區(qū)域國(guó)別研究院 劉琳 編譯)
                           (編輯:紅研)

    人工智能該如何遠(yuǎn)離偏見(jiàn)與歧視
 
[責(zé)任編輯: 315xwsy_susan]

免責(zé)聲明:

1、本網(wǎng)內(nèi)容凡注明"來(lái)源:315記者攝影家網(wǎng)"的所有文字、圖片和音視頻資料,版權(quán)均屬315記者攝影家網(wǎng)所有,轉(zhuǎn)載、下載須通知本網(wǎng)授權(quán),不得商用,在轉(zhuǎn)載時(shí)必須注明"稿件來(lái)源:315記者攝影家網(wǎng)",違者本網(wǎng)將依法追究責(zé)任。
2、本文系本網(wǎng)編輯轉(zhuǎn)載,轉(zhuǎn)載出于研究學(xué)習(xí)之目的,為北京正念正心國(guó)學(xué)文化研究院藝術(shù)學(xué)研究、宗教學(xué)研究、教育學(xué)研究、文學(xué)研究、新聞學(xué)與傳播學(xué)研究、考古學(xué)研究的研究員研究學(xué)習(xí),并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。
3、如涉及作品、圖片等內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)作者看到后一周內(nèi)來(lái)電或來(lái)函聯(lián)系刪除。