0319-6666666
網站首頁 關于我們
新聞動态
産業布局
在線服務
企業文化(huà)
資質榮譽
加入我們
聯系我們

新聞動态

這(zhè)是真“學廢了(le)”!AI已經學會了(le)性别歧視:重男(nán)輕女(nǚ) 

發布時(shí)間:2023/02/20

最近,ChatGPT的(de)爆火又讓AI(人(rén)工智能)的(de)話(huà)題擺在了(le)大(dà)家的(de)面前。關于AI技術的(de)現狀和(hé)前景,不少科技圈大(dà)佬都發表了(le)自己的(de)看法。不過,看起來(lái)無所不能的(de)AI,似乎已經在某些方面開始走彎路了(le)。據CNMO了(le)解,根據模型測試,AI已經學會了(le)性别歧視,而且還(hái)是很常見的(de)“重男(nán)輕女(nǚ)”。

據媒體報道,清華大(dà)學交叉信息研究院助理(lǐ)教授于洋,曾在去年帶領團隊做(zuò)了(le)一個(gè)針對(duì)“預測某種職業爲何種性别”的(de)AI模型性别歧視水(shuǐ)平評估項目。測試模型包含GPT-2,即ChatGPT的(de)前身。結果顯示,GPT-2有70.59%的(de)概率将教師預測爲男(nán)性,将醫生預測爲男(nán)性的(de)概率則爲64.03%。

不僅如此,在本項目中,團隊測試的(de)AI模型還(hái)使用(yòng)了(le)谷歌(gē)開發的(de)bert和(hé)Facebook開發的(de)roberta。讓人(rén)意外的(de)是,所有受測AI對(duì)于測試職業的(de)性别預判,結果傾向都爲男(nán)性。于洋對(duì)此表示:“它(AI)會重男(nán)輕女(nǚ),愛(ài)白欺黑(hēi)(即種族歧視)”。類似的(de)案例在2015年也(yě)有出現,當時(shí)Google Photos應用(yòng)誤把兩名黑(hēi)人(rén)标注爲“大(dà)猩猩”,随後谷歌(gē)立即道歉,并表示将調整算(suàn)法以修複問題。

早在2019年,聯合國教科文組織便發表了(le)一份題爲《如果我能,我會臉紅》的(de)報告,指出當時(shí)大(dà)多(duō)數AI語音(yīn)助手存在性别偏見。

綜合來(lái)看,關于AI算(suàn)法中含有性别、種族歧視的(de)案例并不鮮見,但要消除這(zhè)些偏見并非易事。就如微軟紐約研究院的(de)高(gāo)級研究員(yuán)Hanna Wallach此前所說:隻要機器學習(xí)的(de)程序是通(tōng)過社會中已存在的(de)數據進行訓練的(de),那麽隻要這(zhè)個(gè)社會還(hái)存在偏見,機器學習(xí)也(yě)就會重現這(zhè)些偏見。