應用

技術

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

新華社評論:AI犯錯不可怕 反躬自省糾正它

2018-10-19 14:57 新華網(wǎng)

導讀:人工智能也是人類的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類提供了在更深的層面反省自己的契機。這次亞馬遜的案例就讓人認識到原來即便在倡導了幾百年男女平權的西方社會,性別歧視問題依然如此嚴峻。

最近,亞馬遜招聘軟件被爆出具有“重男輕女”的傾向,給女性求職者打低分。這一時刷新了人們對人工智能更加客觀科學的看法。按照亞馬遜研究團隊最初的設想,給招聘軟件輸入100份簡歷,它會吐出前5名,然后公司就可優(yōu)先雇用他們,這將大大緩解人力資源部門的壓力,結果卻事與愿違。

現(xiàn)在不少大公司或許沒有亞馬遜這般“一攬子”解決選才問題的雄心,但在招聘過程中,通過人工智能來篩選簡歷、推薦崗位,卻是習以為常的事。在許多招聘者看來,人工智能可以減少招聘人員主觀意見的影響。但亞馬遜的失敗案例,為越來越多正在尋求自動化招聘流程的大型公司提供了一個教訓。同時,也促使人們反思技術倫理層面的算法公平問題。顯然,在亞馬遜的案例中,人工智能不僅繼承了人類社會的偏見,而且把這種偏見進行了“提純”,使它更加“精準”而“直接”。

更關鍵的是,人類的偏見經(jīng)過算法“洗地”之后,又披上了貌似客觀公正的“科學技術”的外衣。實際上,在有偏見的數(shù)據(jù)基礎上訓練出來的系統(tǒng),也必然是有偏見的。比如,此前就爆出過微軟的聊天機器人Tay,在與網(wǎng)友的廝混中很快就學了滿嘴臟話,以及種族主義的極端言論,在推特上咒罵女權主義者和猶太人。這提醒我們注意,算法處理的數(shù)據(jù)是具有人類社會特點的,發(fā)展人工智能也好,運用算法也罷,必須目中有“人”,也就是要充分考慮到作為人工智能開發(fā)者的人類的局限性,以及這種局限性在人工智能中的“遺傳”。

有人說,孩子是父母的鏡子。人工智能也是人類的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類提供了在更深的層面反省自己的契機。這次亞馬遜的案例就讓人認識到原來即便在倡導了幾百年男女平權的西方社會,性別歧視問題依然如此嚴峻。

人工智能不可能只在脫離現(xiàn)實人類語境的真空中使用,否則,人工智能也就失去了它的意義。而在可預計的將來,把人類自身推向完美也不過是美好的夢想。那么,如何克服人工智能自我學習中的這些問題,讓不完美的人類創(chuàng)造出接近完美的人工智能,就成為必須攻克的重要課題。

其實,以不完美創(chuàng)造完美,正是人類這個物種高明的地方。這一切的實現(xiàn),不是靠反智的玄想,而是靠不斷地打補丁和修復,在科技進步中克服科技前行產生的漏洞。2017年曾有報道披露,在Google Image上搜索“doctor”,獲得的結果中大部分都是白人男性。這實際上反映了醫(yī)生總是與男性相連,護士總是與女性相連的社會現(xiàn)實。后來,通過修改算法,基本解決了這一問題。

進而言之,人工智能的漏洞被及時發(fā)現(xiàn)和得到糾正,有賴于科技政策和機制的進一步規(guī)范。在這個問題上,倡導算法在一定限度內的透明和可解釋性,不失為可行之策,同時還應加快建立人工智能犯錯追責機制。比如,日本已經(jīng)把AI醫(yī)療設備定位為輔助醫(yī)生進行診斷的設備,規(guī)定AI醫(yī)療設備出錯,由醫(yī)生承擔責任。這一做法是否完全合理,值得探討。但是,提高算法問責的意識并將之納入人工智能發(fā)展規(guī)劃和頂層設計,確為人工智能長遠發(fā)展并造福于人的必要舉措。