加入最愛專欄  收藏文章 

2018-10-18

【人工智能太可怕】智能叛變將成真? 原來AI都會有性別歧視

  近年AI 被廣泛利用於不同嘅行業,而AI最利害亦最可怕嘅地方,係電腦能夠通過一連串嘅資料收集同分析,再進行自我學習及改良。但喺電腦自我進化嘅過程中,有時會遠超人類想像,有自我嘅取向。

 

  世界級科技巨頭Amazon,利用AI作業已經係家常便飯嘅事,近年Amazon亦利用AI於應徵請人之上。電腦系統會幫應徵者嘅CV評分,透過分析CV上嘅keywords去將應徵者分類,作初步評估後進行配對,篩選出適合嘅應徵者,配上適合嘅工作崗位。最後AI系統亦會收集CV上嘅資料同面試成功率等等,再自我改良評分嘅方法同準則。理論上該AI系統非常完善同有效,但最近Amazon發現,沿用多年嘅AI系統竟然出現嚴重漏洞,發現AI 評分時有性別歧視嘅問題,最終決定停用。

 

  公司調查後發現,AI對CV評分時,明顯地對女性有偏見。當AI知道CV屬男性應徵者,會自動給予較高嘅評分。除此之外,CV上如果出現傾向女性主導嘅字眼,亦可能因此而被AI扣分。究竟問題根源出現喺邊度,而令本身只係一張白紙、無特別取向嘅電腦系統,會有歧視嘅行為?原來根源在於AI自我學習過程之中。

 

  以科技為主嘅Amazon,多年來男性員工遠比女性為多,而應徵者嘅男女比例,亦係男多女少。基於以上兩個原因,男性應徵者嘅成功個案必定比女性多,如是者AI喺學習過程中,不其然認為男性應徵者比女性為好,久而久之,AI 自自然然地給予男性較高嘅分數。雖然Amazon發現問題後亦對AI系統作修改,令系統唔能夠分別出男女,但可能因為AI已經學習「完畢」,「根深蒂固」嘅情況難而改變,所以Amazon最後決定停用該AI系統。

 

  類似事件,Amazon並非唯一,Facebook 亦有試過。而AI出現唔中立嘅情況,好多時都係因為系統未有一個成熟嘅學習機制所引致。雖然電腦並無感情,正常情況下唔會有歧視或偏見,但見工、面試係一個十分人性嘅過程,牽涉著好多人與人之間嘅交流,電腦有時亦難而取代。AI 係人類未來嘅大趨勢,但相信仍需一段較長嘅時間,先有足夠嘅成熟程度去取代人手。不過未來若然真係出現完美嘅AI系統 ,相信可能會比非完美嘅AI更為可怕。

 

 

 《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。

【香港好去處】etnet全新頻道盛大推出!全港最齊盛事活動資訊盡在掌握!► 即睇

更多我做Marketing文章
你可能感興趣
#數碼營銷 #AI #職場 #人工智能 #科技
編輯推介
即時報價
全文搜索
Search
最近搜看
傾力救市
大國博弈
More
Share