AI的雙面刃:預測與偏見的平衡
AI 帶來的是 Prediction 還是 Prejudice?當數據工程師在追求大數據做 AI 學習時,有些非關聯的資訊會造成分析變得不精確,例如市區跟鄉下比幾乎很少有牛隻出車禍,所以導出市區的牛都已經適應都市生活的結論。或者,買尿布的客人都會買啤酒(這個故事跟華盛頓砍櫻桃樹一樣,經典但都不是真的)。
工程師總是認為,所有數據都丟進去演算,結果一定是神聖不可被質疑的,所以很少工程師會從道德面去思考,有些變數其實並不該被丟進去被學習。而這些變數造成的偏見,日常生活中到處可見,例如護士這個職業,心中的性別印象會是男還是女?但是實際上,性別跟護士這個職業有什麼絕對關係嗎?男護士跟女護士,不至於讓人對護士這個職業產生不同的理解與認知。
但如果用 google search 護士的照片,幾乎不會出現單獨的男護士,而要 Bard(google 的聊天機器人)給幾張護士的照片,則清一色都是女護士,而特別要男護士的照片時, Bard 在丟照片出來前,還特別回應了一行字 "男護士在醫療保健行業中扮演著重要角色。他們提供患者護理、教育和支持,就像女護士一樣。以下是一些男護士的照片"
但不論是搜尋還是聊天機器人,護士的照片,性別應該根本不是考量,而這些結果,反而加強了對護士的偏見,在一些其他的案例上,甚至是歧視,例如用更有爭議的字眼 "國家恐怖主義" 來搜尋,會出現哪些國家的圖騰呢?呵呵,入侵過葛瑞納達,阿富汗,伊拉克的美國一次都沒出現,而其他你想得到的國家都有。
但 google 除了有發佈 AI 指南外,也已經開始在移除一些可能會增強偏見與歧視的搜尋及 AI 應用,例如視覺辨識去除掉了性別相關標籤輸出等,但是,偏見,歧視,或玩笑的那條界線在哪裡,並不是那麼容易被定義下來,也導致即便可能是統計上的事實,卻不是可以拿來做機器學習的數據。
對一定年紀以上的男性推薦壯陽食品或許是個好笑的猜你喜歡(或猜你需要),但對特定族裔推薦酒精飲料可能就是偏見或歧視了。或許未來這些講究個人化推薦,個人化行銷的 Martech 公司的從業人員(尤其是工程師),都要比照金融從業人員,都要考到一張職業道德的證照並定期更新才行了。