速記AI課程-手把手的機器學習(三)

機器學習的傲慢與偏見

又是一位跨領域的高手,台大心理黃從仁教授,來跟大家分享機器學習的黑暗面,以及怎麼樣透過心理學的技巧來減少機器學習的偏見,是非常新穎有趣的題目!(看完以下專訪也不意外了)

因為傳統招聘為了瞭解面試者的人格特質,需要進行非常多的問卷與測試,非常耗時,因此透過機器學習快速分析面試者人格成了人資領用的應用新歡。

以聯合利華招聘為例,初階員工已開始採用AI方式來協助。首先面試者會先被導引到 Pymetrics玩一下電動,透過遊戲了解你的風險接受程度(沒有對錯)來判斷適合的職位;接著再透過HireVue進行沒有主考官的視訊面試,回答一些標準問題,作答時的表情、聲音、語調等等細節都會被記錄下來(且分析)。上述兩關的資料會經過AI判定後,將合格者交給人類決定誰可以進入最後一關的真人面試。

沒有主考官但更恐怖的面試…

看似完美的AI招聘,背後會有什麼問題呢?簡單來說,就是AI不準確怎麼辦?若機器學習過程中發生問題,導致效果不好(即所謂偏見),該怎麼發現與彌補?

黃提出兩個方法。一是採用End-to-End的模型,二是研究機器學習的黑盒子。

現今的AI招聘,多是透過性格或能力的分析與預測,來找出未來工作上表現好的員工。不過,許多臉部特徵對於性格或能力的預測,效果其實都不好,如臉的寬高比對於是否誠實或上進關聯度極低(打臉面向學?)。

因此,如果直接把機器學習的預測模型,轉換成透過個人資料,直接預測工作表現的話,跳過了中間的性格或能力預測,減少預測誤差,應該會是更精準的預測方式。

第二種方法可以從預測員工離職來看。因為離職員工比例較少,資料不多就可能因為Imbalanced data造成精準度好像很高的偏誤。或是當哪天機器判定你不再適任此份工作,要如何確定它的決策是否有偏誤?(好像關鍵報告的情節)

黃建議可以以研究人的方法來研究機器學習(或說深度學習)的黑盒子(神經網路)。

以機器判定照片上的人美不美為例,利用SCUT-FBP的顏值資料庫搭配CNN預測顏值,其準確度高達八成(r=0.82左右)。如何檢驗CNN內部的複雜參數呢?透過各種已知的顏值判定理論(假說)。

在資料庫內且顏值不高分者,不知道看到分數會做何感想…

假說1,人臉越對稱越好看。因此,把人類與機器對資料庫中各人臉的對稱與顏值分數,計算其相關係數,檢驗是否機器與人類的看法相同。若結果跟人類差不多,代表模型審美觀還不至於太怪…

假說2,一白遮三醜。透過照片的HSV( 色相、飽和度、明度)色彩空間,發現照片亮度與顏值相關,但飽和度較不相關,與人類審美觀也還算接近。

因此,重點在於可以透過各種心理學的技巧,來大概推測機器判斷的依據,避免造成偏見。

商管 * 科技 | 顧問 + 稽核 | AI X Fraud | baubimedi@gmail.com

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store