導入AI所面臨之七大風險與可能因應之道(下)

那該怎麼辦?

這七大風險之中,以下六項的解決方案都跟技術無關,都不是技術問題,而是管理議題。要用管理、用策略,而非更強悍的科技,來解決黑科技AI所帶來的風險,是否很令人意外呢?

  1. 「不導淘汰」:那就別廢話了,趕快研究一下有哪些應用可以強化公司的競爭力,然後盡速啟動吧!
  2. 「威脅加劇」:在開發相關的工具或服務時,也要假設競爭對手、駭客或是無聊人士,也會利用AI來試圖破解或破壞,防禦之道也不一定只有高大上的技術。
  3. 「投報率低」:先針對公司存在已久的「痛點」,或是高層可以看到(或希望別人看到)的「亮點」小範圍快速試做,迅速取得成果後,才有機會逐漸擴大範圍。
  4. 「個人隱私」:要使用個資前,一定要告知使用者,並取得同意。這點其實並不難,反正也沒人會看使用者條款,都直接同意,把要蒐集的資料跟利用方式盡量寫吧!
  5. 「負面意外」:如果不是市場第一個推出的產品,只要花點心思看一下競品發生的問題,就可以避免了。
  6. 「道德兩難」:既然沒有一定標準,要如何遵從起呢?選邊站?

只有「偏見歧視」這一個風險,用技術來解,會簡單許多。我們都知道,深度學習所使用的「隱藏層」越來越多,這麼多複雜的節點跟權重所構成的模型,早已超越人類所能理解的範圍,決策過程全然是一個「黑盒子」,自然也無從驗證模型是否具有「偏見歧視」。

目前已有三大類方式可以避免模型產生偏見,分別是可解釋AI、資料偏見檢查與假設回推。

  1. 可解釋AI (Explainable AI,又簡為XAI)

目前的模型也許判斷能力很強,但是它說不出為什麼,很像一個不太會教書但很會研究的超強教授。而DARPA(發明網路的美國國防部下屬研究機構)的XAI五年計畫,就是希望未來產生的模型,可以解釋為什麼自己會做出這樣的判斷、依據為何。

舉例來說,假設我們輸入一張如下的青蛙抱愛心照片,傳統的視覺辨識模型只會告訴我們,它是樹蛙的機率有54%,7%可能是撞球,5%是氣球。而XAI應該可以告訴我們,它看了圖片的哪些部分(如頭跟大眼)所以認為是樹蛙、哪些部分是撞球或氣球,讓我們知道它怎麼判斷的。

當然,以下實作不是XAI完整的研究成果,僅是影像辨識領域中,一種被稱為LIME的新技術。

2. 偏見檢查

偏見的來源,很多時候是訓練資料造成的,如前面提到的法官輔助量刑軟體COMPAS,裡面一定多半都是黑人罪犯的資料,模型自然具有偏見。因此市面上已有工具可以協助我們檢查,用來訓練的資料集是否本身就具有問題。

AI Fairness 360就是一個不錯的工具。在官網的Demo中,可以針對知名的資料集(如COMPAS),進行是否對特定屬性(性別、種族等)具有歧視的檢查,並且可以利用統計技巧,協助修正為不歧視的資料集,非常強悍。

下圖為COMPAS資料集的檢查結果,在五個指標中,有四個都說男性被歧視,黑人也被歧視,所以黑男被雙重歧視。

3.假設回推

XAI還沒出來,也沒錢買偏見檢查工具怎麼辦?

只能土法煉鋼,用已知的假設來回推吧。舉例來說,你用了以下的顏值資料庫來訓練幫人顏值打分的模型。訓練完成之後,你拿林志玲跟如花的照片出來試試,結果如花的分數居然高於志玲姊姊。你懷疑莫非模型居然知道她已婚,所以大扣分?

於是,你開始用傳統的審美觀來推論,對於這個模型來說什麼因素最重要。俗話說「一白遮三醜」,於是你拿了很白的醜女跟比較黑的美女餵給模型,發現只要是白的人分數就高,不管好不好看,代表這個模型從訓練資料學來的觀念就是「白=美」。再看看林志玲跟如花的照片,發現志玲姐姐照片的亮度遠低於如花,因此就發現模型的偏見了!

不過,這個方法的缺點就是,必須要出現非常違背常理的判斷,才有機會檢查出來。而且,有時違背常理不一定錯,合乎常理也不一定對(想想COMPAS),所以最不推薦這個方法。

結語

談風險,很多人會認為是烏鴉嘴,吃飽撐著。不過,看完上述實際發生的案例,就可以明白風險其實就是機會,只要你做好準備,少出包,就是比別人少退後一步,自然就是競爭力。

商管 * 科技 | 顧問 + 稽核 | AI X Fraud | baubimedi@gmail.com

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store