Cyber NINJA、只今参上

デジタル社会の世相をNINJAの視点で紐解きます。

AIのリスクコントロールモデル(後編)

 無人コンビニというのは、僕もJR山手線の高輪ゲートウェイ駅で見たことがある。店内カメラで買い物客を見ていて、客が商品を手持ちのバッグなどに入れて出口まで来たとき商品名と金額を表示する。スイカなどで支払ってもらえば、それで売買完了。

 

 基本的にはカメラ画像の認識技術なのだが、認識精度向上にAIを適用している。人工知能学会での発表内容によると、無人コンビニでのリスクシナリオは11通り考えられている。

 

1)明るさや客の動きで、商品を正しく認識できない

2)酒等年齢確認要の商品の販売で、年齢確認ができない

3)新しい地域への出店で客層や商品の変化に対応できない

4)悪意のある客による不適切な利用

5)AIの判断根拠を求められ、適切に対応できない

 

 などが挙げられていた。この1)のケースについて、Risk Structure MapやRisk Control Planを見せてもらった。その分量はかなりなもので、これを11ケースで全部作るのだろうから、大部な対策ドキュメントになろう。さらにその内容を現場に徹底することを考えれば、AI導入も楽ではないということになる。

 

    f:id:nicky-akira:20200628120720j:plain

 

 これらのMapやPlanを考えるにあたっての課題を聞くと、

 

・被害の度合いとリスクコントロールでの軽減を測る仕組みが難しい

・技術、ビジネス、法律等複数の専門家の参加が必要

・失敗事例研究がまだ不十分

 

 との答えが返ってきた。上記2)のケースは、データの不足が原因。AI顔認識でも、研究者が使うモデルは白人が多く黒人のデータが少ない。よって警察がこれを使うと黒人を冤罪で逮捕してしまうケースが多くなった。BLM運動のきっかけになる技術の未熟という例である。4)のケースなどはいたちごっこ、万引き犯が無人コンビニに精通してくると、「脆弱性」を見つけ出すことはあり得る。もちろん物理的な万引きだけでなく、サイバー攻撃を組み合わせることもありそうな話。

 

 僕が一番聞きたかったのは、5)のケース。AIの判断をあとから分析して、それを詳細に説明するというのは難しいと思っていた。どこまで説明したら「説明責任」を果たしたと言えるのか、教授も課題と認識していて今後の大きな論点だと確認した。日本語の「説明責任」という訳語が悪い(合ってない)ので、アカウンタビリテイとカタカナで表記しようというアドバイスももらいました。この議論の進捗は、また報告したいと思います。