Cyber NINJA、只今参上

デジタル社会の世相をNINJAの視点で紐解きます。

AIのリスクコントロールモデル(前編)

 AI:人工知能の能力はまだまだ発展するだろうし、適用分野もどんどんひろがっていくことが期待されよう。そうなるには技術的な問題よりも、社会がそれを容認できるかという要素の方が大きく影響する。一般に新技術が出てくると、その普及の障害になるのは市民の意識だ。

 

https://bunshun.jp/articles/-/38666

 

 「COVID-19」対策で導入された接触確認アプリについて、経団連会長が「政府は腰が引けている」と非難したのも、技術の良しあしもあるが市民にどう説明するかがより重要なことを意識してのものだ。このアプリなど、スマホブルートゥースの通信機能を使って、1m以内15分以上スマホ同士が近くにいたことを記録しておくだけの単純な機能。それでさえ「説明責任」を果たしていないということだ。

 

 ましてやAIのようにわけの分からないものについては、利用者の不安は大きいだろう。だから開発者・運用者には「AIの倫理」と「説明責任」を求める声が高まる。でもこれって具体的な事例で議論しないと、一般論では決着しないと思っていた。例えば死刑判決をAIが出したケースと、囲碁の着手をAIが好手/悪手と判断したケースでは、倫理や説明責任の重さが違う。

 

    f:id:nicky-akira:20200628113729j:plain

 

 そんな議論どこかでしていないかなと聞いてみたら、先月の人工知能学会でセッションがあったと教えてもらった。そのセッションの中心となった大学教授から、面白い話を聞くことができた。提唱しておられるのは「リスクコントロールモデル」。

 

1)Risk Assessment :

 AIサービスに係る情報(利用目的、ユーザー、データ、モデル、出力内容)からリスクシナリオを導き出す。


2)Risk Chain on the Structure Map :

 リスクシナリオに係るプロセスを識別する。


3)Risk Control Plan :

 リスクチェーンを元に、リスクシナリオに対応する重要なコントロールを検討する。

 

 という3つのステップがある。検討対象となるAIサービスは、無人コンビニのような身近なものから、熟練工の擬人化(昔でいうエキスパートシステム?)、政策提言のように高度なものまで幅広い。

 

<続く>