Cyber NINJA、只今参上

デジタル社会の世相をNINJAの視点で紐解きます。

AI政策ラウンドテーブル(後編)

 それにしてもAIは一定のアルゴリズムではなく、もっと広い知識や刻々変わる状況を鑑みて最適解を出すものだ。その結論にいたったプロセスは、僕から見れば「ブラックボックス」。果たして再現性があるかどうかも保証できない。

 

 それについて「Accountability」と言われても何をどうしたらいいのか分からなかった。例えば、株式投資AI、その企業が赤字決算になったら売りというなら人間でもできる。しかし某国大使館で投石事件があり、これが紛争につながってそこからの原材料が滞る。それゆえある企業が操業を短縮、1か月後にその地域の景気が落ち込む・・・などというプロセスをAIが瞬時に看破して売りに転じるなら、これは容易に説明できない。

 

 だから「Accountability」にも「Ethics」にも違和感があって、悩みながら議論を聞いていた。光明が差したのは、憲法学者の先生の説明を聞いたとき。彼はデータと個人の基本的人権にこだわって保護をする欧州と、表現の自由を重んじてデータ(意見)の流通を確保しようとする米国の違いを説明した。

 

    f:id:nicky-akira:20191114172518j:plain

 

 それでこの人たちは「データ=個人情報」と考えているのだと分かった。続いてあるベンダーが、「AI倫理を追求していったら、1970年代に確立した生命倫理とほぼ同じものができた」という。ここまでくれば「データ=個人情報」ということははっきりした。

 

 はっきりしたのはいいのだが、BtoB型の企業であれば個人情報でないデータを使ったAIシステムの開発・運用は当然ある。そこにまで「Accountability」と「Ethics」を強要されたらコスト高になって仕方がない。ここはデータの種別を分けて考えてほしいと思う。そう言う議論ができて考え方が確立するまでは非個人情報活用AIシステムについて、「あ、これは普通のアルゴリズムで動いているシステムです。ルールベースの改良が速くなっていますが、AIの域には達していません」といい逃れをするでしょうね。僕だったら。