AI(人工知能)の急激な発展と適用分野の拡大は、多くの市民に漠然とした不安を与えている。不安をあおるようなメディアもあるのだが、特に欧州委員会のように政府レベルで危機感を募らせているところもある。これまで「欧州AI政策パッケージ」などの内容を分析して、その背景に「新しい実在論」を唱える哲学者などがいる可能性も、別ブログで紹介した。
EUに感じる違和感の源泉? - 新城彰の本棚 (hateblo.jp)
この書は、新時代の企業はAI技術などよりも(社会公器として)倫理学者を採用・活用すべきだと述べている。企業が「社会の公器」として社会全体の価値創造に寄与することは重要だと思うが、SDGs等を極端に進めるようなこともまた、バランスを欠くと僕は思っている。
このように思想信条の範疇にまで入ってきてしまった「AI論争」だが、じゃあ日本はどうしようとしているのか。今回、経産省で「AI社会実装アーキテクチャ検討会」という会合を行っていて、その中間報告の内容を説明してもらる機会があった。
日本は「人間中心のAI社会原則」を掲げ、人間の尊厳が尊重され、多様な人が多様な幸福を追求し、持続性ある社会を目指すのだという。これを欧州の「AI倫理ガイドライン」などにぶつけ、今般のG20の場やOECDで、おおむね原則レベルの合意には達した。しかしその実装についての議論はこれからで、WhatはいいがHowのレベルで論争が続くことになるだろうという。
例えばどのようなアプローチを採るべきかという点については、リスクベースアプローチがいいだろうということはおおむね納得が得られている。しかし具体的なリスク評価や分類については、必ずしも共有されていない。
そこでそのHowレベルの方向性を議論したのが上記検討会で、今回中間報告を出している。中心は「AIガバナンスの方向性」である。AIの利活用で生じるリスクをステークホルダーにとって受容可能な水準で管理し、AIの正のインパクトを最大化するのが目的。ステークホルダーがどのように、技術的・組織的・社会的なシステムを設計し、運用してゆくかという議論である。
人間中心のAI社会原則の実現までには、今の民間中心の様々なトライアルからがギャップが大きい。そのギャップを埋めるようなAIシステムの設計・運用の道を示すのがガイドラインであるべきだ。
<続く>