AIについてはシンギュラリティの脅威(AIが人間を超越してしまう) などが、興味本位で強調されることもあり、多くの人に正しい理解をしてもらえる状況にはない。技術の進歩も激しく分野も多岐にわたるので、利用企業の側からも十分な説明も出来ていないこともある。ただAI活用は企業の盛衰を決めかねないので、消費者に「気持ち悪い」と思われても、企業はその開発・運用をやめるわけにはいかない。そこで、
・AI活用についての何らかの規制は必要だが、法的強制ではないソフトローが良い。
・ハイリスクAIの規制については、対象を慎重に(限定的に)選ぶべき。
・AIシステム運用は通常1社に閉じない。複数企業間でルール共有が可能なこと。
・BtoB型とBtoC型では状況が異なる。画一的なガイドラインは良くない。
などの意見が産業界から政府に寄せられた。経産省が設けた会合「AI社会実装アーキテクチャ検討会」には14人の委員(座長:東大未来ビジョン研究センター教授)で議論を重ね「日本のAIガバナンスの在り方Ver.1.0」を公開している。
細かなルールベースの規制ではなく、人間中心のAI社会実現という大きなゴールに向けて前編で述べたギャップを埋めるためのゴールベースのガバナンスを企業にしてもらうために、
・法的拘束力のないガバナンス・ガイドラインを策定する。
・AI原則を解説しているガイドラインを活用し、企業ガバナンスに融合しやすいガイドラインとする。
・現時点では、法的拘束力のある横断的な規制は必要ない。
・個別分野についてはITではなく、業法の観点からの関わり方が望ましい場合もある。
という方向性を示した。ここまでは僕にも異論はない。これだけ変動の早い分野では、政府が状況をモニタして法規制を改定するサイクルが実情に追いつけない。かといってリスクを広めに抑えて技術開発・経済発展に枷をかけるのも好ましくない。だからソフトローでいいのだが、どうやって守ってもらうかということが問題。それと、日本で方向性を出しても、他国(特に欧州)はハードローに固執するだろう。国際的な議論を進めるのだが、容易になびいてはくれまい。
以上2点が大きな課題ですが、方向性として固まったことはいいことだと思います。これからの具体論が重要ですね。