Cyber NINJA、只今参上

デジタル社会の世相をNINJAの視点で紐解きます。

欧州委「AI白書」を巡る議論(2)

 「AI白書」は、AIが不透明・複雑・予測困難・自動行動な性格をもつ技術ゆえ、それが社会システムに組み込まれたとき、基本的人権を守るように動いた(動かなかった)ことを関係機関が後にでも知ることが出来ないことを懸念している。

 

 また欧州各国の規定では、製品安全についての規定はしっかりしているがこれは物理的な「製品」にしか適用されず、製品に金融・ヘルスケアなどのサービスが乗っかって全体がAIで運用されるようになると、当該法規制は適用できない。アナログ時代の法制とデジタル時代のギャップが、AIによって拡張されることもあり得る。

 

    f:id:nicky-akira:20200928115353j:plain

 

 その他の懸念もあり、ある種のAIについては「ハイリスクAI」と区分して特別にチェック機能を強化することを「AI白書」は求めている。具体的にどのようなチェックなのか、監査なのか、罰金等の刑罰は何かは不明だが、開発運用にあたってこれまで以上の制約が課せられることだけは間違いがない。「ハイリスクAI」の区分もまだ著しくあいまいで、以下の2項目を満たした時とされている。

 

1)分野 ヘルスケア・交通・エネルギー・一部公共

2)リスク 怪我や死亡、物質的/非物質的に重大な影響を与えるケース

 

 例えばヘルスケアでも、命に係わる診断を下すケースではハイリスクだが、来院スケジュールの管理をするくらいならそうではないと「白書」は言う。揚げ足をとるつもりはないが、来院スケジュールが取れなくて手遅れになったらどうしてくれるとねじ込む患者もいるだろう。このあたりの線引きは難しい。

 

 さらに問題なのは、これらの記述が「ちゃんとしたAIの定義なし」に行われていること。いくら罰則を強化したって、その対象が決まらないのであれば、そんなものただの空文だ。あるいは、これはAIか否かを、裁判所が世論の意向も踏まえてその時その時に判断するなどという、馬鹿げたプロセスを踏むことになる。「AIの定義」については、以前から気になっていて、一度専門家の意見と現状の議論進捗を聞いている。

 

https://nicky-akira.hatenablog.com/entry/2020/07/03/140000

 

 まだ「専門家が100人いれば、100通りの定義が存在する」状況だと、ある人が言う。じゃあ、「AI白書」はAIをどう考えているのか?実はそれが最大の問題なのだ。

 

<続く>