Cyber NINJA、只今参上

デジタル社会の世相をNINJAの視点で紐解きます。

許容できないリスクのあるAI

 「欧州AIパッケージ」の規制部分の中核をなすのが「AI法案」、それがAIを何のためにどんな方法で使うのかによってリスク強度を4段階に分けていることは以前紹介した。今日はその4段階のなかでの最高リスク、許容できないリスクのあるAIについてコメントしたい。それはどんなものかと言うと「人々の安全、生活、権利に対して明らかな脅威となる」ものと定められている。例示されているのは、4つ。

 

1)サブリミナル利用

 人の行動をゆがめ、身体的・精神的に有害なシステム

 

2)弱者の搾取のための利用

 こどもや障碍者などの弱みに付け込む、身体的・精神的に有害なシステム

 

3)ソーシャルスコアリング使用

 社会的行為等に基づいて人々の信頼性を分類する、公共機関のシステム

 

4)法執行を目的とした監視のための利用

 公共空間でのリアルタイムな遠隔生体認証システム、ただし当局の事前許可を取った犯罪捜査などの場合は例外

 

 が挙げられていた。ただこれもステークホルダーが理解するための例示だろうから、類似のシステムも今後挙げられてくると思う。これらの例は原則使用禁止なのだが、全体に例外もあって「テロ対策等の場合は除く」となっている。

 

    f:id:nicky-akira:20210517174913j:plain

 

 法案のこの部分を(翻訳でだが)見ていると、いくつか気になる部分がある。まず例外条項の「テロ対策等」の等には何が入るのか?常識的には安全保障・軍事は入ってくるはず。じゃあ、正当防衛や緊急避難の場合はどうなのか?民間でもしつこいサイバー攻撃を受けて、AIでその相手を特定し逆にサブリミナル反撃(!)で攻撃者を迷わせることも許されるのではなかろうか?

 

 もうひとつはこの4つの例は「利用禁止」となっていて、「開発禁止」ではないこと。多分これらのシステムも開発はOKで、条件があてはまらなければ利用も出来るということ。例えばソーシャルスコアリングは民間ならやってもいいと読める。だから開発も禁じられない。

 

 さらにこれらの禁止条項は、相手を「人=自然人」と決めつけているように見える。相手がAIだったらどうだろうか?AIとAIが闘うようになれば、もはや人間の入る余地は少ない。逆に一方的にAIを使われたら、恐らく敗北してしまう。安全保障・軍事に直接かかわらなくても民間が貢献していることはあります。そのシステムを守るAIは、この区分から外してもらいたいですね。