3年ほど前から、欧州委員会ではAI(人工知能)によるイノベーションを考えながらも、どうやってAIのリスクを抑えるかの議論を続けていた。例えばAIに倫理を求めたり、利用企業に説明責任を求めたりした。「なぜ、どうしてこういう結論になったのですか?」と問われても、正直AIシステムを運営している側にしても「ブラックボックスなので分かりません」というのが本音。でも、本音を言うと(欧州に)入れてもらえなくなる。
その手の議論が一応の決着を見て、先月「欧州AIパッケージ」が公開された。その目的は、
・欧州におけるAI開発の推進
・AIが内包する安全面と基本的権利に与える潜在的リスクへの対処
を両立させることにある。そのために、規制枠組みとイノベーション促進の2本柱を建てた。
◇規制枠組み
・AI法案(開発・利用に関する新たなルール)
・機械指令改定(例えばチェーンソーのような危険な機械のリストにAIを追加)
・AI賠償責任ルール(製造物責任法の改定など:今回は内容公表されず)
◆イノベーション促進
・AIコーディネーションプラン改定(投資や各国のアクションプラン)
・R&Dイノベーション支援(年間2,000億ユーロの官民投資、基金等)
・サンドボックス制度の導入(業法等に縛られない実験環境)
が挙げられているが、どうしても規制の方に軸足があるような気がしてならない。規制の中心となっているのが「AI法案」、今回欧州の有識者からその内容を聞くことができた。AIはこれまでの製品やサービスとは異なり、変幻自在い移ろい変わる。だから供給側だけを締め上げても、安全・安心を確保することはできない。要は何の目的で、どう使われるか、そこに誰かにとってどんなリスクが存在するかを想定しなくてはならない。
AI法案の主旨は「リスクベース・アプローチ」であり、これは正しい理解だ。具体的には、AIシステムのリスクを用途・目的等に照らして4累計に分け、それぞれのリスクに応じた要件・規制をかけるというもの。ただその内容については、多岐にわたるし疑問点も多い。デジタル屋の立場からは「啞然」とするような項目も含まれている。もちろんあくまで法案で、議論はこれからできるのだが、産業界としては相当頭を悩ますことになろう。
この議論は断続的に、紹介していくことにします。ご期待ください。