浅井 忍
5月21日、以前よりルール作りに熱心なEU(欧州連合)はAI(人工知能)法を成立させた。その目的はAIの開発と利用において、政府機関や企業などに規制をかけるものである。同法ではリスクに応じてAIを分類している。
許容できないリスクに該当するAIは、人間の行動を操作するAI、公共の場で顔認識を含むリアルタイムのリモート生体認証を使用するAI、犯罪を行う可能性を予測する目的で人々を評価するAIなどが含まれる。
高リスクは、健康、安全、または基本的人権に重大な脅威をもたらすAIである。これには、医療、教育、インフラの管理、行政、司法の分野で使用されるAIが含まれる。人間による監督、セキュリティの義務が対象となる。市場に投入される前だけでなく、投入後にも評価される必要がある。
特定の透明性が必要なリスクは、教育機関や企業が入試や採用で人々を評価する際に使うAIは、偏った判断をしないように適切なデータを学習させ、人間が監視するなどのリスク管理が求められる。実在する人物の姿や声に似せて生成AIで作成した画像や音声などは、AIによるものだと明示して透明性を確保することが義務づけられる。これには、画像、音声、またはディープフェイクなど映像の生成AIが含まれる。
最小限のリスクにはゲームやスパムフィルタに使用されるAIシステムなどが含まれる。ほとんどのAIはこのカテゴリーに入る。この法律による規制は2年後の2026年に本格的に適用される見通しである。
一方、EUの案に反対している中国は包括的な法案を発表するといわれている。ひるがえって、日本はこの4月に「AI事業者ガイドライン」をまとめたが、政府の認識は心もとない。目指すは「世界一AIにフレンドリーな国」である。AIに世界で最も理解があり、AIの研究や開発をしやすい国を官民で目指すというものである。それにしても、AIが抱える脅威の認識がはなはだ低いと言わざるをえない。
EU発のAI法は現実にそぐわない部分が含まれている印象を受けるが、逐次改善を目指すとしている。言い換えれば、人類は扱いが厄介な究極の技術を手に入れてしまったということだろう。
(令和6年7月号)