近年、AIが世の中に広く浸透するにつれてクローズアップされるようになったテーマが「AI倫理」だ。AIの活用が差別やプライバシー侵害、ひいては社会の不安定化などにつながる可能性を極力排除し、安心・安全で信頼できるAIの社会実装を進めるためにはどんな取り組みが必要なのかという議論がここ数年で世界的に本格化。規制やガイドラインを定めるなどの動きが活発になり、AI倫理は実践段階に入っている。AIの利活用支援を含む総合的なITビジネスを展開する米IBMはこうした状況を受け、22カ国の企業経営層を対象に、AI倫理への取り組み状況を調査した。この調査結果の解説を中心に、AIの信頼性確保に向けたグローバルの動向について、日本アイ・ビー・エム株式会社執行役員 兼 技術理事、IBM AIセンター長の山田敦氏に話を聞いた。
1.多くの企業がAI倫理を経営課題と位置付け
米IBMは第三次AIブームをけん引してきたITベンダーの1社であり、同社のAIテクノロジー「IBM Watson」はビジネス向けのAI活用でも多くの実績がある。AI倫理においても全社規模の取り組みを進めており、2018年にはAIの「信頼と透明性に関する原則」を定めるとともに、システム設計者や開発者のための実践的ガイドライン「Everyday Ethics for Artificial Intelligence」も発表している。同時にAI倫理のガバナンス体制も構築し、グローバルでAI倫理委員会を設置して組織横断的にAI倫理の実践を推進している。日本法人内では2022年にその機能を強化し、山田氏は日本法人のAI倫理関連施策をリードするとともに、日本法人を代表して同社のグローバルでのAI倫理施策の議論や実行に関わっている。