英国のデータ倫理・イノベーションセンター(CDEI)が、AIの信頼性担保にどれだけ取り組めているかを活用領域別に評価した報告書を公表したようですね。
CDEIは「効果的なAI保証エコシステムへのロードマップ」(2021年12月公表)の実現を支援するため、「AI保証プログラム」を立ち上げました。初年度である本年度のプログラムでは、CDEIが最も大きな効果を発揮できるよう、業界のAI保証への関与の現状をよりよく理解することに重点を置いています。
本報告書は、上記の活動から得られた主要な知見をまとめたものだそうです。本報告書では、AI保証に取り組む上での領域の障壁と実現要因を明らかにし、AI保証技術及び標準の普及と採用を促進するための潜在的な実践的介入策を明らかにしているとのことです。
対象となる領域は、AI導入の拡大により生じるリスクの幅が広いものとして、人事・採用領域、金融領域、コネクテッドカー・自動運転領域が掲載されています。背景としては、人事・採用は差別的な偏見のリスクをもたらす可能性がありシステムの公正さが必要となること、金融はサイバー攻撃や金融詐欺のリスクをもたらす可能性があり技術的なセキュリティと堅牢性が必要となること、コネクテッドカー・自動運転は人命に対するリスクをもたらす可能性があり安全性と救済のためのルートが必要となることが挙げられています。
AIの信頼性担保に際し生じる障壁別に各領域を評価した表が以下です。
3領域とも共通して、知識・スキルの不足、保証技術や技術標準の認識不足が挙げられるとのこと。
人事・採用領域は、今後特有のガイダンスを推進すること、上層部にAI信頼性担保のメリットを認識させること、規制の更なる明確化が必要であることが述べられているようです。
金融領域は、AIの信頼性担保の認知度向上のための学習機会を増やすこと、AIの信頼性を測定・評価するツールを認知させること、ベストプラクティスを取りまとめることが必要であることが述べられているようです。
コネクテッドカー・自動運転領域は、技術標準を充実させること、ガバナンスや規制の枠組みをより強固とすること(参考:自動運転車における責任あるイノベーション)、グッドプラクティスを取りまとめることが必要であることが述べられているようです。