主に2024/5/1~5/25で目を付けた海外デジタル政策をまとめました。
目次
EU
欧州理事会がAI法を承認
- 2024/5/21 Artificial intelligence (AI) act: Council gives final green light to the first worldwide rules on AI
英国
AI Opportunity Forumが2回めの会合を開催
AI安全性研究所(AISI)が、新たなAI安全性プラットフォーム「Inspect」をリリース
- 2024/5/10 AI Safety Institute releases new AI safety evaluations platform
- Inspectは、企業、学術機関、AI開発者から政府まで、テスト担当者が個々のモデルの特定の機能を評価し、結果に基づいてスコアを生成できるソフトウェアライブラリ。コア知識、推論能力、自律機能など、さまざまな分野でのモデル評価に使用可能。オープンソースライセンスを通じてリリースされたため、AIコミュニティが自由に使用できる。
- Inspectの詳細はこちら。
欧州のスーパーコンピューティング共同事業(EuroHPC)に参画
- 2024/5/13 UK joins European super-computing scheme as world-class British researchers now able to bid for funding
- EuroHPCでは、欧州圏に8台のスパコンを有し、35か国からスパコンリソースを取集している。今回の英国の参画により、英国の研究者、企業、学術関係者は、スパコン研究資金へアクセスできるようになる。
AIとソフトウェアのサイバーセキュリティ強化に向けた行動規範の案を発表、意見募集
- 2024/5/15 Developers given new tools to boost cyber security in AI models as cyber security sector sees record growth
- (1)AIのサイバーセキュリティ
- 自主的な行動規範と世界標準※の2部構成。※とりまとめた行動規範を2024/9に欧州電気通信標準化機構(ETSI)へ提出することにより、世界標準の策定を支援する予定とのこと。
- (2)ソフトウェアベンダー向け行動規範
- ソフトウェアサプライチェーン攻撃、その他のインシデントの発生確率と影響の軽減が目的。
国立宇宙運用センター(NSpOC)を立ち上げ、宇宙分野の規制に係るロードマップ公表
- 2024/5/16 New roadmap for pro-growth regulation in UK space sector launched as Science Minister launches new National Space Operations Centre
- NSpOCには、衛星の衝突など宇宙関連の脅威、リスク、危険から英国を守るために、約70人の民間人および軍人が集結。 DSIT、英国宇宙庁、英国国防省が共同で2,000万ポンドの資金を拠出し、英国気象庁と提携して、世界規模のセンサーネットワークを使用して宇宙活動を支援。現場のセンサーは、1か月あたり平均20~30個の大気圏再突入物体の追跡から、英国が認可した衛星を宇宙ゴミとの衝突から保護するまで、重要なミッションを監督および遂行。
先進AIの安全性に関する国際科学報告書を公表
- 2024/5/17 Safety of advanced AI under the spotlight in first ever independent, international scientific report
- 前回のAI安全性サミットでのブレッチリー宣言の公約の一つ。本報告書は、高度な「汎用」AIに焦点をあて、機会とリスクに関する最新の科学研究の状況をまとめたもの。
AI安全性研究所がサンフランシスコに海外オフィスを設立
- 2024/5/20 Government's trailblazing Institute for AI Safety to open doors in San Francisco
- 初のAI安全性テスト結果を公開し、カナダとの新たな協力に合意したことで、拡張が発表。AIソウルサミットに先立って行われた。
- 英国がベイエリアの豊富な技術人材を活用し、米国との関係を強化して公共の利益のためにAIの安全性を推進することを可能にする極めて重要な一歩となる。
AIソウルサミット開催
- 2024/5/21, 22 New commitment to deepen work on severe AI risks concludes AI Seoul Summit
- 成果として、27の国・地域による「安全、革新的で包摂的なAIの発展のためのソウル閣僚声明」が採択。
AIソウルサミットにて、AI安全性に関する国際ネットワークの立ち上げに合意
- 2024/5/21 Global leaders agree to launch first international network of AI Safety Institutes to boost cooperation of AI
- これにより、各国のAIアプローチの間に「補完性と相互運用性」が構築され、安全で安心かつ信頼できるAIの開発が促進される。
米国
AIのリスクから労働者を守る重要措置を発表
- 2024/5/16 FACT SHEET: Biden-Harris Administration Unveils Critical Steps to Protect Workers from Risks of Artificial Intelligence
- 「AIの安全でセキュリティが高く、信頼できる開発と使用に関する大統領令」(直訳)
- 労働者は、職場で使用するAIの設計開発~テスト~使用に際し情報提供を受ける必要がある。AIは、労働者を保護する形で設計開発される必要がある。など。
- MicrosoftとIndeedが本原則を採用するとのこと。
米国AI安全性研究所(AISI)の戦略的ビジョン、AI安全性機関間の国際協力計画を公表
- 2024/5/21 U.S. Secretary of Commerce Gina Raimondo Releases Strategic Vision on AI Safety, Announces Plan for Global Cooperation Among AI Safety Institutes
- AIソウルサミットでの合意内容に基づき、英国、日本、カナダ、シンガポールの既存のAI安全性研究所およびその他の関連組織との協力を強化・拡大し、AIの安全性科学とガバナンスに関する国際調整の新たな段階を促進する。
OECD
「AIインシデントと関連用語の定義」公表
- 2024/5/6 Defining AI incidents and related terms
- AIのリスク管理・防御のためには明確な定義が不可欠であるとして、定義を提案。国際的な相互運用性を促進すると同時に、管轄区域が対処したいAIインシデントとハザードの範囲を決定できる情報の提供を目的としている。
「AI、データ、競争」公表
- 2024/5/24 Artificial intelligence, data and competition
- 生成AIの最近の動向について、基礎モデルのトレーニング、チューニング、デプロイの3段階に焦点を当てて論じている。
世界経済フォーラム
AIが世界の教育にもたらす影響に関するレポートを公開
- 2024/4/28 Revolutionizing Classrooms: How AI Is Reshaping Global Education
- 学習体験のパーソナライズ、管理タスクの合理化、教育カリキュラムへのAIの統合など、AIが教育分野にもたらす幅広い可能性を概説。
- 革新的な例も挙げられている。たとえば、ユニセフでは、特に障害のある生徒にカスタマイズ可能で包括的な教育リソースを提供。ブラジルでは、AI駆動のフィードバックメカニズムを使用し、何百もの学校で社会経済的地位を問わず識字能力を大幅に向上。韓国では、生徒の多様な習熟度レベルに合わせたAI搭載のデジタル教科書を開発。など。