はじめに
2024年4月19日に総務省と経済産業省が連名でAI事業者ガイドラインを公表しました。
総務省|AIネットワーク社会推進会議|「AI事業者ガイドライン」掲載ページ (soumu.go.jp)
この背景には、2022年以降の生成系AIの急速な普及(ガイドラインでは「AIの民主化」と表現しています。)により、多くの人々が「対話」によってAIを比較的簡単に利用できるようになったことから、生産性向上や社会的課題の解決が期待される一方で、社会的リスクも生じていることがあります。
新しい技術が生み出され、社会の中で定着していくなかでは、様々な先進的事例の積み重ねの中でそのメリットとデメリットが比較衡量され、法令等による最低限守るべき規範や社会的に利用する中で望ましい倫理といったものについてのコンセンサスが形成されていくとされていますが、まだ社会での活用が始まったばかりの生成系AIなどの情報技術については、このコンセンサスの形成過程にあり、このガイドラインもその一里塚と言えるものだと思います。
このガイドラインは、従来は別々に策定されていた「国際的な議論のためのAI開発ガイドライン案」(総務省)、「AI利活用ガイドライン~AI利活用のためのプラクティカルリファレンス~」(総務省)及び「AI原則実践のためのガバナンス・ガイドラインVer. 1.1」(経済産業省)を統合し、アップデートしたもので、AIを開発する事業者(AI開発者)、AIを使ったサービスを提供する事業者(AI提供者)、AIを利用する事業者(AI利用者)を網羅した構成となっています。(一方、事業活動以外でAIを利用する人などは含みません。)
図1 一般的なAI活用の流れにおける主体の対応(ガイドラインから抜粋)
ガイドラインの構成としては、第1部で用語の定義などを行い、第2部でAIを利用しようする事業者が共通で認識しておくべき基本理念や原則、指針、その実践のために必要となるガバナンス構築などに触れ、第3部から第5部はAI開発者、AI提供者、AI利用者それぞれの主体別の内容となっています。また、それぞれの内容をより詳細に理解するための付属資料や自社の状況を確認するためのチェックリスト、具体的な対策などを検討するためのワークシートも提供されています。
図2 ガイドラインの構成(ガイドラインから抜粋)
ここでは、AI利用者に関する記述を中心に紹介していきたいと思います。なお、ちょうど一年前に紹介した(一社)日本ディープラーニング協会(JDLA)の「生成AIの利用ガイドライン」も合わせて参照するとわかりやすいかもしれません。
第1部AIとは
このガイドラインでは、AIについて現時点で確立された定義はないことから以下のように定義しています。わかりにくいのですが、どのようなシステムも含みうるような幅広い定義としているように思います。
AI:「AIシステム」自体又は機械学習をするソフトウェア若しくはプログラムを含む抽象的な概念
AIシステム:活用の過程を通じて様々なレベルの自律性をもって動作し学習する機能を有するソフトウェアを要素として含むシステム
また、AIサービスを「AIシステムを用いた役務」として定義し、「AI利用者への価値提供の全般を指しており、(中略)人間によるモニタリング、ステークホルダーとの適切なコミュニケーション等の非技術的アプローチも連携した形で実施される」としており、こちらも幅広く定義しています。
第2部AIにより目指すべき社会及び各主体が取り組む事項
ここでは、AIによりどのような社会を目指すのかを整理した「基本理念」とそのために各主体が取り組む「原則」「共通の指針」とそれを実践するための「AIガバナンスの構築」について記載されています。さらに、最先端の最も高度なAIシステムに関係する事業者が遵守すべき共通の指針についても追加で記載されています。
基本理念は2019年3月に策定した「人間中心のAI社会原則」と同様に以下の3点としています。
図3 基本理念(ガイドラインから抜粋)
上記の基本理念を実現するために各主体が取組を進めるための原則としては、各主体が取り組む事項と社会と連携した取組が期待される事項の2つに整理されています。
前者はAIのリスクを最低限に抑制するために必要な原則と言えるかもしれません。具体的には、人間中心の考え方をベースにし、安全性や公平性といった価値を確保すること、プライバシーの保護やセキュリティの確保を行うこと、透明性やアカウンタビリティを確保することなどがあげられています。
後者はAIという新しい技術が社会に受け入れられていくために必要な原則と考えられるかもしれません。そのために、社会と連携し、社会の分断を回避し、教育・リテラシー確保の機会提供や、新たなビジネス・サービスの創出による持続的な経済成長や社会的課題の解決の向けた公正競争の確保・イノベーションの促進などがあげられています。
原則をもとにどのような指針に基づいてAIを活用するべきか示したのが、次の共通の指針の部分となります。個別には詳述しませんが、以下の10の項目があげられています。実際にAIを利用して事業を行う場合には、ここであげられている項目を考慮しているのかが問題になると考えられます。
1)人間中心
さらに6つの小項目が設定されています。
①人間の尊厳及び個人の自立、②AIによる意思決定・感情の操作等への留意、③偽情報等への対策、④多様性・包摂性の確保、⑤利用者支援、⑥持続可能性の確保。
2)安全性
さらに3つの小項目が設定されています。
①人間の生命・身体・財産、精神及び環境への配慮、②適正利用、③適正学習。
3)公平性
さらに2つの小項目が設定されています。
①AIモデルの各構成技術に含まれるバイアスへの配慮、②人間の判断の介在。
4)プライバシー保護
さらに以下の小項目が設定されています。
①AIシステム・サービス全般におけるプライバシーの保護。
5)セキュリティ確保
さらに2つの小項目が設定されています。
①AIシステム・サービスに影響するセキュリティ対策、②最新動向への留意。
6)透明性
さらに4つの小項目が設定されています。
①検証可能性の確保、②関連するステークホルダーへの情報提供、③合理的かつ誠実な対応、④関連するステークホルダーへの説明可能性・解釈可能性の向上
7)アカウンタビリティ
さらに6つの小項目が設定されています。
①トレーサビリティの向上、②「共通の指針」の対応状況の説明、③責任者の明示、④関係者間の責任の分配、⑤ステークホルダーへの具体的な対応、⑥文書化
8)教育・リテラシー
さらに3つの小項目が設定されています。
①AIリテラシーの確保、②教育・リスキリング、③ステークホルダーへのフォローアップ
9)公正競争確保
10)イノベーション
さらに3つの小項目が設定されています。
①オープンイノベーション等の推進、②相互接続性・相互運用性への留意、③適切な情報提供
このセクションでは、さらに「高度なAIシステムに関係する事業者に共通の指針」と「AIガバナンスの構築」について記載されています。「AIガバナンスの構築」では、AIという社会的受容などに関するコンセンサスが固まっていない技術の活用においては、ガバナンスシステム自体についても、「環境・リスク分析」「ゴール設定」「システムデザイン」「運用」「評価」といったサイクルを回転させていく「アジャイル・ガバナンス」の実践が重要となるとしています。
一般的なPDCAモデルではゴールは定まっていることが多いと思われますが、ゴール設定自体がコンセンサスがなく流動的である外部環境からみて適切になっているかについて継続的に確認していく必要があるという点が特に重要になると考えられます。
図4 アジャイル・ガバナンスの基本的なモデル(ガイドラインから抜粋)
第5部 AI利用者に関する事項
ここではAI利用者にとって重要となる事項として、以下の7点があげられています。各事業者が業務利用する場合にはこれらの項目に沿っているか確認することが重要となります。
2)安全性の関連 : 安全を考慮した適正利用
3)公平性の関連 : 入力データ又はプロンプトに含まれるバイアスへの配慮
4)プライバシーの保護の関連: 個人情報の不適切入力及びプライバシー侵害への対策
5)セキュリティ確保の関連 : セキュリティ対策の実施
6)透明性の関連 : 関連するステークホルダーへの情報提供
7)アカウンタビリティの関連: ①関連するステークホルダーへの説明
②提供された文書活用及び規約の遵守
※AI開発者に関する第3部とAI提供者に関する第4部は省略します。
その他の文書
「チェックリスト」が提供されており、共通の指針に沿った取組を行っているかをチェックすることができます。ただ、それぞれのチェック項目の内容について理解するためにはAIに関するある程度の知識が必要となるため、各事業者において自分の業務に引き戻して解釈する必要があると思われます。
例えば、3つ目の項目「潜在的なバイアスをなくすよう留意し、それでも回避できないバイアスがあることを認識しつつ、回避できないバイアスが人権及び多様な文化を尊重する公平性の観点から許容可能か評価しているか?」について、これまでどのような問題が発生した来たのか(参考としていくつかの記事をあげます)についての知識がないと何を聞かれているのか理解しにくいかもしれません。
機械学習の難題「ゴリラ問題」をグーグルの画像認識システムは解決できるか? | WIRED.jp
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で | ロイター (reuters.com)
同様に「具体的なアプローチ検討のためのワークシート」についても、適用したい業務等の特色とAIという技術における特色の双方をすり合わせていくことが重要となるため、それぞれをよく理解している担当者が協力して検討していくことが重要になると考えられます。
おわりに
ガイドラインという性格上、内容としてはAIのリスクに対してどのように対応していくかが中心となっているため、AIの利用に躊躇してしまうかもしれません。しかし、世界の流れとしてAIを活用していくという方向が変わることはないでしょうし、ガイドラインのはじめに書かれているように日本における社会的課題の解決には大きな力となることが期待されています。
これから社会がどのようにAIという技術を評価し、受容していくかという過程がスタートしている状況なので、このガイドラインを参考にしながら、自分たちの業務でどのように活用できるかを考えていく、そして部分的にもつかってみるということが重要であると思います。