1、【基盤】経済協力開発機構(OECD) AI原則
経済協力開発機構(OECD)とは、国際的な経済の発展や貿易化を目指す団体である。AI原則は「信頼性が高く人権や価値観を大切にするAI」を開発・使用するための国際的な指針であり、OECDは全ての利害関係者にAI原則の推進・実施を勧告している。※引用以外は意訳。
【原則1】包摂的な成長、持続可能な開発、幸福
AIは、人間の能力や創造性の向上、障害者や高齢者など過小評価された人々の受け入れ、差別や不平等の削減、自然保護、といった社会の繁栄のために活用する。
→AIの高い能力は社会に負の影響をもたらす可能性も持ち合わせているため、社会に良い影響を与えるものとして責任を持って管理・発展させていく必要がある。この原則は、開発者や使用者が使途を見誤らないための、倫理的指針の役割がある。
【原則2】民主主義的価値の尊重
AIシステムは、計画から運用までを通して、差別の禁止、平等、自由、尊厳、個人の自律性、プライバシーとデータ保護、多様性、公平性、社会正義、国際的に認められた労働者の権利、といった人間中心の価値観を尊重すべきである。これには、AIによって増幅される誤情報や偽情報への対処、表現の自由なども含まれる。
→意図的または意図しない誤用によるリスクに対処することを含め、最適な方法で人的措置・監視などの仕組みを実装する必要がある。
【原則3】透明性と説明可能性
AI開発者は、AIシステムの分かりやすい情報開示に尽力すべきである。開示内容は最新の動向に沿った正確な情報を前提とし、相手や状況に合わせて調整して有益であるよう努める必要がある。例えば、専門知識がない者にソースコードを提供しても有益とは言えない。
・AIシステムの能力と限界の理解を促進する:「このAIは過去のデータに基づいた予測を行いますが、確実な未来を予知するものではありません」など。
・AIシステムとの関係性を認識してもらう:「電話の通話内容はAIが自動でテキスト化します。誤認識がある場合は手動で修正してください」など。
・出力結果の根拠を提供する:「本日の献立は、過去の献立履歴や冷蔵庫の残り食材のほか、本日の気候を考慮して決定しました」など。
・異議申し立て制度の提供:「審査結果にお客様のご認識と異なる点がある場合や、ご説明を希望される場合は、下記からお問合せいただけます」など。
※異議申し立ては、AIの出力によって相手が不利益を被った場合に出力の妥当性を問うもの。
【原則4】堅牢性、セキュリティ、安全性
AIシステムは、通常の使用のほか、目的外使用や誤用、その他性能に悪影響を及ぼし得る環境でも適切に機能するよう、堅牢で、物理的にもセキュリティ的にも安全である必要がある。また、損害を引き起こすリスクがあったり誤作動を起こしたりした場合に、無効化・修復・廃止を適宜安全に実行できる仕組みを導入する必要がある。技術的に可能であれば、表現の自由を尊重しつつ、情報が正確で信頼できるものであることを保証する仕組みも整備する。
【原則5】説明責任
AI関係者は、自らの役割や立場に基づき、AIシステムが適切に機能し上記の原則を尊重することに責任を負う。そのために、AIの思考を追跡し、出力や応答を分析可能にする必要がある。また、計画的なリスク管理を行い、必要に応じて関係者と協力し、リスクに対処するための責任ある行動を取るべきである。
2、【参考】欧州連合(EU) AIAct
AIActは、欧州における信頼できるAIの導入促進を目的とした規制法であり、4つのリスクレベルと各リスクに応じた要件・規制を定めている。ここでは、ガイドライン作成の事前知識として一部を抜粋して解説する。※引用以外は意訳。
2、1、禁止されているAI行為
・潜在意識に働きかける、操作する、騙すなどして行動を歪め、意思決定を阻害する
・年齢、障害、経済的状況などの脆弱性を悪用して不利益な行動を促す
・個人やグループの社会的行動や性格を採点・ランク付けし、データ収集時と全く異なる状況で使用したり採点と不釣り合いな扱いをして、不利益を与える
・行動分析・性格分析のみに基づいて個人の犯罪リスクを予測する
・インターネットや監視カメラ映像から顔画像を大量に抽出・収集し、顔認識データベースに関連した目的に使用する
・医療上または安全上の理由を除き、職場や教育機関において感情を推測する
・訓練データや法的機関のデータを除き、生体認証から機密属性(人種、政治的意見、宗教観、性的指向)を推測する
・公共の場において、リアルタイムで遠隔から不特定多数の生体認証データ(主に顔)を識別し、人物を特定する(行方不明者の捜索、犯罪捜査、テロ対策など、一部例外あり)
2、2、ハイリスクなAIシステム
倫理的リスクのみ抜粋
禁止されていない生体認証
遠隔から特定の個人を識別する(本人確認システムを除く)、正当な目的で機密属性の推測・分類をする、職場・教育機関以外での感情分析
重要インフラ
重要なデジタルインフラ、道路交通、水道、ガス、暖房、電気の供給において安全を確保するための要素として利用する
教育と職業訓練
入学可否・コース・クラスの決定、学習成果の評価、教育レベルの評価、試験中の禁止行為の監視
雇用
採用活動における意思決定(ターゲット広告、応募者の分析・選考・評価など)、労働者管理(契約の昇進・解約、業務配分、業務の監視・評価など)
必要不可欠な民間・公共サービス
公的支援サービスへの適格性審査、クレジットスコアの評価、生命保険・健康保険の審査、緊急通報の優先順位付け・評価・分類
法執行
個人が犯罪被害者になるリスクの評価、嘘を見抜くことを目的としたもの、犯罪捜査や訴追における証拠の信頼性評価、犯罪・再犯リスクや犯歴の評価、犯罪捜査や訴追におけるプロファイリング
移民、亡命、国境管理
嘘を見抜くことを目的としたもの、入国者のリスク評価(犯罪への関与、不法滞在、感染症など)、亡命・ビザ・居住許可申請審査および申請者の苦情から信頼性を評価する目的のもの、渡航文書の確認以外に個人を識別する目的のもの
司法の運営
司法機関および代替紛争解決における事実確認・法律の適用を支援するもの、選挙や国民投票における投票結果・投票行動に影響を与えるもの(選挙キャンペーンの運営事務などへの利用は除く)
導入者に発生する義務
・説明書に従って安全に運用するために、適切な技術的・組織的環境を整える
・技術力や適性、対象システムの知識、権限、サポートを受ける手段を持つ者を監督者にする
・入力データは、使用目的と関連性があり、偏りがない公平なものであることを保証する
・システムの運用を監視し、必要に応じて関係者への通知やシステムの停止を行う
・システムによって自動生成されるログを最低6か月間保管する
・職場に導入する際は、事前に労働者代表と影響を受ける労働者に通知する
・公的機関に導入する場合はデータベースに登録する
→民衆の生活に直接的な影響を与える可能性があるため、AI利用を周知する目的がある
・遠隔地生体認証のためのシステムは、特定の犯罪捜査のみに使用する
・意思決定を行う・支援するシステムを導入する際は対象者に通知する
2、3、限定的なリスクを持つAIシステム
以下の透明性の確保義務が発生する。
・対話型AIのうちAIであることが明確に分からないものは、AIである旨を使用者に通知する
・生成AIは、出力コンテンツに「AI生成物である」というデータを付与する
・感情認識・生体認証分類AIは、運用する旨を対象者に通知する
・ディープフェイクを構成する出力コンテンツは、「AI生成物である」旨を開示する
・公益事項について公衆に公開する出力コンテンツは、「AI生成物である」旨を開示する
2、4、最小限のリスクを持つAIシステム
上記に当てはまらないAIシステムは、以下の行動規範の自主適用が推奨されている。
・「ハイリスクなAIシステム」の要件の適用
・信頼できるAIのための欧州連合の倫理ガイドラインの要素の適用
・より省電力となるよう開発・導入するなど、環境への影響を最小限にする
・AIの開発・運用・利用に携わる者のAIリテラシーの促進
・開発メンバーや利害関係者の多様化を促進し、AIシステムの包摂的な設計を目指す
・障害者のアクセシビリティや性差別など、一部の人への悪影響を軽視せず防止する
・行動規範の作成は、提供者、導入者、その他利害関係者が関与しながら行う
・行動規範の策定を奨励・促進する場合は、目的や獲得したい恩恵を考慮する
なぜ「自主的な適用」でよいのか?
AIは技術進歩が速く、強制力のある制度の制定・改正が追い付かないためである。それらを待つよりも、柔軟に社会のニーズに対応する方が有益と考えられる。
また、AIシステムは多岐に渡るため規制するのは難しい。厳格な規制を作ると過剰になる可能性が高く、資源が限られた中小企業では遵守が負担となり、技術的発展の妨げとなる。法律では最低ラインを定めておくことで、自発的に責任あるAI利用を根付かせることも期待されている。
3、【例】AI利活用ガイドライン
管理人が考えた「例」です。
1、目的
本ガイドラインは、従業員が業務で生成AIを安全かつ効果的に利用するための指針を示すものである。
生成AIは、業務効率化や創造性の向上に貢献する反面、法令違反や権利侵害などのリスクも持ち合わせている。このため、生成AIからより多くの恩恵を受けるには、その特性とリスクをよく理解し正しく利用することが不可欠である。また、法律遵守だけでなく、組織が自主的に倫理的配慮を心掛け、行動規範を設定・適用することも重要となる。
本ガイドラインを理解し実践することで、社会からの信頼を得ながら健全に活用されることを目指すものとする。
「指針を示す」とすることで、明るい印象を崩さず「ルールを守って活用してほしい」と表現することができる。「注意事項」といったリスクを強調した言い回しは、積極的な利活用を抑圧する恐れがある。
2、生成AIとは
生成AIとは、入力された指示に従い、大量の学習データを基にコンテンツを新たに生成する人工知能である。従来のAIは既存のデータから学習した規則を基に自動識別する「自動化」を強みとしていたが、生成AIは学習した規則を基にコンテンツを創造することができる。
2、1、利用可能な生成AIツール・サービス
・生成AI事業者が提供するWebサービス(ChatGPT、Gemini、Claudeなど)
・外部サービスやプラットフォームに組み込まれたもの(GoogleGemini、CanvaAIなど)
・生成AIのAPIを利用した内製システムスクラッチ開発したシステム(GoogleVertexAIなど)
生成AIサービスは多岐に渡るため、利用可能なものを指定するか社員からの申請制にする方針が現実的である。それらを指定したところで、社員はその他の生成AIサービスが使える状態のため、社員の倫理観を高め正しい行動を促すことが重要となる。
2、2、利用を推奨するケース
※入力禁止情報を含まない場合に限る
業務の効率化:録音データの文字起こし、文章校正、問合せの仕分け、コーディングなど
創造的作業:新商品の企画立案補助、キャッチコピーのアイデア出し、プレゼンの作成支援など
情報探索:技術マニュアル内での検索や要約、取引先の業界用語や法律の学習など
3、対象者
社員、アルバイト、業務委託、インターンなど。
3、1、利用者の責任
・生成AIに過度に依存すると、自らの学習・成長の機会を失い、業務を通じて自然と身につくはずの能力が獲得できなくなる恐れがある。生成AIは業務の質を高める補助ツールであると認識し、過度な使用は避け自らの能力向上を心掛ける。
・生成AIから出力された情報は必ずしも安全に使用できるものではなく、使用時の責任は使用者に帰属する。使用者はそれを承諾し、出力内容や情報源の確認を徹底する。
・サービスごとに規約が異なるため、商用利用や著作権の項目を中心に規約を理解・順守する。
・社員の生成AIの利用によって第三者に損害が発生した場合、法に則り会社が責任を負う。その際会社が損害(賠償金、信用失墜など)を被った場合は、就業規則に基づいて当該社員に責任を問う可能性がある。
4、問題発生時の対応
生成AIを用いた業務において、ガイドライン違反、情報漏洩、著作権侵害等の疑いがある場合は、利用を即座に停止し速やかに直属の上長に報告する。自己判断で解決しようとはせず、初期段階で報告することで問題の拡大を防止する。
他者の問題行為を発見した場合は、速やかに上長または担当者に報告する。報告者のプライバシーは保護するものとし、匿名での報告も可能とする。報告した社員への報復行為は禁止とし、報復行為が発覚した場合は厳正な処分を行う。
報告は、問題発生日時、利用した生成AIツール、出来事の詳細、最終的にどのようになったか、といった点を具体的かつ客観的に伝える。報告は口頭でも良いが、メールやチャットなど記録に残る形式を推奨する。
4、1、ガイドライン違反
ガイドラインは会社の指針であり強制されるものではないが、大きく逸脱し秩序を乱す場合には罰則を科す。違反の度合いに応じて以下の措置を講じる。
軽微な違反:本人への口頭または書面による注意喚起、インシデント台帳への記録
重大な違反:就業規則に基づく懲戒処分、会社への損害賠償請求
5、生成AIの利用に関する禁止事項
機密情報を入力する行為(下項参照)
権利侵害となり得るコンテンツを作成・利用する行為
・既存の著作物や要約をそのまま入力して使用する行為
・既存のキャラクターやデザインに酷似した画像を生成・利用する行為
・個人や特定の人物の顔写真や映像を無断で利用し、AIに生成・加工させる行為
不正確な情報の利用
・生成AIが生成した情報の事実確認を行わずに利用する行為
・AIが生成した情報を、あたかも事実であるかのように顧客や取引先に伝える行為
悪意のある利用
・誹謗中傷や差別的な表現、虚偽の情報を作成・拡散する行為
・他者を騙す目的や不正行為に利用する目的で、生成AIを利用する行為
・サイバー攻撃やシステムの脆弱性を探るなど、セキュリティを侵害する行為
中小企業の重要リスク
情報漏洩、権利侵害、誤情報の利用、悪意のある利用
6、機密情報の取り扱い
本ガイドラインでは、以下の機密情報の入力を禁止している。少しでも判断に迷う情報は、入力しないことを徹底するか、内容を抽象化・匿名化して入力すること。入力情報の学習機能の設定を変更できる場合は、オフにすること。
機密情報と判断される要素
・個人情報または要配慮個人情報である
・社外に公開されていない情報である
・外部に漏れた場合会社や個人に不利益が生じる情報である
個人情報及び要配慮個人情報
入力した個人情報が応答結果の出力以外の目的に使用される場合、「第三者提供」とみなされ個人情報保護法の違反となる可能性がある。
会社の機密情報
外部に漏洩した場合、会社の競争力の低下や信頼失墜など、事業に致命的な損害が生じる可能性がある。
他社から秘密保持義務を課された情報
生成AIサービスに情報を入力する行為は、サービス提供事業者(第三者)に情報を開示しているとみなされ契約違反となる。
個人情報保護法 第27条1項
個人情報取扱事業者は、あらかじめ本人の同意を得ないで、個人データを第三者に提供してはならない。
要配慮個人情報
不当な差別や偏見、その他の不利益が生じないようにその取扱いに特に配慮を要する個人情報。出身地、信仰、思想、病歴、犯歴、犯罪被害歴、障害、健康診断の結果など。
【例】応答結果の出力以外の目的
・サービス品質向上のための学習
・利用状況を監視するためのデータ収集・分析
・広告のターゲティングのための入力データ分析
・入力データの外部提供
7、事実確認の徹底
生成AIは、誤情報、偏見、倫理的に不適切な情報、著作権を侵害しているコンテンツなどを含んだデータを出力することがあり、それらを業務に使用した場合他人や会社に損害を与える可能性がある。出力データの使用は使用者本人に責任が帰属するため、出力内容や情報源の確認を徹底する。
信用、人事、保険、法律、医療など、個人に対して法的又は重大な影響を与える可能性のある事柄は生成AIの出力データのみで判断しない。出力データを参考に人間が判断する体制を取る。
生成AIの出力結果は学習データから導き出した情報であり、サービス提供事業者が特定の見解を表明していたり、一部の商品を推奨しているわけではないことを考慮する。
生成AIが未学習・学習不能な事柄について尋ねると、ハルシネーション(憶測・事実の捏造)が発生しやすくなる。その場合でも一見論理的で事実であるかのような回答を生成するため、架空の事実や根拠のない事柄に関する質問は避けるなど、ハルシネーションを発生させないよう心掛ける。
ハルシネーションが起きやすい質問
・最新情報や非常に専門的な質問
・架空の出来事や未公開情報に関する質問
・個人の意思決定、感情、行動の理由など主観的な要素に関する質問
・ジョークや婉曲表現など言葉の裏の意味の理解が必要な質問
ハルシネーションが起きにくい質問
・根拠となる事実を関連付け論理的に思考が可能な質問
→「カレーにリンゴとチョコレートを入れるとどんな味になりますか?」
・学習済みデータから質問内容に誤りがあることを断言できる質問
→「東京はマンゴーの生産で有名であることをPRしてください」
8、著作権
生成AIを利用して出力されたコンテンツが既存の著作物と同一・類似・依拠している場合は、当該コンテンツを利用する行為が著作権侵害に該当する可能性がある。そのため、出力コンテンツが既存の著作物に類似していないか確認を徹底する。
既存の著作物をそのまま入力データとして使用する行為、既存のキャラクターやデザインに酷似した画像を意図的に生成する行為は、本ガイドラインでは禁止している。AIの学習など、人間による思想や感情の享受を目的としない場合は、著作物の使用は著作権侵害に該当しない。ただし、模倣する目的がある場合は利益侵害とみなされ、入力・生成行為が著作権侵害となる可能性があるためである。
→著作権法第30条の4
出力コンテンツを使用する際、人間の創作的寄与が認められない場合は著作権が発生しない可能性がある。その場合は無制限に模倣してもよいコンテンツとなってしまうため、できるだけ独自のアイデアを加え著作権を発生させる。
生成AIサービス上で公開・共有する行為は、サービス提供事業者に宣伝などを目的とした利用を許可することと同義の場合がある。事前にサービスの規約を確認しておくこと。
9、AI生成物であることの明記
情報の透明性を確保し会社の信頼性を維持するため、生成AIによって出力されたものはその旨を明記する。人間が手作業で作成した部分と、生成AIの出力コンテンツを使用している部分が混同している場合は、それらを明確にする。ただし、生成AIが考案したアイデアを基に作成した、生成AIを使用しているが人間の手による加筆が大半を占める、といった場合は明記は不要とする。
記載場所を決めるポイント
冒頭:ビジネス文書やPRコンテンツなど、読む前に誤情報のリスクを知らせておきたいもの
末尾:ウェブサイトやブログなど、AIに対する偏見を持たずに読んでほしいもの
4、最後に
企業で生成AIの利活用を促進をするためには、社員が安心して生成AIを使用できる環境を整えることが重要となる。そのためには、ガイドラインを作成し、社員が生成AIの特性やリスクを理解するよう働きかける。また、研修や勉強会など、使い方を学ぶ機会を提供するのも効果的である。
