カナダの主要メディアは、ChatGPTを手がけるOpenAIが記事を無断で利用したとして、損害賠償を求め裁判所に提訴しました。
OpenAIは、ChatGPTの学習データとして、インターネット上の膨大なデータを利用しています。その中には、報道機関の記事も含まれており、これが著作権侵害にあたるとして問題視されています。
今回の訴訟は、AI開発における倫理的な問題や法的責任について、改めて考えるきっかけとなるでしょう。AIの発展を支える一方で、その責任についても深く考える必要があり、著作権侵害の問題は、AIの利用だけでなく、開発段階から意識する必要があるのです。
今回は、AIの責任を負う可能性がある対象者や効果的なリスク管理のポイントを詳しく解説します。
AIの責任とは
事業において AIを活用する場合、そのAIが原因で人や他の事業者に損害を与えてしまう場面が想定されます。
AIはあくまで人工知能であり、現在の法律ではAI自体に責任を負わせることはできません。そのため、責任を負う可能性があるのは、以下の2者です。
AIの所有者 | AIの利用方法や管理体制について責任を負う可能性がある |
AIの製造者 | AI の設計や開発段階における欠陥について責任を負う可能性がある |
AIの所有者は、AIの利用規約を明確化したり、AIの動作を監視する体制を構築したりすることが重要です。
AIの責任問題は法的な側面からも注目されており、今後の法整備によって、責任の所在がより明確になることが期待されています。
日本のAI法規制については、以下の記事で詳しくご紹介しています。
AIの所有者における責任
AIの所有者が責任を負う可能性があるのは「不法行為責任」です。不法行為責任とは、他人の権利や利益を侵害した場合に、その損害を賠償する責任を指します。
AIが組み込まれたドローンやロボットなどの所有者は、AIの動作により他人に損害を与えた場合、以下の3つの要件を満たすと不法行為責任を問われる可能性があります。
故意と過失
「故意」とは、意図的にある行為を行うことを指し、「過失」とは、不注意により結果を予測できなかったことを指します。これらの要素は人間の主観に関わるため、AIの所有者には故意または過失が認められる可能性があるのです。
AI所有者に故意が認められるのは、危害を加える意図を持ってAIに命令を下す場合などが考えられます。しかし、現実にはこのような事態は稀であり、故意責任が問題となるケースは少ないと考えられます。
一方、AI所有者の過失責任は、注意を払えば結果を予測できたにもかかわらず、注意を怠り、結果を回避しなかったことを意味します。
事業でAIを活用する場合、通常は事業目的の範囲内での利用が想定されますが、AIが予期せぬ行動に出る可能性もゼロではありません。例えば、AIが日々の学習により成長し、事業目的とは無関係の行動を取る可能性も考えられるのです。
過失の有無は主観的な要素を含むため、判断が難しいケースも多く存在しますが、AI所有者に不法行為責任が生じる場合には、故意または過失が認められます。
相手方への損害
不法行為責任の成立には、相手方に「損害」が発生していることが要件の一つとなります。これは、AIが予期せぬ行動に出た場合でも、相手方に損害が発生しなければ、不法行為責任は問われないことを意味します。
例えば、AIが生成した文章に誤りがあったとしても、その誤りにより相手方が経済的損失を被ったり、名誉を傷つけられたりといった損害が発生しなければ、不法行為責任は生じません。
しかし、AIの挙動によって損害が発生した場合、AIの開発者、提供者、利用者など、様々な関係者、それぞれに責任が生じ、その範囲は法律や契約によって定められます。
因果関係の有無
AIが引き起こした損害に対する責任を考える上で、因果関係の存在は不可欠です。つまり、相手方に発生した損害が、AIの行動によって引き起こされたものである必要があります。
もし、損害がAIとは関係のない別の理由で発生した場合には、AIの所有者や開発者は法的な責任を負いません。
AIの製造者における責任
AIによって人や他の事業者に損害が生じた場合、責任を負う可能性があるのはAIの所有者だけではありません。AIを製造した事業者も製造者として「製造物責任」を負う可能性があります。
製造物責任法(PL法)では、製造物の欠陥により他人に損害を与えた場合に、製造業者等に責任を負わせると定められています。
これは、AIが製造物として扱われる場合、その欠陥によって損害が生じた際には、製造者が責任を問われる可能性があることを意味します。製造物責任が発生する場合は、以下の3つの要件を満たしている必要があります。
欠陥
「欠陥」とは、AIが本来備えているべき安全性や機能が損なわれている状態を意味します。AIによる想定外の行為や誤作動などが原因となって損害が発生した場合、AIには欠陥が認められる可能性があり、そのケースは、以下のように多岐にわたります。
- AIの設計上に誤りがある場合
- 学習データに偏りがある場合
- AIが予期せぬ誤作動を起こした場合
- アップデートにより新たな不具合が発生した場合
ただし、AIは製造者の手を離れた後も学習等を通じて成長するため、AIの欠陥による損害が発生した場合、製造者に一律に責任を負わせることが妥当とは限りません。
AIの特性上、予期せぬ事態が発生する可能性もあり、製造者の責任範囲を明確にすることは非常に難しい課題なのです。
相手方への損害
AIは学習データやアルゴリズムに基づいて自律的に動作するため、予期せぬ行動を取る可能性もゼロではありません。
しかし、先述した通り、AIが想定外の行為に出たとしてもその行為によって他人に損害が発生しない限り、事業者が製造物責任を負うことはありません。
例えば、AIが誤った情報を出力したとしても、その情報により誰も損害を被らなければ、製造物責任は問われないということです。
因果関係の有無
不法行為責任の項目でも触れられている通り、責任の所在を特定するには、AIによる行為と損害との間に因果関係があることが必要です。
もし、損害がAIとは関係のない別の理由で発生した場合には、事業者は責任を負いません。AIが他人に損害を与えた場合、開発者や提供者に過失があれば、不法行為責任を問われる可能性があります。
責任のあるAIを構築するためのポイント
AIの開発者や所有者は、AIの責任について真剣に向き合い、責任あるAIの構築を目指す必要があります。責任あるAIとは、倫理的な原則や社会的な規範に沿って開発・利用されるAIであり、その実現には様々な側面からの検討が求められます。
以下では、責任あるAIを構築するための重要なポイントについて解説します。
透明性を高める
AIがブラックボックス化すると、管理者や顧客からは透明性がないと認識され、不信感を抱かれる可能性もあります。ブラックボックス化は、AIの内部の動きが理解しにくく、入力と出力の関係が明確でないことが多いことが原因です。
さらに、複雑な処理は、管理者は規制当局に対してどのように決定が行われたのかを説明することができず、責任追及や監査の面で大きな問題となります。
一方、説明可能なAIは、AIがどのように結論にたどり着き、どのような判断を下したのかを説明することができ、次にどのような行動を取る可能性が高いのかを人間に説明することも可能です。
AIがどのように判断を下すのかが分かれば、その判断における偏りを最小限に抑えることができ、AIが公平に機能していることを規制当局や消費者、経営陣、従業員に証明することも可能になるでしょう。
海外の大手金融サービス企業では、偏りを少なくし、不正行為やマネーローンダリングを防止するために説明可能なAIに投資しています。信頼を得るためには、AIシステムがモデルの説明可能性を保証し、応答や行動の根拠を示すことが必要なのです。
偏りを意識する
AIの活用は、複雑な問題を迅速かつ正確に処理するだけでなく、意思決定プロセスにおける人間の偏見を軽減する上でも重要な役割を果たします。
例えば、採用選考におけるAIは、組織内に潜在する偏見を取り除き、組織が求める能力と候補者の能力を客観的に比較することで、より公平な採用決定をサポートします。
しかし、このようなAIに、性別や民族による人事上の選好といった人間の偏見が組み込まれてしまうと、意図しない偏りがAIによって増幅される可能性があるでしょう。
AIの出力エラーの最大の原因は、アルゴリズムに入力されるデータの不完全性や不正確性です。多くのリスクマネージャーは、元データに潜在する不完全性や偏りにより、AIが予期せぬ偏りを持つことに強い懸念を抱いています。
データの完全性を確保し、予期せぬ偏りやエラーのリスクを軽減するためには、AIのデータやモデル、人間の使用方法に対して、厳格な検証プロセスと管理体制を確立することが重要です。
AIに偏りが組み込まれてしまえば、AIの将来的な成功や普及は望めないため、AI開発においては、あらゆる段階で偏りを意識し、アルゴリズムを精査し、出力を検証することが重要です。
良質なデータを用意する
消費者はAIシステムに対し、人間以上の正確性を期待しますが、AIの知能は人間が与えた入力によって成り立っています。データが適切に識別され、収集、保守、統合されなければ、AIシステムが期待通りの正確性を提供することはできません。
データの完全性を確保する第一歩は、効果的なキュレーションを行うことです。データごとに最も正当で信頼できる取得元を特定し、アクセスしやすく不明確なものを排除するようにデータを構造化することが求められます。
また、情報を常に最新の状態に保つための知識管理体制も重要です。規制改正や個々の顧客に関することまで、データに影響を与えるあらゆる事象を考慮する必要があります。
さらに、技術者がシステムとエンドユーザーのやり取りを把握し、エンドユーザーがAIシステムの回答の正確性についてフィードバックできるようにするのも大切です。
AIシステムが応答や行動の裏付けとなる根拠を提供できれば、ユーザーの信頼は高まり、ユーザーは提供された根拠が正当かどうかをフィードバックできるでしょう。
AIは時間経過とともに判断方法が改善され、データ処理方法が変わるようにプログラムされています。AIの判断はその時の入力に対してのみ適切であり、最初の結果よりもその後の結果の方が精度が高くなる傾向があります。
しかし、データがなかったり不足したりすると、時間の経過とともに期待通りの改善が行われない可能性があるため、良質なデータを十分に利用できるかどうかにかかっているのです。
AIの学習データ(ビッグデータ)については、以下の記事で詳しくご紹介しています。
多様な人材を確保する
多様なバックグラウンドを持つ人々がAI開発に携わることで、様々な視点から問題点が指摘され、より公平で責任あるAIが生まれる可能性が高まります。
経営者は、社内や各チーム内の男女比が適切であるようにし、スキルや経験、学歴の異なる人、社会、文化、職業についての考えが異なる人がバランスよく混在する集団を作り、AI開発のいずれの段階でも、こうした多様な人材の混在が重要になるでしょう。
自己評価するアルゴリズムを導入する
責任あるAIを構築するためには、AIにある程度の自己分析能力を持たせることが重要です。具体的には、AIが自身でタスクの適切性や正確性を判断できるような仕組みを組み込むことが有効です。
その方法の一つとして、AIが要求に応答する際に、常にその自信度を自己評価するアルゴリズムを導入することが挙げられます。
自信度の点数付けにより、AIがユーザーに誤った情報を提供するリスクを軽減でき、AIが対応困難な質問であることをユーザーに伝え、人間が対応すべきであることを示唆できます。
データを慎重に保護する
効果的で責任あるAIを実現するためには、顧客データの厳重な保護は欠かせません。AIの学習方法は人間が教えるため、データの内容がAIの能力を大きく左右します。
優れたAIシステムを構築する上で、データの質は非常に重要なため、顧客データの収集や管理には細心の注意を払い、プライバシー保護に最大限配慮する必要があります。
エラーが出た際の対処法を定める
AIはインプットされたデータから学習していくため、プログラム実行初期に発生したエラーが大きな問題に発展する恐れもあります。
そのため、AIのアップデート時は、保留中の処理や完了済みのデータへのリスクを最小限に抑える必要があります。不具合やバグが発生するリスクがあり、以前のデータへのアクセスや使用に問題が生じることもあるためです。
誤ったロジックや根拠を文書化し、特定するためのプロセスと手順を修正方法とともに明確に定めておくことが重要です。
セキュリティ面のリスク対策を行う
AIへの依存度が高まるにつれて、セキュリティ面での新たな脆弱性が生まれる可能性があります。AIは大量のデータを学習し、複雑な処理を行うため、サイバー攻撃の標的となりやすい側面やAIの判断プロセスがブラックボックス化している場合、不正なアクセスやデータの改ざんを検知することが困難になることもあります。
このようなリスクに対応するため、企業は以下の点に注意する必要があります。
- AIの開発段階から、セキュリティを考慮した設計・開発プロセスを確立する
- 厳格なチェックや継続的な監視、検証、敵対的テストなどを実施する
- アクセスを適切な人に制限し、データの改ざんや悪用を防止する
- セキュリティやプライバシーのリスクに対し細心の対策を行う
- 過度な監視機能や人種差別の助長に繋がることがないようバランスを図る
ユーザーが最適な作業を行えるようにする
AIを構築する上で最も重要なことは、ユーザーが各目的に合わせて効果的に考え、行動できるようにすることです。AIは問題解決の効率化、より良い手法の導入、ユーザーの思考・行動をサポートすることで、その力を発揮します。
例えば、金融業界ではモルガン・スタンレーがAIを活用してファイナンシャルアドバイザーの業務効率化を図っています。AIによる時間のかかる手動作業の自動化により、支店スタッフの負担を軽減し、ファイナンシャルアドバイザーが顧客との関係構築に集中できる時間を増やしています。
このように、AIは様々な形でユーザーを支援することができますが、そのためには、責任あるAIを構築することが欠かせません。
AIに必須の能力を習得するための人材教育をする
企業は、従業員がAIを使いこなすための生涯学習プログラムを提供する必要があります。AIは常に進化しており、最新の情報を習得し続けることが重要です。
そのため、従業員がAIに関する知識やスキルを継続的に向上させるための機会を提供する必要があるでしょう。
AIは社会の様々な分野で活用されることが期待されているため、AIを開発し、活用する人材を育成することは自社の発展だけでなく、社会全体の発展にも繋がります。
また、AIは使い方により倫理的な問題を引き起こす可能性があるため、技術者が倫理的な観点からAIの開発や活用を行えるような倫理教育も重要です。
AIの法的責任だけでなく倫理的な責任にも備えよう
今回は、AIの責任を負う可能性がある対象者や効果的なリスク管理のポイントを解説しました。AIの精度や正確度は向上を続ける一方で、AIが他人に損害を与えた場合、多額の損害賠償責任を負う可能性もあります。
企業はAIの開発・利用において、AIの透明性や公平性、安全性、説明責任を確保するための措置を講じる必要やAIが社会に与える影響を考慮し、責任あるAIの開発・利用を推進するためのガイドラインや倫理規範を策定することも重要です。
AI研では、AI活用の無料相談を実施しております。貴社のご要望に合わせた最新の市場動向や具体的な活用アイデア、他社事例に加え、貴社の状況に合わせた最適なアドバイスを提供いたします。お気軽にご相談ください。
