公開日 2023/06/20
ビジネスの現場に大きな変革をもたらすといわれている「ChatGPT」をはじめとする生成AI。しかし誕生してから間もないため、ガイドラインや法整備が追いついていないのが現状だ。生成AIの利活用にはどのような法的リスクがあるのか、企業はどのように対応すべきなのか、AI関係の法務に詳しい弁護士の福岡真之介氏に伺った。
西村あさひ法律事務所パートナー弁護士/アメリカ・ニューヨーク州弁護士 福岡 真之介 氏
東京大学法学部、デューク大学ロースクール卒業。企業法務弁護士として、AIなどのテクノロジー関連法務を中心に取り扱う。2020年から、経済産業省「AI社会実装アーキテクチャー検討会」及び「AI社会実装ガイド・ワーキンググループ」の委員を務める。著書に『AI・データ倫理の教科書』など。
――2023年5月時点の生成AIに対する規制はどのような状況でしょうか。
AIに関する包括的な規制はまだ日本にはありません。日本ディープラーニング協会(JDLA)が、「生成AIの利用ガイドライン」を発表していますが、従業員向けの社内ルールであり、公的なものではありません。海外ではEUで、世界で初めてAIを包括的に規制する法律である「AI規則」を2023年内に成立させようとしています。一方アメリカでは、規制の議論が出始めていますが、多くのIT企業が存在することもあってそのような規制が実現するかは未知数です。
――福岡先生は、生成AIを使った場合に起こり得る法的リスクとして、「1.著作権侵害」「2.誤情報の利用」「3.秘密情報の漏洩」「4.個人情報の不適切な利用」「5.悪用」の5つを挙げています。ビジネス利用にあたって特に問題になりそうな「1.著作権侵害」からご説明いただけますか。
ひと口に著作権の侵害といっても、生成AIとどう関わるかによって状況が変わってきます。人々が生成AIを作成したり利用したりするのは以下の4段階があり、それぞれで著作権侵害のケースも異なります。
① 大規模言語モデル(LLM)の作成
② 特定分野のデータの学習(ファインチューニング)
③ プロンプト入力
④ プロンプトに基づいてAIが出力したアウトプットの利用
つまり、①大規模言語モデルの作成と②特定分野のデータの学習は、学習用データとして他の著作物を利用することが著作権侵害になるか、③プロンプト入力は、プロンプト(ChatGPTに入力する質問や指示)に他の著作物を入力することが著作権侵害になるか、④プロンプトに基づいてAIが出力したアウトプットの利用は、アウトプットが他の著作物に似ている場合に著作権侵害になるか、という問題です。
①と②はAIの開発段階で、①で作成した言語モデルを、②で自社向けのモデルにするために追加学習をさせるのですが、著作権法30条の4では、「情報解析」においては必要な範囲内であれば著作権者の許諾を得ずに利用できるとしています。ただし、これは著作権者の利益を不当に害してはならないとしており、著作権侵害にあたるかどうかはケースバイケースです。
――そうすると、一般のビジネスパーソンにも関わりが深いのは、「③プロンプト入力」と「④アウトプットの利用」の段階ということでしょうか。
そうですね、生成AIを利用する際、プロンプトに他者が作成した文章やイラストなどを入力することがありますが、先ほどの著作権法30条の4が適用されるかどうかが問題になります。学習用に大量のデータを入力することが「情報解析」とされるので、プロンプト入力は情報解析でないとされることもあり、入力内容によっては著作権者の許諾が必要となる可能性もあります。
④のアウトプットの利用は、それが「他の著作物に依拠し、他の著作物と類似性がある場合」に著作権の侵害になります。
――アウトプットした成果物に著作権が発生しないのはどのようなケースなのでしょうか。
簡単にいうと、AIがアプトプットした成果物を製品として販売し、それを誰かがコピーしたときに、自分の作品だと主張できるかどうかということです。著作権とは、その創作物に創作者の創作意図と創作的寄与がある場合に発生するとされています。
例えば、AIに「〇〇的なイラストを描いて」という簡単な指示を出しただけでは、そこに創作意図と創作的寄与があるとは通常は認められません。それに対し、創作者が自分の創作物に独自のイメージを持ち、それを具体化させるためにいろいろと工夫して生成AIを活用する場合は、創作意図と創作的寄与があるとされて著作権が発生します。こちらもケースバイケースといっていいでしょう。
――これまでに生成AIの著作権侵害に関する裁判は起こっていますか。
海外では、フォトストックサービスのGetty Images社が2023年の1月、2月の2回にわたり、画像生成AIの「Stable Diffusion」を開発した企業を著作権侵害で訴えています。
一方、私が知る限り日本ではまだ裁判事例はありません。ただ法的に問題がなくても、倫理的にクリエイターに対するリスペクトが欠けていると炎上を招くことになります。生成AIの成果物に関しても、ある作者や作品の雰囲気やタッチなどを参考に、プロンプトに入力して成果物をアウトプットした場合、それがたとえ著作権法の対象にならないとしても、著作権者への配慮に欠け、安易に利用したと見なされた場合、社会的に非難されることが起こりうるということは考えておかなければならないでしょう。
――それでは次に、生成AIを使った場合に起こり得る法的リスクの2つめ「誤情報の利用」を解説していただけますか。
生成AIは基本的に、入力した単語に対して、関連性のある単語を膨大な学習データから予測するという作業の繰り返しで答えをアウトプットします。そのため、ある程度の確率で間違うのは必然だといえるでしょう。AIの答えを鵜呑みにすると、誤情報の利用につながりかねないので注意が必要です。
――法的リスクの3つめの「秘密情報の漏えい」に関しては、社内情報流出などのニュースがすでに報じられています。またChatGPTで入力したデータは、デフォルトとして学習用にオープンAIに利用されるという利用規約を知らないまま、情報を入力してしまう人がけっこう多いようです。
秘密情報の漏えいを防ぐためは、技術的な面、非技術的な面での対応策が考えられます。技術的な対応策としては、ChatGPTのURLへアクセスできないようブロックする、ソフトウェアを通じてフィルターをかけて機密情報を入力したら、それを漏出するのを阻止するといったやり方があります。また、大手企業では自前の生成AIを開発しようとしています。非技術的な対応策としては、生成AIの利用者への教育が考えられます。
――秘密情報の漏えいは、4つめの法的リスク「個人情報の不適切な利用」と重なるところがあると思います。どちらも「うっかり入力してしまった」ということがありそうです。
個人情報保護法では「個人情報」と「個人データ」を区別しており、「個人情報」は個人を特定できる情報であるのに対し、「個人データ」はエクセルなどで個人情報がデータベース化されて検索可能な状態になっている情報で、個人情報より取り扱いに規制が多くあります。個人データを第三者に提供する場合は本人の同意が必要となるので、生成AIで入力する際にも慎重な取り扱いが求められます。
――その他に、倫理的な面で懸念されることは何でしょうか。
私は、先ほどの5つの法的リスク以外に、生成AIは「公平性」「透明性」の問題をはらんでいると考えています。
まず、「公平性」ですが、すべてのAIは過去のデータを学習することで成立しています。過去のデータにバイアスがかかっていれば、バイアスがかかった状態で出力されます。例えば、「Stable Diffusion」のような画像生成AIに、「日本の社長の画像を作って」と入力し、出てくる画像がすべて男性だったとすると、生成AIには人種やジェンダーなどに対する社会のバイアス、偏見がそのまま反映されているとう批判を受けるかもしれません。よって、AIが作った生成物に対しては、多角的で公平な視点でチェックすることが重要です。
次の「透明性」ですが、「AIを使ったときにどのようなデータを集めて、どのような処理をしたのかを開示すべきだ」「AIで作ったことを表示すべきだ」という議論が出ています。先述したEUの規制では、生成AIの成果物には「Made with AI」と表示するという案が出ています。
――後々トラブルになったときに、「AIがやったことなので、知りませんでした」では済まされないということですね。
トラブルにならないよう、プロンプトの入力や成果物を利用する際に十分配慮することはもちろんですが、トラブルになった場合に備えて、入力した情報や成果物ができるまでの過程を記録として残しておくということも必要でしょう。
生成AIの利用において、人間にはチェックや管理をするマネジメント能力が求められます。例えるならば、生成AIは「とても優秀で24時間いつでも働くけれど、時々とんでもないミスをするので、100%の信頼はおけない部下」といってもいいでしょう。そうした部下=生成AIのやった仕事に対しては、当然、上司=人間に監督責任が生じます。上司がいい加減な指示を出すと部下はそれ相応の仕事をするので、明確な指示を出して、その仕事は必ずチェックする。つまり生成AIに対して、人間はマネジャーとしての役割が必要になってきます。今後は、適切に生成AIを利活用するための、ガイドラインやリテラシー教育が必要になってくるでしょう。
※文中の内容・肩書等はすべて掲載当時のものです。
本記事はお役に立ちましたか?
テクノロジーと正しく向き合いHRの可能性を広げるチャンスに
自分の無知を自覚し 今こそ、外に出よう
AIの進化とHRの未来
AI時代に「なくなる仕事」「なくならない仕事」
HITO vol.20『海外のHRトレンド』
《ChatGPT×働く》自分は何をしたいのか ──スキル信仰の先を見据えよ
《ChatGPT×働く》生成AIと共にある、創造あふれる未来へ
《ChatGPT×働く》代替されない「経験」や「情熱」「人間的な個性」が価値を増す時代に
ChatGPTが急速に普及する中、これからの「AI人材」をどう育成するか
人的資本経営の実現に向けたChatGPTの活用が、これからの人材マネジメントのカギになる
ChatGPTは労働力不足を救うのか──AI導入による、雇用や労働市場への影響
ChatGPTは働く人のウェルビーイングにどのような影響をもたらすか
ChatGPT時代に求められるのは、正しく活用するための《知識とモラル》そして変化を恐れない《姿勢》
follow us
メルマガ登録&SNSフォローで最新情報をチェック!