注目度が高まるAI倫理と個人情報保護の関係 - カメラ画像の利活用を題材に

IT・情報セキュリティ
池田 毅弁護士 池田・染谷法律事務所 今村 敏弁護士 池田・染谷法律事務所

 当社は、防犯カメラの画像をAIにより顔認証して分析し、対象者の属性などを特定・分類すること検討しています。当該利用方法については、万引き対策や犯罪者の特定等での活躍が期待される反面として、プライバシーの問題や差別の問題があると聞きます。注意すべきことは何でしょうか。

 顔認証によるカメラ画像の利活用では、利用するデータの取扱いに関する個人情報やプライバシーに関する問題と、データをAIにより分析して対象者の属性を特定・分類することなどに伴うAI倫理の問題を検討する必要があります。

解説

目次

  1. はじめに
  2. AI倫理
    1. 倫理とは
    2. 原則策定のフェーズから実装のフェーズへ
    3. AI倫理とプライバシー原則・個人情報保護の関係
  3. 個人情報保護の問題

はじめに

 技術の進歩によりカメラ画像における顔認識・認証技術の利活用の有用性はより一層増しています。たとえば、カメラ画像を解析・顔認証することであらかじめ設定しているVIPを瞬時に判別し、特別なサービスを提供すること、セキュリティゲートを顔認証で通過することや、指名手配犯など要注意人物・危険人物をマークすることも可能です。また、近年のコロナパンデミック対応において、中国では個人の行動監視に顔認証技術が用いられたとの報道もあります。

 加えて、AIにおけるディープラーニングで画像を解析し、たとえば性別や体格、年齢などの情報を推定することも可能となり、対象者の属性に合わせた広告を表示する取組みなどもすでに行われています。さらに、AIによるスコアリングも可能となり、たとえば、カメラ画像にSNSの情報・端末位置情報等も合わせることで行動パターンを分析し、不審な動きなどの特徴を早期に発見しマークすることもできます。

 これらは一見すると便利に映るものの、視点を変えると我々の行動が「カメラの目」と「AIの脳」を通して常に監視されている状態となり、漠然とした不安に起因する行動に対する萎縮効果が働いたり、AIにより誤った認識に基づく負のレッテルを貼られてしまうといった様々な問題点が浮き彫りになりつつあります。このため世界的にAIの意思決定にどこまで委ねるのか、どのような制約をかけるべきなのかなどという点で、AIのルール(AI倫理)が議論されているところです。以下では、AI倫理とは何かという全体像を確認し、そのなかで特に、情報倫理にあたるプライバシーに関する問題(個人情報保護を含む)やプライバシーガバナンスについて紹介します。

AI倫理

倫理とは

 通常「倫理」とは、道徳・社会慣習として成立している行為規範などとされます。専門職の倫理としては医療倫理や法曹倫理 1 なども存在します。他方で、AI倫理(Artificial Intelligence Ethics)とは何か。その概念自体も議論し始めると難しい問題があるところですが、概ね、人間中心であること、公平性、透明性、説明可能性などが主たるテーマとして取り扱われています。また、個人情報の取扱いに係るデータ漏えいやプライバシー侵害の問題なども安全性の確保、プライバシーの確保やセキュリティ確保の問題としてAI倫理に含み考えられています。

 AI倫理が、早い段階から国際的な議論になりITテック企業の関心事となっている理由は、一度技術開発が進行してからでは対処することが難しい問題がAIによって生じてしまう前に、この問題を回避しようというというところに議論動機があると考えられます。

 日本では、AI倫理については人工知能学会「人工知能学会 倫理指針」(2017年2月)、内閣府「「人工知能と人間社会に関する懇談会」報告書」(2017年3月)、AIネットワーク社会推進会議「報告書2017―AIネットワーク化に関する国際的な議論の推進に向けて」(2017年7月)があり、「人間中心のAI社会原則」、「AI開発原則」、「AI利活用原則」が公表されています。このように、これまでも国際的な議論の場でも積極的な発信を行ってきたと言えます。人間中心のAI社会原則の考え方を踏まえ、関係省庁にてAI関連の指針・原則・ガイドライン等の策定が進捗しています 2

人工知能学会 倫理指針 3

① 人類への貢献
人工知能学会会員は、人類の平和、安全、福祉、公共の利益に貢献し、基本的人権と尊厳を守り、文化の多様性を尊重する。人工知能学会会員は人工知能を設計、開発、運用する際には専門家として人類の安全への脅威を排除するように努める。
② 法規制の遵守
人工知能学会会員は専門家として、研究開発に関わる法規制、知的財産、他者との契約や合意を尊重しなければならない。人工知能学会会員は他者の情報や財産の侵害や損失といった危害を加えてはならず、直接的のみならず間接的にも他者に危害を加えるような意図をもって人工知能を利用しない。
③ 他者のプライバシーの尊重
人工知能学会会員は、人工知能の利用および開発において、他者のプライバシーを尊重し、関連する法規に則って個人情報の適正な取扱いを行う義務を負う。
④ 公正性
人工知能学会会員は、人工知能の開発と利用において常に公正さを持ち、人工知能が人間社会において不公平や格差をもたらす可能性があることを認識し、開発にあたって差別を行わないよう留意する。人工知能学会会員は人類が公平、平等に人工知能を利用できるように努める。
⑤ 安全性
人工知能学会会員は専門家として、人工知能の安全性及びその制御における責任を認識し、人工知能の開発と利用において常に安全性と制御可能性、必要とされる機密性について留意し、同時に人工知能を利用する者に対し適切な情報提供と注意喚起を行うように努める。
⑥ 誠実な振る舞い
人工知能学会会員は、人工知能が社会へ与える影響が大きいことを認識し、社会に対して誠実に信頼されるように振る舞う。人工知能学会会員は専門家として虚偽や不明瞭な主張を行わず、研究開発を行った人工知能の技術的限界や問題点について科学的に真摯に説明を行う。
⑦ 社会に対する責任
人工知能学会会員は、研究開発を行った人工知能がもたらす結果について検証し、潜在的な危険性については社会に対して警鐘を鳴らさなければならない。人工知能学会会員は意図に反して研究開発が他者に危害を加える用途に利用される可能性があることを認識し、悪用されることを防止する措置を講じるように努める。また、同時に人工知能が悪用されることを発見した者や告発した者が不利益を被るようなことがないように努める。
⑧ 社会との対話と自己研鑽
人工知能学会会員は、人工知能に関する社会的な理解が深まるよう努める。人工知能学会会員は、社会には様々な声があることを理解し、社会から真摯に学び、理解を深め、社会との不断の対話を通じて専門家として人間社会の平和と幸福に貢献することとする。人工知能学会会員は高度な専門家として絶え間ない自己研鑽に努め自己の能力の向上を行うと同時にそれを望む者を支援することとする。
⑨ 人工知能への倫理遵守の要請
人工知能が社会の構成員またはそれに準じるものとなるためには、上に定めた人工知能学会員と同等に倫理指針を遵守できなければならない。


人間中心のAI社会原則 4

① 人間中心の原則
AIは、人間の労働の一部を代替するのみならず、高度な道具として人間の仕事を補助することにより、人間の能力や創造性を拡大することができる等
② 教育・リテラシーの原則
人々の格差やAI弱者を生み出さないために、幼児教育や初等中等教育において幅広く機会が提供されるほか、社会人や高齢者の学び直しの機会の提供が求められる等
③ プライバシー確保の原則
パーソナルデータを利用したAI、及びAIを活用したサービスソリューションは、政府における利用を含め、個人の自由、尊厳、平等が侵害されないようにすべきである等
④ セキュリティ確保の原則
社会は、AIの利用におけるリスクの正しい評価や、リスクを低減するための研究等、AIに関わる層の厚い研究開発を推進し、サイバーセキュリティの確保を含むリスク管理のための取組を進めなければならない等
⑤ 公正競争確保の原則
特定の国にAIに関する資源が集中することにより、その支配的な地位を利用した不当なデータの取集や主権の侵害が行われる社会であってはならない等
⑥ 公平性・説明責任、及び透明性(FAT)の原則
AIの設計思想の下において、人々がその人種、性別、国籍、年齢、政治的信念、宗教等の多様なバックグラウンドを理由に不当な差別をされることなく、全ての人々が公平に扱わなければならない等
⑦ イノベーションの原則
Society5.0を実現し、AIの発展によって、人も併せて進化していくような継続的なイノベーションを目指すため、国境や産学官民、人種、性別、国籍、年齢、政治的信念、宗教等の垣根を越えて、幅広い知識、視点、発想等に基づき、人材・研究の両面から、徹底的な国際化・多様化と産学官民連携を推進するべきである等


AI開発原則 5

① 連携の原則
開発者は、AIシステムの相互接続性と相互運用性に留意する。
② 透明性の原則
開発者は、AIシステムの入出力の検証可能性及び判断結果の説明可能性に留意する。
③ 制御可能性の原則
開発者は、AIシステムの制御可能性に留意する。
④ 安全の原則
開発者は、AIシステムがアクチュエータ等を通じて利用者及び第三者の生命・身体・財産に危害を及ぼすことがないように配慮する。
⑤ セキュリティの原則
開発者は、AIシステムのセキュリティに留意する。
⑥ プライバシーの原則
開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害されないよう配慮する。
⑦ 倫理の原則
開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重する。


AI利活用原則 6

① 適正利用の原則
利用者は、人間とAIシステムとの間及び利用者間における適切な役割分担のもと、適正な範囲及び方法でAIシステム又は AIサービスを利用するよう努める。
② 適正学習の原則
利用者及びデータ提供者は、AIシステムの学習等に用いるデータの質に留意する。
③ 連携の原則
AIサービスプロバイダ、ビジネス利用者及びデータ提供者は、AIシステム又はAIサービス相互間の連携に留意する。また、利用者は、AIシステムがネットワーク化することによってリスクが惹起・増幅される可能性があることに留意する。
④ 安全の原則
利用者は、AIシステム又は AIサービスの利活用により、アクチュエータ等を通じて、利用者及び第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する
⑤ セキュリティの原則
利用者及びデータ提供者は、AIシステム又は AIサービスのセキュリティに留意する。
⑥ プライバシーの原則
利用者及びデータ提供者は、AIシステム又はAIサービスの利活用において、他者又は自己のプライバシーが侵害されないよう配慮する。
⑦ 尊厳・自律の原則
利用者は、AIシステム又は AIサービスの利活用において、人間の尊厳と個人の自律を尊重する。
⑧ 公平性の原則
AIサービスプロバイダ、ビジネス利用者及びデータ提供者は、AIシステム又はAIサービスの判断にバイアスが含まれる可能性があることに留意し、また、AIシステム又はAIサービスの判断によって個人及び集団が不当に差別されないよう配慮する。
⑨ 透明性の原則
AIサービスフプバイダ及びビジネス利用者は、AIシステム又はAIサービスの入出力等の検証可能性及び判断結果の説明可能性に留意する。
⑩ アカウンタビリティの原則
利用者は、ステークホルダに対しアカウンタビリティを果たすよう努める。

 こうした議論は世界的に行われ 7 ており、AI倫理と言われる内容の大きな枠組みについては、概ね共通理解が形成されてきていると言えます。もっとも、そのルール化について、日本では、AIに関する技術がその発展途上にあることも考慮し、法規制化を目指すものではなく、「非規制的で非拘束的なソフトローとして国際的に共有される指針」などとされている一方で、欧州では、法規制化に向けた動きがなされているなど、国際的な議論動向には依然として注視が必要です。

原則策定のフェーズから実装のフェーズへ

 民間企業においてもAI倫理については検討・公表する企業が増えています。たとえば、マイクロソフト 8、IBM 9、NTTデータ 10、SONY 11、富士通 12、日立 13、NEC 14 などの各企業では、AI倫理の指針をそれぞれ定めており、国際的な大企業を中心にAI倫理に対する問題意識は高く醸成されていると言えます。そして、その内容は、概ね各社共通で固まってきており、前述の「人間中心のAI社会原則」、「AI開発原則」、「AI利活用原則」を受けた内容になっています。今後の社会においては、各企業はプライバシーポリシーやセキュリティーポリシーと同様にAI倫理に関するポリシーを策定・公表する流れにあると言えます。プライバシーについては企業コンプライアンスの問題としてプライバシーガバナンス 15 の議論がありますが、AI倫理もガバナンスとして体制を構築し企業レベルでの対応がすでに求められています。

 そして民間企業では現在、AI倫理を策定・公表することから、実際に個別のサービスについて、AI倫理に照らして各社のAI技術を実装し、開発段階からデザインすることが求められているフェーズに移行しつつあるとも捉えられます。

AI倫理とプライバシー原則・個人情報保護の関係

 これらの倫理指針AI原則を確認するといずれにおいても「プライバシー原則」が求められています。プライバシーの問題はAIに限定された問題ではありませんが、AIにおいても非常に大切なポイントとして捉えられています。通常のプライバシーの議論では、データの収集、処理(解析・利用)などにおいて、個人がその利用目的などを知る権利、データにアクセスする権利、データの収集、処理に対して異議を唱える権利などの形でその侵害へのリスクが議論されています。AIの場面では、さらに、ビックデータを活用したプロファイリングの問題やフェイクニュース(ディープフェイクを含む)など偽の情報の流通の問題もこの文脈で議論されています。

(参考)AIの利用におけるプライバシー侵害のリスク

出典:日立コンサルティング「AI利用におけるプライバシー」

出典:日立コンサルティング「AI利用におけるプライバシー

 そして、AI技術の開発においては、①学習済みモデルの生成段階(学習段階)と生成された②学習済みモデルの利用段階(利用段階)の2つの段階でそれぞれ問題になります。たとえば、カメラ画像の認証AIの場合、大量の画像を学習させる段階と、完成したカメラ画像認証AIを実装して街のカメラを通して、そこに映る人々に対して分析等を加える段階があります。

 明確にAI倫理の問題として議論されたものではないですが、特徴量データ(取得した画像から人物の目、鼻、口の位置関係等の特徴を抽出し、数値化したデータ)の活用やプロファイリングを意識して議論したものとして、「カメラ画像利活用ガイドブックver2.016 があります。そこでは、カメラ画像の利活用の場面おいては、法を遵守する必要があるが、通常の「個人情報」の取扱いに加えて、以下のような特徴があるとしプライバシーの問題などとして捉えています。

  1. 顔情報は、IDなどと異なり事後的な変更が困難。
  2. 被撮影者が、撮影されていることを必ずしも認識していない。
  3. 撮影されることの拒絶が困難。
  4. 被撮影者が、カメラの外観から利用目的・利用範囲を理解することは困難。
  5. カメラ画像の情報量が膨大であり、撮影時点に予測しなかった解析・プロファイリング等が技術向上により実現する場合がある。

出典:IoTコンソーシアム、総務省、経産省「カメラ画像利活用ガイドブックver2.0」(2018年3月)4頁

個人情報保護の問題

 個人情報保護法は、AIにおける利活用やカメラ画像の利活用に特化して規律されているものではありませんが、そこで扱われるカメラ画像や顔認証のデータ(特徴量データ)が「個人情報」に該当するかなどの形で問題となり、上記のプライバシーの問題とは別に個人情報保護法の遵守が必要となります。

 個人情報該当性については、本人を特定・識別が可能な防犯カメラ画像および顔認証データについては「個人情報」(体系的に構成して個人情報データベース等を構築した場合は「個人データ」、加えて利用停止等を行うことのできる権限を有するものなどは「保有個人データ」(個人情報保護法2条6項、7項))に該当するため、その取扱いについては個人情報保護法を遵守する必要があります 17

 このため、取得・利用時の対応として、本人を判別可能なカメラ画像を撮影録画する場合は、個人情報の取得となりますので、個人情報の利用目的をあらかじめ公表しておくか、または個人情報の取得後速やかに本人に通知もしくは公表することが必要です(個人情報保護法15条、16条、18条)。もっとも、防犯カメラにより、防犯目的のみのために撮影する場合、「取得の状況からみて利用目的が明らか」(個人情報保護法18条4項4号)であることから、利用目的の通知・公表は不要と解されますが、防犯カメラが作動中であることを店舗の入口や設置場所等に掲示するなど、本人に対して自身の個人情報が取得されていることを認識させるための措置を講ずることが望ましいと考えられています。

 また、利用停止などの対応も必要となります。個人情報保護法の令和2年改正では、本人関与を強化する目的で「本人の権利又は正当な利益が害されるおそれがある場合」に利用停止・消去等の請求ができることが新たに定められています(令和2年改正個人情報保護法30条5項)。このため、カメラ画像が「保有個人データ」として管理されている場合については、被撮影者からの利用停止などに対応する必要が生じる場合があります。もっとも、「当該保有個人データの利用停止等又は第三者への提供の停止に多額の費用を要する場合その他の利用停止等又は第三者への提供の停止を行うことが困難な場合であって、本人の権利利益を保護するため必要なこれに代わるべき措置をとるときは、この限りでない」(令和2年改正個人情報保護法第30条6項)とされているため、特に特徴量データやそこから生じる派生データに対する削除についてはどこまで応じる必要があるのかといった疑問が生じ得ます。


  1. 弁護士倫理については、弁護士職務基本規程によってその内容が定められており、その冒頭で「弁護士は、基本的人権の擁護と社会正義の実現を使命とする。その使命達成のために、弁護士には職務の自由と独立が要請され、高度の自治が保障されている。弁護士は、その使命を自覚し、自らの行動を規律する社会的責任を負う。よって、ここに弁護士の職務に関する倫理と行為規範を明らかにするため、弁護士職務基本規程を制定する。」と掲げられている。 ↩︎

  2. 内閣府政策統括官(科学技術・イノベーション担当)「関係府省庁におけるAI関連指針・原則・ガイドライン等の策定状況」(令和2年12月) ↩︎

  3. 人工知能学会「人工知能学会 倫理指針」(2017年2月28日) ↩︎

  4. 統合イノベーション戦略推進会議決定「人間中心のAI社会原則」(平成31年3月29日)、総務省「国内外の議論及び国際的な議論の動向」(令和元年5月)2頁 ↩︎

  5. AIネットワーク社会推進会議「報告書2017 - AIネットワーク化に関する国際的な議論の推進に向けて - 」(平成29年7月28日)29頁 ↩︎

  6. AIネットワーク社会推進会議「AI利活用ガイドライン~AI利活用のためのプラクティカルリファレンス~」(令和元年8月9日) ↩︎

  7. 欧米の議論状況については、「AIネットワーク社会推進協議会」令和元年5月30日第12回資料3「国内外の動向及び国際的な議論の動向」や、令和2年11月12日第16回資料3「国内外の動向及び国際的な議論の動向」が大変参考になります。 ↩︎

  8. Microsoft「MicrosoftのAIの基本原則」 ↩︎

  9. IBM「AI倫理」 ↩︎

  10. NTTデータ「NTTデータグループ AI指針」 ↩︎

  11. SONY「ソニーグループのAIへの取り組み」 ↩︎

  12. 富士通「富士通グループAIコミットメント」 ↩︎

  13. 日立「AI倫理原則」 ↩︎

  14. NEC「NEC グループAIと人権に関するポリシー」 ↩︎

  15. DX時代における企業のプライバシーガバナンスガイドブックver1.0」(2020年8月)。重要項目として、①体制の構築、②運用ルールの策定と周知、③企業内プライバシーに係る文化の醸成、④消費者とのコミュニケーション、⑤その他のステークホルダーとのコミュニケーション」を提示している。 ↩︎

  16. IoT推進コンソーシアム、総務省、経産省「カメラ画像利活用ガイドブックver2.0」(2018年3月) ↩︎

  17. 「個人情報」とは、「生存する個人に関する情報であって」「特定の個人を識別することができるもの(他の情報と容易に照合することができ、それにより特定の個人を識別することができることとなるものを含む。)」または「個人識別符号が含まれるもの」をいう(個人情報保護法2条1項各号)、とされています。そして「個人識別符号」とは、「特定の個人の身体の一部の特徴を電子計算機の用に供するために変換した文字、番号、記号その他の符号であって、当該特定の個人を識別することができるもの」(個人情報保護法2条2項1号)等であって「政令で定めるもの」をいうとされ、「顔の骨格及び皮膚の色並びに目、鼻、口その他の顔の部位の位置及び形状によって定まる容貌」(個人情報保護法施行令1条1号ロ)とされています。 ↩︎

この実務Q&Aを見ている人はこちらも見ています

無料会員登録で
リサーチ業務を効率化

1分で登録完了

無料で会員登録する