Se ha denunciado esta presentación.
Utilizamos tu perfil de LinkedIn y tus datos de actividad para personalizar los anuncios y mostrarte publicidad más relevante. Puedes cambiar tus preferencias de publicidad en cualquier momento.

CPDP2019 summary-report

304 visualizaciones

Publicado el

CPDP2019(ブリュッセルで2019/1-30-2/1)の参加レポート。プライバシー保護、民主主義、GDPR, AIの規制などについて議論するパネルから構成される会議。主に、AI関係のセッションのレポートです。
なお、前回のアップロード版には個人情報が含まれていたので、それを消去したものに訂正しております。

Publicado en: Empresariales
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

CPDP2019 summary-report

  1. 1. CPDP2019 Summary Report Brussel Jan.30 – Feb 1, 2019 中川裕志 理化学研究所・革新知能統合研究センター CPDP=Computer Privacy Data Protection
  2. 2. • CPDPは毎年冬にブリュッセルで開催されるプライバシー保護、 データ保護、法制度、社会制度に関する会議: 10年続いてい る。 – 技術よりでない。 – AI技術に対しては強い規制の立場 • 会議主体=CPDP: is a non-profit platform originally founded in 2007 by research groups from the Vrije Universiteit Brussel, the Université de Namur and Tilburg University. • 5並列セッション・すべてパネルセッション(セッションごとに Sponsorが決まっている) • パネリストはEU在住者が多数(特に英国、ドイツ、フランス、地 元ベルギーが多い)。アメリカからも少数ながら参加者あり。日 本は5,6人。発表に関連したのは2、3名。中国人は見当たらず。 • https://www.cpdpconferences.org/archive • 以下は参加したセッションのサマリー。
  3. 3. Regulating AI- is the GDPR enough? • 法的な問題、プライバシーの問題はAI技術で解決すべき (それができれば苦労はない:中川) • GDPRはデータ最小化だけでなく利用目的制限を含む • AIとプライバシーの関係は、裁判での結果を待つ状態に なっている – かなり裁判が進行しているのかもしれない • このセッション参加者の圧倒的多数がGDPRではプライバ シーを守るには不十分という – さすがEU,CPDP
  4. 4. Access, Move and Protect data in the age of AI (sponsored by Intel) • GDPR22条の問題: – 透明性:データ主体が知るべきこととはなにかを明らかにするべき – 利用した結果の観点、リスクの点からも検討すべき • GDPRは技術中立的と主張 • EU の AI ethics guide lines : もっと具体的であるべきとのコメントあ り。(当事者より) • プラットフォーム非依存の法律が必要 • 公平性と差別禁止が法制度の大きな目標
  5. 5. • データの越境とlocalization(国内に閉じる)の問題 – 利益driven で動いている – GDPRはlocalizationである – EUの価値観をuniversalにしたい。 – 越境は双方向的であるべき – ユーザインターフェースが重要 – 中立的オーソリティな機関が必要(EU側からの意見) – データはモバイルなので、ローカルに考えるのは時代遅れ との意見あり • アメリカからの参加者は、アメリカもしっかりやっている と主張していた。 • アカウンタビィティは一般人に理解可能でないといけな い。
  6. 6. AI governance: role of legislators, tech companies and standard bodies • 誰がgovern するのか? Ethics, 技術のstandard化 • Ethical and secure-by-design algorithm が trusted AI の開発に不可欠 • Accountability, lawfulness, 目的限定, 透明性、えこひいきのないプログラム – 誰にとってのtransparency か?という質問があったが回答は不明瞭 – AI開発者、サービス事業者だけではなく、AIサービス利用者のtransparencyつま りtrustできる利用者であることの必要性(中川) • DPIA • GDPRは民主主義をAIから守るには不十分 • 具体的な問題を提起すべき(CPDP自体の傾向がかなり理念的) • ルールは技術に対して中立であるべき • Standard化作業は政治化してはいけない • AI の定義についての議論が続いているらしい
  7. 7. Responsible AI • AI動作の説明が必要 – 説明には明確なデータが必要 – 法的責任、バイアスがないこと、 sustainability が重 要: use case依存であることに留意すべき • AIの倫理: 利用するデータの集合の内容を知るこ とが大切 – Data quality が重要になる • IEEE EAD ver 3 2019/2, P7000 standard WG • Ethics Certification Program: ECPAIS
  8. 8. • Data economyではデータの処理過程が重要 • 倫理項目のチェックリスト – システムの設計のチェック – trust  責任のとれるAI(責任の定義が問題:中川) • Open source community が消滅しつつあるのが問題 – AI開発の大企業の独占を憂慮か • 学習アルゴリズムが倫理的問題を誘発する可能性 • 同意も system base になる ex. Block chain • 西欧的価値観を普及したいそうです。 – human rights approach – individual data subject is most important?
  9. 9. How the adequacy mechanism works: Progress in the EU's governance of cross-border data flows? • 日本の個人情報保護委員会がEUとの長期のnegotiation で十分性認定にこぎつけた件の報告 • 80回、計400時間にわたる交渉. – この間、EUの方も何度も日本まで足を運んでくれた – EU,日本の両サイドの関係者の努力に深く感謝 – パネルセッションの新保先生の発表の様子の写真は次のスラ イド – 司会はロボット法の著者として有名なUgo Pagallo – GDPRと日本の個人情報保護法との完全な対応付けではなく、 法制度全体としての信頼性を認めるかどうかの問題 • 通信の秘密なども重要な要素のようだ
  10. 10. Data Quality an overlooked aspect in fundamental rights complaint data processing • Reputation risk が 低い data qualityから生まれる  自己情報コントロール権  データ管理者( data controller )がデータ主体をトラストできる かという問題  trust by design • Quality 確保は警察などの当局側にも重要 • AI技術は by design によるhigh data quality を確保すべき – データ最小化技術も含まれる • AIの推定に対する監査アルゴリズムが必要 – 学習データやアルゴリズムのバイアスが問題 – 古いデータ、貧弱なデータは問題である
  11. 11. From research to launch (sponsored by Facebook) • EU ethical guideline の著者メンバーなど参加 • 議論のテーマ – Trustworthy AI, what is responsible AI, AI for social good, sustainable AI, soft ethics • Profilingが懸念対象 – 個人データは個人が管理する権利(GDPRのspirit) • 例:ヘイトスピーチ分類器(FaceBookが開発利用) – 複雑なexamplesからhate speech 判定ルールを構成するのはAIにとっても困難。 – 人間とのインタラクションによって詳細部分を学習する – 表現の自由とのバランスの基本的人権の問題。 法律家と企業の議論が重要 (by EU) • FaceBook のAI研究部門 – 160人の研究者+localな研究者 – 2016年から150本のトップ会議論文採択 – Ethics 無視は企業にとってリスクの時代になった • 地域によってethicsの定義が違う問題にどう対処するかが課題
  12. 12. Facial recognition systems • UK: 警察がスポーツゲーム、音楽コンサート、プロテス トのデモなどで顔認識を使っている – 警察は顔認識結果をどう使っているか分からない – 同意なし • GDPR : 顔認識に関してはGDPR9条でsensitiveデータと してfairness, responsibility, transparency, accountabilityに 関して厳しく利用が規制されている • 顔認識の研究自体は規制されない
  13. 13. • アメリカ:強い規制を持つ州法あり • 全員を対象にした watch list (事前にチェックする顔を リスト化)は、対象人数が多すぎて機能しない • 顔認識結果は100%完璧ではなく、確率的なものであ ることに留意すべき。 • 国境管理に使っているが局所的 – ようするに、パスポートの写真と本人の照合をその場でし ているだけで、中央サーバに顔情報のデータベースが存 在するわけではない – したがって、GDPR的にもプライバシー侵害はない •
  14. 14. Fairness by design GDPR article5(2) • Fairnessの観点からは新規技術や研究開発が信用されてい ない • 一般的に倫理は社会向き、 Fairnessは個人向きだが、曖昧な 部分が多い • FAIR: Faindable, Accessible,Interoperable, Reusable • 同意は目的依存 • 緻密なアクセス制御が必要 – consistent with data privacy principle – 結果はデータ主体に開示されるべき
  15. 15. Profiling (sponsored by Microsoft) • Profiling が危険な例:Alexは利用者の病気を推定して治療を進め る privacy 危険にさらされている • Profiling は目的を限定すべき • 関連条文: – GDPR art 15:right to access, art.16: Right to rectification • 推定データ は法的には personal dataかどうかで正反対の判断が 出ている。 – 29条作業部会 vs European Court of Justice • Sensitive personal data and inferences – 意図的かどうか、および法的責任の問題あり • Trade secret として扱う方法もある
  16. 16. • 分野ごとに高リスクな推測データが 異なる – 技術者と社会がもっと話し合う必要あり • Personal target data – Search, advertising, pricing, routing, hiring, credit – メタデータからの推測もある • Efficiency が fairness を損なう場合ることに注意 • Fairness – 文脈依存的 – Fairnessの条件にReasonable inferenceあり( privacy & reasonable company’s profit) • 表現の自由とプライバシー保護のバランスが重要 – ただし、分野ごとに状況は違う
  17. 17. GDPR 22条 自動的なprofiling結果に服さなくてよい権利 • Profiling と 自動的(機械的)判断の関係に注意 すべき • そもそも22条に関して、何をpersonal data と考え るべきか検討すべき • データブローカーによる合法なデータの反復的 なabuseが問題  その企業に文句をいうべき • このような考察においてprivacy と identity の関 係が重要(忘れられがち)
  18. 18. Tech standards on ethics and/or regulations (sponsored by IEEE) • Standardization の政治化は繰り返されているが、 democracyの視点ではかなり危険では? • What is ethics in AI? という問題敵はあったが解答なし。 • Misuse of standardization が多い。理由は、standard作成者 とロビー活動している人が同じことが多いからだそうだ。 • Ethical risk assessment に関してBS8611 という method/toolkit がある。 • ISO/IEC JTC1 では SC42 がAI関連を扱う。
  19. 19. • 産業界の政治ゲームと化している現状に対して – ゲートキーパーが必要: – 例:EU司法裁判所 – 例:EDPB (旧29条作業部会) • Defact standardを無視した議論が続いていた。 セッション後質問してみたら、Defact Standardは 国ごと、業界ごとのローカルなもので、それを internationalizeするのが我々の仕事だという正 論だけがかえってきた(中川) • Multi-stakeholderの問題も無視されていた

×