SlideShare una empresa de Scribd logo
1 de 19
Descargar para leer sin conexión
CPDP2019
Summary Report
Brussel Jan.30 – Feb 1, 2019
中川裕志
理化学研究所・革新知能統合研究センター
CPDP=Computer Privacy Data Protection
• CPDPは毎年冬にブリュッセルで開催されるプライバシー保護、
データ保護、法制度、社会制度に関する会議: 10年続いてい
る。
– 技術よりでない。
– AI技術に対しては強い規制の立場
• 会議主体=CPDP: is a non-profit platform originally founded in 2007 by
research groups from the Vrije Universiteit Brussel, the Université de Namur
and Tilburg University.
• 5並列セッション・すべてパネルセッション(セッションごとに
Sponsorが決まっている)
• パネリストはEU在住者が多数(特に英国、ドイツ、フランス、地
元ベルギーが多い)。アメリカからも少数ながら参加者あり。日
本は5,6人。発表に関連したのは2、3名。中国人は見当たらず。
• https://www.cpdpconferences.org/archive
• 以下は参加したセッションのサマリー。
Regulating AI- is the GDPR enough?
• 法的な問題、プライバシーの問題はAI技術で解決すべき
(それができれば苦労はない:中川)
• GDPRはデータ最小化だけでなく利用目的制限を含む
• AIとプライバシーの関係は、裁判での結果を待つ状態に
なっている
– かなり裁判が進行しているのかもしれない
• このセッション参加者の圧倒的多数がGDPRではプライバ
シーを守るには不十分という
– さすがEU,CPDP
Access, Move and Protect data in the
age of AI
(sponsored by Intel)
• GDPR22条の問題:
– 透明性:データ主体が知るべきこととはなにかを明らかにするべき
– 利用した結果の観点、リスクの点からも検討すべき
• GDPRは技術中立的と主張
• EU の AI ethics guide lines : もっと具体的であるべきとのコメントあ
り。(当事者より)
• プラットフォーム非依存の法律が必要
• 公平性と差別禁止が法制度の大きな目標
• データの越境とlocalization(国内に閉じる)の問題
– 利益driven で動いている
– GDPRはlocalizationである
– EUの価値観をuniversalにしたい。
– 越境は双方向的であるべき
– ユーザインターフェースが重要
– 中立的オーソリティな機関が必要(EU側からの意見)
– データはモバイルなので、ローカルに考えるのは時代遅れ
との意見あり
• アメリカからの参加者は、アメリカもしっかりやっている
と主張していた。
• アカウンタビィティは一般人に理解可能でないといけな
い。
AI governance: role of legislators, tech companies and
standard bodies
• 誰がgovern するのか? Ethics, 技術のstandard化
• Ethical and secure-by-design algorithm が trusted AI の開発に不可欠
• Accountability, lawfulness, 目的限定, 透明性、えこひいきのないプログラム
– 誰にとってのtransparency か?という質問があったが回答は不明瞭
– AI開発者、サービス事業者だけではなく、AIサービス利用者のtransparencyつま
りtrustできる利用者であることの必要性(中川)
• DPIA
• GDPRは民主主義をAIから守るには不十分
• 具体的な問題を提起すべき(CPDP自体の傾向がかなり理念的)
• ルールは技術に対して中立であるべき
• Standard化作業は政治化してはいけない
• AI の定義についての議論が続いているらしい
Responsible AI
• AI動作の説明が必要
– 説明には明確なデータが必要
– 法的責任、バイアスがないこと、 sustainability が重
要: use case依存であることに留意すべき
• AIの倫理: 利用するデータの集合の内容を知るこ
とが大切
– Data quality が重要になる
• IEEE EAD ver 3 2019/2, P7000 standard WG
• Ethics Certification Program: ECPAIS
• Data economyではデータの処理過程が重要
• 倫理項目のチェックリスト
– システムの設計のチェック
– trust  責任のとれるAI(責任の定義が問題:中川)
• Open source community が消滅しつつあるのが問題
– AI開発の大企業の独占を憂慮か
• 学習アルゴリズムが倫理的問題を誘発する可能性
• 同意も system base になる ex. Block chain
• 西欧的価値観を普及したいそうです。
– human rights approach
– individual data subject is most important?
How the adequacy mechanism works: Progress in
the EU's governance of cross-border data flows?
• 日本の個人情報保護委員会がEUとの長期のnegotiation
で十分性認定にこぎつけた件の報告
• 80回、計400時間にわたる交渉.
– この間、EUの方も何度も日本まで足を運んでくれた
– EU,日本の両サイドの関係者の努力に深く感謝
– パネルセッションの新保先生の発表の様子の写真は次のスラ
イド
– 司会はロボット法の著者として有名なUgo Pagallo
– GDPRと日本の個人情報保護法との完全な対応付けではなく、
法制度全体としての信頼性を認めるかどうかの問題
• 通信の秘密なども重要な要素のようだ
Data Quality
an overlooked aspect in fundamental rights complaint data processing
• Reputation risk が 低い data qualityから生まれる
 自己情報コントロール権
 データ管理者( data controller )がデータ主体をトラストできる
かという問題
 trust by design
• Quality 確保は警察などの当局側にも重要
• AI技術は by design によるhigh data quality を確保すべき
– データ最小化技術も含まれる
• AIの推定に対する監査アルゴリズムが必要
– 学習データやアルゴリズムのバイアスが問題
– 古いデータ、貧弱なデータは問題である
From research to launch
(sponsored by Facebook)
• EU ethical guideline の著者メンバーなど参加
• 議論のテーマ
– Trustworthy AI, what is responsible AI, AI for social good, sustainable AI, soft
ethics
• Profilingが懸念対象
– 個人データは個人が管理する権利(GDPRのspirit)
• 例:ヘイトスピーチ分類器(FaceBookが開発利用)
– 複雑なexamplesからhate speech 判定ルールを構成するのはAIにとっても困難。
– 人間とのインタラクションによって詳細部分を学習する
– 表現の自由とのバランスの基本的人権の問題。 法律家と企業の議論が重要
(by EU)
• FaceBook のAI研究部門
– 160人の研究者+localな研究者
– 2016年から150本のトップ会議論文採択
– Ethics 無視は企業にとってリスクの時代になった
• 地域によってethicsの定義が違う問題にどう対処するかが課題
Facial recognition systems
• UK: 警察がスポーツゲーム、音楽コンサート、プロテス
トのデモなどで顔認識を使っている
– 警察は顔認識結果をどう使っているか分からない
– 同意なし
• GDPR : 顔認識に関してはGDPR9条でsensitiveデータと
してfairness, responsibility, transparency,
accountabilityに 関して厳しく利用が規制されている
• 顔認識の研究自体は規制されない
• アメリカ:強い規制を持つ州法あり
• 全員を対象にした watch list (事前にチェックする顔を
リスト化)は、対象人数が多すぎて機能しない
• 顔認識結果は100%完璧ではなく、確率的なものであ
ることに留意すべき。
• 国境管理に使っているが局所的
– ようするに、パスポートの写真と本人の照合をその場でし
ているだけで、中央サーバに顔情報のデータベースが存
在するわけではない
– したがって、GDPR的にもプライバシー侵害はない
•
Fairness by design
GDPR article5(2)
• Fairnessの観点からは新規技術や研究開発が信用されてい
ない
• 一般的に倫理は社会向き、 Fairnessは個人向きだが、曖昧な
部分が多い
• FAIR: Faindable, Accessible,Interoperable, Reusable
• 同意は目的依存
• 緻密なアクセス制御が必要
– consistent with data privacy principle
– 結果はデータ主体に開示されるべき
Profiling
(sponsored by Microsoft)
• Profiling が危険な例:Alexは利用者の病気を推定して治療を進め
る privacy 危険にさらされている
• Profiling は目的を限定すべき
• 関連条文:
– GDPR art 15:right to access, art.16: Right to rectification
• 推定データ は法的には personal dataかどうかで正反対の判断が
出ている。
– 29条作業部会 vs European Court of Justice
• Sensitive personal data and inferences
– 意図的かどうか、および法的責任の問題あり
• Trade secret として扱う方法もある
• 分野ごとに高リスクな推測データが 異なる
– 技術者と社会がもっと話し合う必要あり
• Personal target data
– Search, advertising, pricing, routing, hiring, credit
– メタデータからの推測もある
• Efficiency が fairness を損なう場合ることに注意
• Fairness
– 文脈依存的
– Fairnessの条件にReasonable inferenceあり( privacy & reasonable
company’s profit)
• 表現の自由とプライバシー保護のバランスが重要
– ただし、分野ごとに状況は違う
GDPR 22条
自動的なprofiling結果に服さなくてよい権利
• Profiling と 自動的(機械的)判断の関係に注意
すべき
• そもそも22条に関して、何をpersonal data と考え
るべきか検討すべき
• データブローカーによる合法なデータの反復的
なabuseが問題  その企業に文句をいうべき
• このような考察においてprivacy と identity の関
係が重要(忘れられがち)
Tech standards on ethics and/or
regulations (sponsored by IEEE)
• Standardization の政治化は繰り返されているが、
democracyの視点ではかなり危険では?
• What is ethics in AI? という問題敵はあったが解答なし。
• Misuse of standardization が多い。理由は、standard作成者
とロビー活動している人が同じことが多いからだそうだ。
• Ethical risk assessment に関してBS8611 という
method/toolkit がある。
• ISO/IEC JTC1 では SC42 がAI関連を扱う。
• 産業界の政治ゲームと化している現状に対して
– ゲートキーパーが必要:
– 例:EU司法裁判所
– 例:EDPB (旧29条作業部会)
• Defact standardを無視した議論が続いていた。
セッション後質問してみたら、Defact Standardは
国ごと、業界ごとのローカルなもので、それを
internationalizeするのが我々の仕事だという正
論だけがかえってきた(中川)
• Multi-stakeholderの問題も無視されていた

Más contenido relacionado

La actualidad más candente

IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話Tohru Yoshioka-Kobayashi
 
AI開発を円滑に進めるための契約・法務・知財
AI開発を円滑に進めるための契約・法務・知財AI開発を円滑に進めるための契約・法務・知財
AI開発を円滑に進めるための契約・法務・知財Hirono Jumpei
 
基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹Preferred Networks
 
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~Deep Learning Lab(ディープラーニング・ラボ)
 
今すぐ AI の知識を深めるには
今すぐ AI の知識を深めるには今すぐ AI の知識を深めるには
今すぐ AI の知識を深めるにはNVIDIA Japan
 
匿名化と自己情報コントロール
匿名化と自己情報コントロール匿名化と自己情報コントロール
匿名化と自己情報コントロールHiroshi Nakagawa
 
incentive compatibleなAIガバナンス
incentive compatibleなAIガバナンスincentive compatibleなAIガバナンス
incentive compatibleなAIガバナンスToshiya Jitsuzumi
 
ブロックチェーンと仮想通貨 -- 新しいビジネスに挑戦
ブロックチェーンと仮想通貨 -- 新しいビジネスに挑戦ブロックチェーンと仮想通貨 -- 新しいビジネスに挑戦
ブロックチェーンと仮想通貨 -- 新しいビジネスに挑戦Yuto Takei
 
情報系技術者のための倫理
情報系技術者のための倫理情報系技術者のための倫理
情報系技術者のための倫理Jun-Ichi Sagara
 
AIルールとガバナンス
AIルールとガバナンスAIルールとガバナンス
AIルールとガバナンスToshiya Jitsuzumi
 
人工知能技術のエンタープライズシステムへの適用
人工知能技術のエンタープライズシステムへの適用人工知能技術のエンタープライズシステムへの適用
人工知能技術のエンタープライズシステムへの適用Miki Yutani
 
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)Fumiko Kudoh
 
人工知能が浸透した社会の情報倫理学
人工知能が浸透した社会の情報倫理学人工知能が浸透した社会の情報倫理学
人工知能が浸透した社会の情報倫理学Takushi Otani
 
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜Preferred Networks
 
TPP合意と今後の知的財産分野への影響と問題点
TPP合意と今後の知的財産分野への影響と問題点TPP合意と今後の知的財産分野への影響と問題点
TPP合意と今後の知的財産分野への影響と問題点Keisuke Katsuki
 
ディープラーニングと自動運転、コネクティッドカー @ TU-Automotive 2016
ディープラーニングと自動運転、コネクティッドカー @ TU-Automotive 2016ディープラーニングと自動運転、コネクティッドカー @ TU-Automotive 2016
ディープラーニングと自動運転、コネクティッドカー @ TU-Automotive 2016Preferred Networks
 
第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性
第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性
第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性Uniadex Ltd.
 
インターネットで学習すべき事柄について
インターネットで学習すべき事柄についてインターネットで学習すべき事柄について
インターネットで学習すべき事柄についてTatsuya (Saeki) Takiguchi
 
実世界の人工知能@DeNA TechCon 2017
実世界の人工知能@DeNA TechCon 2017 実世界の人工知能@DeNA TechCon 2017
実世界の人工知能@DeNA TechCon 2017 Preferred Networks
 
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆Hiroyuki Kurimoto
 

La actualidad más candente (20)

IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
 
AI開発を円滑に進めるための契約・法務・知財
AI開発を円滑に進めるための契約・法務・知財AI開発を円滑に進めるための契約・法務・知財
AI開発を円滑に進めるための契約・法務・知財
 
基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹
 
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
 
今すぐ AI の知識を深めるには
今すぐ AI の知識を深めるには今すぐ AI の知識を深めるには
今すぐ AI の知識を深めるには
 
匿名化と自己情報コントロール
匿名化と自己情報コントロール匿名化と自己情報コントロール
匿名化と自己情報コントロール
 
incentive compatibleなAIガバナンス
incentive compatibleなAIガバナンスincentive compatibleなAIガバナンス
incentive compatibleなAIガバナンス
 
ブロックチェーンと仮想通貨 -- 新しいビジネスに挑戦
ブロックチェーンと仮想通貨 -- 新しいビジネスに挑戦ブロックチェーンと仮想通貨 -- 新しいビジネスに挑戦
ブロックチェーンと仮想通貨 -- 新しいビジネスに挑戦
 
情報系技術者のための倫理
情報系技術者のための倫理情報系技術者のための倫理
情報系技術者のための倫理
 
AIルールとガバナンス
AIルールとガバナンスAIルールとガバナンス
AIルールとガバナンス
 
人工知能技術のエンタープライズシステムへの適用
人工知能技術のエンタープライズシステムへの適用人工知能技術のエンタープライズシステムへの適用
人工知能技術のエンタープライズシステムへの適用
 
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
 
人工知能が浸透した社会の情報倫理学
人工知能が浸透した社会の情報倫理学人工知能が浸透した社会の情報倫理学
人工知能が浸透した社会の情報倫理学
 
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
 
TPP合意と今後の知的財産分野への影響と問題点
TPP合意と今後の知的財産分野への影響と問題点TPP合意と今後の知的財産分野への影響と問題点
TPP合意と今後の知的財産分野への影響と問題点
 
ディープラーニングと自動運転、コネクティッドカー @ TU-Automotive 2016
ディープラーニングと自動運転、コネクティッドカー @ TU-Automotive 2016ディープラーニングと自動運転、コネクティッドカー @ TU-Automotive 2016
ディープラーニングと自動運転、コネクティッドカー @ TU-Automotive 2016
 
第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性
第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性
第3回 北海道IoTビジネス共創ラボ 勉強会 養豚業における IoT/AI 活用の可能性
 
インターネットで学習すべき事柄について
インターネットで学習すべき事柄についてインターネットで学習すべき事柄について
インターネットで学習すべき事柄について
 
実世界の人工知能@DeNA TechCon 2017
実世界の人工知能@DeNA TechCon 2017 実世界の人工知能@DeNA TechCon 2017
実世界の人工知能@DeNA TechCon 2017
 
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
 

Similar a CPDP2019 summary-report

Igfについて(2007)
Igfについて(2007) Igfについて(2007)
Igfについて(2007) Tsukasa Makino
 
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)Yuya Unno
 
IoT×ビジネス活用 ~最先端技術のビジネス活用に向けて~
IoT×ビジネス活用 ~最先端技術のビジネス活用に向けて~IoT×ビジネス活用 ~最先端技術のビジネス活用に向けて~
IoT×ビジネス活用 ~最先端技術のビジネス活用に向けて~法林浩之
 
Toward Research that Matters
Toward Research that MattersToward Research that Matters
Toward Research that MattersRyohei Fujimaki
 
情報教育における7つのネット・リテラシー
情報教育における7つのネット・リテラシー情報教育における7つのネット・リテラシー
情報教育における7つのネット・リテラシーTatsuya (Saeki) Takiguchi
 
説得のためのテクノロジ:「カプトロジ」入門
説得のためのテクノロジ:「カプトロジ」入門説得のためのテクノロジ:「カプトロジ」入門
説得のためのテクノロジ:「カプトロジ」入門Nanae Sh irozu
 
201024 ai koeln (akemi yokota) auf japanisch
201024 ai koeln (akemi yokota)  auf japanisch201024 ai koeln (akemi yokota)  auf japanisch
201024 ai koeln (akemi yokota) auf japanischAkemi Yokota
 
20200207_研究データの流通促進に向けた国内の取り組み
20200207_研究データの流通促進に向けた国内の取り組み20200207_研究データの流通促進に向けた国内の取り組み
20200207_研究データの流通促進に向けた国内の取り組みYasuyuki Minamiyama
 
Data Science Summit 2012 レポート
Data Science Summit 2012 レポートData Science Summit 2012 レポート
Data Science Summit 2012 レポートnagix
 
地球研「知の橋かけ」コアFS説明資料
地球研「知の橋かけ」コアFS説明資料地球研「知の橋かけ」コアFS説明資料
地球研「知の橋かけ」コアFS説明資料Yasuhisa Kondo
 
大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理Preferred Networks
 
RuleWatcher_intro_JP
RuleWatcher_intro_JPRuleWatcher_intro_JP
RuleWatcher_intro_JPMasato Oda
 
記録管理・アーカイブズにおけるデジタル・フォレンジックに関する一考察:国際比較に基づき(古賀崇)
記録管理・アーカイブズにおけるデジタル・フォレンジックに関する一考察:国際比較に基づき(古賀崇)記録管理・アーカイブズにおけるデジタル・フォレンジックに関する一考察:国際比較に基づき(古賀崇)
記録管理・アーカイブズにおけるデジタル・フォレンジックに関する一考察:国際比較に基づき(古賀崇)Takashi Koga
 
ソフトウェアエンジニアリング知識体系SWEBOK最新動向
ソフトウェアエンジニアリング知識体系SWEBOK最新動向ソフトウェアエンジニアリング知識体系SWEBOK最新動向
ソフトウェアエンジニアリング知識体系SWEBOK最新動向Hironori Washizaki
 

Similar a CPDP2019 summary-report (20)

rcast_20140411
rcast_20140411rcast_20140411
rcast_20140411
 
Igfについて(2007)
Igfについて(2007) Igfについて(2007)
Igfについて(2007)
 
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
 
IoT×ビジネス活用 ~最先端技術のビジネス活用に向けて~
IoT×ビジネス活用 ~最先端技術のビジネス活用に向けて~IoT×ビジネス活用 ~最先端技術のビジネス活用に向けて~
IoT×ビジネス活用 ~最先端技術のビジネス活用に向けて~
 
mlabforum2012_okanohara
mlabforum2012_okanoharamlabforum2012_okanohara
mlabforum2012_okanohara
 
110728 Trust Framework - Akiko Orita
110728 Trust Framework - Akiko Orita110728 Trust Framework - Akiko Orita
110728 Trust Framework - Akiko Orita
 
Toward Research that Matters
Toward Research that MattersToward Research that Matters
Toward Research that Matters
 
情報教育における7つのネット・リテラシー
情報教育における7つのネット・リテラシー情報教育における7つのネット・リテラシー
情報教育における7つのネット・リテラシー
 
説得のためのテクノロジ:「カプトロジ」入門
説得のためのテクノロジ:「カプトロジ」入門説得のためのテクノロジ:「カプトロジ」入門
説得のためのテクノロジ:「カプトロジ」入門
 
201024 ai koeln (akemi yokota) auf japanisch
201024 ai koeln (akemi yokota)  auf japanisch201024 ai koeln (akemi yokota)  auf japanisch
201024 ai koeln (akemi yokota) auf japanisch
 
20200207_研究データの流通促進に向けた国内の取り組み
20200207_研究データの流通促進に向けた国内の取り組み20200207_研究データの流通促進に向けた国内の取り組み
20200207_研究データの流通促進に向けた国内の取り組み
 
Data Science Summit 2012 レポート
Data Science Summit 2012 レポートData Science Summit 2012 レポート
Data Science Summit 2012 レポート
 
地球研「知の橋かけ」コアFS説明資料
地球研「知の橋かけ」コアFS説明資料地球研「知の橋かけ」コアFS説明資料
地球研「知の橋かけ」コアFS説明資料
 
大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理
 
Google plus
Google plusGoogle plus
Google plus
 
RuleWatcher_intro_JP
RuleWatcher_intro_JPRuleWatcher_intro_JP
RuleWatcher_intro_JP
 
bigdata2012nlp okanohara
bigdata2012nlp okanoharabigdata2012nlp okanohara
bigdata2012nlp okanohara
 
記録管理・アーカイブズにおけるデジタル・フォレンジックに関する一考察:国際比較に基づき(古賀崇)
記録管理・アーカイブズにおけるデジタル・フォレンジックに関する一考察:国際比較に基づき(古賀崇)記録管理・アーカイブズにおけるデジタル・フォレンジックに関する一考察:国際比較に基づき(古賀崇)
記録管理・アーカイブズにおけるデジタル・フォレンジックに関する一考察:国際比較に基づき(古賀崇)
 
ソフトウェアエンジニアリング知識体系SWEBOK最新動向
ソフトウェアエンジニアリング知識体系SWEBOK最新動向ソフトウェアエンジニアリング知識体系SWEBOK最新動向
ソフトウェアエンジニアリング知識体系SWEBOK最新動向
 
20200117 pd legal_comm
20200117 pd legal_comm20200117 pd legal_comm
20200117 pd legal_comm
 

Más de Hiroshi Nakagawa

信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例Hiroshi Nakagawa
 
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラHiroshi Nakagawa
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護Hiroshi Nakagawa
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by AnonymizationHiroshi Nakagawa
 
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演Hiroshi Nakagawa
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」Hiroshi Nakagawa
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-Hiroshi Nakagawa
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017Hiroshi Nakagawa
 
時系列パーソナル・データの プライバシー
時系列パーソナル・データのプライバシー時系列パーソナル・データのプライバシー
時系列パーソナル・データの プライバシーHiroshi Nakagawa
 
シンギュラリティ以後
シンギュラリティ以後シンギュラリティ以後
シンギュラリティ以後Hiroshi Nakagawa
 
シンギュラリティ以前
シンギュラリティ以前シンギュラリティ以前
シンギュラリティ以前Hiroshi Nakagawa
 
Privacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewPrivacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewHiroshi Nakagawa
 
差分プライベート最小二乗密度比推定
差分プライベート最小二乗密度比推定差分プライベート最小二乗密度比推定
差分プライベート最小二乗密度比推定Hiroshi Nakagawa
 
Privacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityPrivacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityHiroshi Nakagawa
 
Boundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityBoundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityHiroshi Nakagawa
 

Más de Hiroshi Nakagawa (20)

信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
 
AI and Accountability
AI and AccountabilityAI and Accountability
AI and Accountability
 
AI Forum-2019_Nakagawa
AI Forum-2019_NakagawaAI Forum-2019_Nakagawa
AI Forum-2019_Nakagawa
 
Ai e-accountability
Ai e-accountabilityAi e-accountability
Ai e-accountability
 
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by Anonymization
 
人工知能と社会
人工知能と社会人工知能と社会
人工知能と社会
 
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
 
AI社会論研究会
AI社会論研究会AI社会論研究会
AI社会論研究会
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017
 
時系列パーソナル・データの プライバシー
時系列パーソナル・データのプライバシー時系列パーソナル・データのプライバシー
時系列パーソナル・データの プライバシー
 
シンギュラリティ以後
シンギュラリティ以後シンギュラリティ以後
シンギュラリティ以後
 
シンギュラリティ以前
シンギュラリティ以前シンギュラリティ以前
シンギュラリティ以前
 
Privacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewPrivacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory Overview
 
差分プライベート最小二乗密度比推定
差分プライベート最小二乗密度比推定差分プライベート最小二乗密度比推定
差分プライベート最小二乗密度比推定
 
Privacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityPrivacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymity
 
Boundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityBoundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and Anonymity
 

Último

【株式会社オプティマインド】会社紹介資料_2024年4月11日更新(採用資料).pdf
【株式会社オプティマインド】会社紹介資料_2024年4月11日更新(採用資料).pdf【株式会社オプティマインド】会社紹介資料_2024年4月11日更新(採用資料).pdf
【株式会社オプティマインド】会社紹介資料_2024年4月11日更新(採用資料).pdf株式会社オプティマインド
 
20240209_case___________________________
20240209_case___________________________20240209_case___________________________
20240209_case___________________________i Smart Technologies
 
株式会社デジタルフォルン_会社説明資料~仕事内容~         2024年版
株式会社デジタルフォルン_会社説明資料~仕事内容~         2024年版株式会社デジタルフォルン_会社説明資料~仕事内容~         2024年版
株式会社デジタルフォルン_会社説明資料~仕事内容~         2024年版DIGITAL VORN
 
ENECHANGE株式会社 データ事業(エネルギークラウド事業)紹介資料_20240408.pdf
ENECHANGE株式会社 データ事業(エネルギークラウド事業)紹介資料_20240408.pdfENECHANGE株式会社 データ事業(エネルギークラウド事業)紹介資料_20240408.pdf
ENECHANGE株式会社 データ事業(エネルギークラウド事業)紹介資料_20240408.pdfryoichinojima
 
令和5年度_サステナブルツーリズムセミナー_ビジュアルレポート(公開用).pdf
令和5年度_サステナブルツーリズムセミナー_ビジュアルレポート(公開用).pdf令和5年度_サステナブルツーリズムセミナー_ビジュアルレポート(公開用).pdf
令和5年度_サステナブルツーリズムセミナー_ビジュアルレポート(公開用).pdfjun_suto
 
株式会社デジタルフォルン_会社説明資料~事業内容~         2024年版
株式会社デジタルフォルン_会社説明資料~事業内容~         2024年版株式会社デジタルフォルン_会社説明資料~事業内容~         2024年版
株式会社デジタルフォルン_会社説明資料~事業内容~         2024年版DIGITAL VORN
 
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料ssuser5a38bf
 
株式会社デジタルフォルン_会社説明資料~カルチャー~         2024年版
株式会社デジタルフォルン_会社説明資料~カルチャー~         2024年版株式会社デジタルフォルン_会社説明資料~カルチャー~         2024年版
株式会社デジタルフォルン_会社説明資料~カルチャー~         2024年版DIGITAL VORN
 
20240319_case___________________________
20240319_case___________________________20240319_case___________________________
20240319_case___________________________i Smart Technologies
 
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料ssuser5a38bf
 
【株式会社オプティマインド】会社紹介資料(2024年04月更新)_中途採用.pdf
【株式会社オプティマインド】会社紹介資料(2024年04月更新)_中途採用.pdf【株式会社オプティマインド】会社紹介資料(2024年04月更新)_中途採用.pdf
【株式会社オプティマインド】会社紹介資料(2024年04月更新)_中途採用.pdf株式会社オプティマインド
 
20240318_case___________________________
20240318_case___________________________20240318_case___________________________
20240318_case___________________________i Smart Technologies
 
株式会社デジタルフォルン_会社説明資料~その他の働く環境~         2024年版
株式会社デジタルフォルン_会社説明資料~その他の働く環境~         2024年版株式会社デジタルフォルン_会社説明資料~その他の働く環境~         2024年版
株式会社デジタルフォルン_会社説明資料~その他の働く環境~         2024年版DIGITAL VORN
 
総合カタログ_日東工営株式会社
総合カタログ_日東工営株式会社総合カタログ_日東工営株式会社
総合カタログ_日東工営株式会社nittohkoeiweb
 

Último (14)

【株式会社オプティマインド】会社紹介資料_2024年4月11日更新(採用資料).pdf
【株式会社オプティマインド】会社紹介資料_2024年4月11日更新(採用資料).pdf【株式会社オプティマインド】会社紹介資料_2024年4月11日更新(採用資料).pdf
【株式会社オプティマインド】会社紹介資料_2024年4月11日更新(採用資料).pdf
 
20240209_case___________________________
20240209_case___________________________20240209_case___________________________
20240209_case___________________________
 
株式会社デジタルフォルン_会社説明資料~仕事内容~         2024年版
株式会社デジタルフォルン_会社説明資料~仕事内容~         2024年版株式会社デジタルフォルン_会社説明資料~仕事内容~         2024年版
株式会社デジタルフォルン_会社説明資料~仕事内容~         2024年版
 
ENECHANGE株式会社 データ事業(エネルギークラウド事業)紹介資料_20240408.pdf
ENECHANGE株式会社 データ事業(エネルギークラウド事業)紹介資料_20240408.pdfENECHANGE株式会社 データ事業(エネルギークラウド事業)紹介資料_20240408.pdf
ENECHANGE株式会社 データ事業(エネルギークラウド事業)紹介資料_20240408.pdf
 
令和5年度_サステナブルツーリズムセミナー_ビジュアルレポート(公開用).pdf
令和5年度_サステナブルツーリズムセミナー_ビジュアルレポート(公開用).pdf令和5年度_サステナブルツーリズムセミナー_ビジュアルレポート(公開用).pdf
令和5年度_サステナブルツーリズムセミナー_ビジュアルレポート(公開用).pdf
 
株式会社デジタルフォルン_会社説明資料~事業内容~         2024年版
株式会社デジタルフォルン_会社説明資料~事業内容~         2024年版株式会社デジタルフォルン_会社説明資料~事業内容~         2024年版
株式会社デジタルフォルン_会社説明資料~事業内容~         2024年版
 
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
 
株式会社デジタルフォルン_会社説明資料~カルチャー~         2024年版
株式会社デジタルフォルン_会社説明資料~カルチャー~         2024年版株式会社デジタルフォルン_会社説明資料~カルチャー~         2024年版
株式会社デジタルフォルン_会社説明資料~カルチャー~         2024年版
 
20240319_case___________________________
20240319_case___________________________20240319_case___________________________
20240319_case___________________________
 
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
Sportip, Inc. Company Deck 2024|株式会社Sportip紹介資料
 
【株式会社オプティマインド】会社紹介資料(2024年04月更新)_中途採用.pdf
【株式会社オプティマインド】会社紹介資料(2024年04月更新)_中途採用.pdf【株式会社オプティマインド】会社紹介資料(2024年04月更新)_中途採用.pdf
【株式会社オプティマインド】会社紹介資料(2024年04月更新)_中途採用.pdf
 
20240318_case___________________________
20240318_case___________________________20240318_case___________________________
20240318_case___________________________
 
株式会社デジタルフォルン_会社説明資料~その他の働く環境~         2024年版
株式会社デジタルフォルン_会社説明資料~その他の働く環境~         2024年版株式会社デジタルフォルン_会社説明資料~その他の働く環境~         2024年版
株式会社デジタルフォルン_会社説明資料~その他の働く環境~         2024年版
 
総合カタログ_日東工営株式会社
総合カタログ_日東工営株式会社総合カタログ_日東工営株式会社
総合カタログ_日東工営株式会社
 

CPDP2019 summary-report

  • 1. CPDP2019 Summary Report Brussel Jan.30 – Feb 1, 2019 中川裕志 理化学研究所・革新知能統合研究センター CPDP=Computer Privacy Data Protection
  • 2. • CPDPは毎年冬にブリュッセルで開催されるプライバシー保護、 データ保護、法制度、社会制度に関する会議: 10年続いてい る。 – 技術よりでない。 – AI技術に対しては強い規制の立場 • 会議主体=CPDP: is a non-profit platform originally founded in 2007 by research groups from the Vrije Universiteit Brussel, the Université de Namur and Tilburg University. • 5並列セッション・すべてパネルセッション(セッションごとに Sponsorが決まっている) • パネリストはEU在住者が多数(特に英国、ドイツ、フランス、地 元ベルギーが多い)。アメリカからも少数ながら参加者あり。日 本は5,6人。発表に関連したのは2、3名。中国人は見当たらず。 • https://www.cpdpconferences.org/archive • 以下は参加したセッションのサマリー。
  • 3. Regulating AI- is the GDPR enough? • 法的な問題、プライバシーの問題はAI技術で解決すべき (それができれば苦労はない:中川) • GDPRはデータ最小化だけでなく利用目的制限を含む • AIとプライバシーの関係は、裁判での結果を待つ状態に なっている – かなり裁判が進行しているのかもしれない • このセッション参加者の圧倒的多数がGDPRではプライバ シーを守るには不十分という – さすがEU,CPDP
  • 4. Access, Move and Protect data in the age of AI (sponsored by Intel) • GDPR22条の問題: – 透明性:データ主体が知るべきこととはなにかを明らかにするべき – 利用した結果の観点、リスクの点からも検討すべき • GDPRは技術中立的と主張 • EU の AI ethics guide lines : もっと具体的であるべきとのコメントあ り。(当事者より) • プラットフォーム非依存の法律が必要 • 公平性と差別禁止が法制度の大きな目標
  • 5. • データの越境とlocalization(国内に閉じる)の問題 – 利益driven で動いている – GDPRはlocalizationである – EUの価値観をuniversalにしたい。 – 越境は双方向的であるべき – ユーザインターフェースが重要 – 中立的オーソリティな機関が必要(EU側からの意見) – データはモバイルなので、ローカルに考えるのは時代遅れ との意見あり • アメリカからの参加者は、アメリカもしっかりやっている と主張していた。 • アカウンタビィティは一般人に理解可能でないといけな い。
  • 6. AI governance: role of legislators, tech companies and standard bodies • 誰がgovern するのか? Ethics, 技術のstandard化 • Ethical and secure-by-design algorithm が trusted AI の開発に不可欠 • Accountability, lawfulness, 目的限定, 透明性、えこひいきのないプログラム – 誰にとってのtransparency か?という質問があったが回答は不明瞭 – AI開発者、サービス事業者だけではなく、AIサービス利用者のtransparencyつま りtrustできる利用者であることの必要性(中川) • DPIA • GDPRは民主主義をAIから守るには不十分 • 具体的な問題を提起すべき(CPDP自体の傾向がかなり理念的) • ルールは技術に対して中立であるべき • Standard化作業は政治化してはいけない • AI の定義についての議論が続いているらしい
  • 7. Responsible AI • AI動作の説明が必要 – 説明には明確なデータが必要 – 法的責任、バイアスがないこと、 sustainability が重 要: use case依存であることに留意すべき • AIの倫理: 利用するデータの集合の内容を知るこ とが大切 – Data quality が重要になる • IEEE EAD ver 3 2019/2, P7000 standard WG • Ethics Certification Program: ECPAIS
  • 8. • Data economyではデータの処理過程が重要 • 倫理項目のチェックリスト – システムの設計のチェック – trust  責任のとれるAI(責任の定義が問題:中川) • Open source community が消滅しつつあるのが問題 – AI開発の大企業の独占を憂慮か • 学習アルゴリズムが倫理的問題を誘発する可能性 • 同意も system base になる ex. Block chain • 西欧的価値観を普及したいそうです。 – human rights approach – individual data subject is most important?
  • 9. How the adequacy mechanism works: Progress in the EU's governance of cross-border data flows? • 日本の個人情報保護委員会がEUとの長期のnegotiation で十分性認定にこぎつけた件の報告 • 80回、計400時間にわたる交渉. – この間、EUの方も何度も日本まで足を運んでくれた – EU,日本の両サイドの関係者の努力に深く感謝 – パネルセッションの新保先生の発表の様子の写真は次のスラ イド – 司会はロボット法の著者として有名なUgo Pagallo – GDPRと日本の個人情報保護法との完全な対応付けではなく、 法制度全体としての信頼性を認めるかどうかの問題 • 通信の秘密なども重要な要素のようだ
  • 10. Data Quality an overlooked aspect in fundamental rights complaint data processing • Reputation risk が 低い data qualityから生まれる  自己情報コントロール権  データ管理者( data controller )がデータ主体をトラストできる かという問題  trust by design • Quality 確保は警察などの当局側にも重要 • AI技術は by design によるhigh data quality を確保すべき – データ最小化技術も含まれる • AIの推定に対する監査アルゴリズムが必要 – 学習データやアルゴリズムのバイアスが問題 – 古いデータ、貧弱なデータは問題である
  • 11. From research to launch (sponsored by Facebook) • EU ethical guideline の著者メンバーなど参加 • 議論のテーマ – Trustworthy AI, what is responsible AI, AI for social good, sustainable AI, soft ethics • Profilingが懸念対象 – 個人データは個人が管理する権利(GDPRのspirit) • 例:ヘイトスピーチ分類器(FaceBookが開発利用) – 複雑なexamplesからhate speech 判定ルールを構成するのはAIにとっても困難。 – 人間とのインタラクションによって詳細部分を学習する – 表現の自由とのバランスの基本的人権の問題。 法律家と企業の議論が重要 (by EU) • FaceBook のAI研究部門 – 160人の研究者+localな研究者 – 2016年から150本のトップ会議論文採択 – Ethics 無視は企業にとってリスクの時代になった • 地域によってethicsの定義が違う問題にどう対処するかが課題
  • 12. Facial recognition systems • UK: 警察がスポーツゲーム、音楽コンサート、プロテス トのデモなどで顔認識を使っている – 警察は顔認識結果をどう使っているか分からない – 同意なし • GDPR : 顔認識に関してはGDPR9条でsensitiveデータと してfairness, responsibility, transparency, accountabilityに 関して厳しく利用が規制されている • 顔認識の研究自体は規制されない
  • 13. • アメリカ:強い規制を持つ州法あり • 全員を対象にした watch list (事前にチェックする顔を リスト化)は、対象人数が多すぎて機能しない • 顔認識結果は100%完璧ではなく、確率的なものであ ることに留意すべき。 • 国境管理に使っているが局所的 – ようするに、パスポートの写真と本人の照合をその場でし ているだけで、中央サーバに顔情報のデータベースが存 在するわけではない – したがって、GDPR的にもプライバシー侵害はない •
  • 14. Fairness by design GDPR article5(2) • Fairnessの観点からは新規技術や研究開発が信用されてい ない • 一般的に倫理は社会向き、 Fairnessは個人向きだが、曖昧な 部分が多い • FAIR: Faindable, Accessible,Interoperable, Reusable • 同意は目的依存 • 緻密なアクセス制御が必要 – consistent with data privacy principle – 結果はデータ主体に開示されるべき
  • 15. Profiling (sponsored by Microsoft) • Profiling が危険な例:Alexは利用者の病気を推定して治療を進め る privacy 危険にさらされている • Profiling は目的を限定すべき • 関連条文: – GDPR art 15:right to access, art.16: Right to rectification • 推定データ は法的には personal dataかどうかで正反対の判断が 出ている。 – 29条作業部会 vs European Court of Justice • Sensitive personal data and inferences – 意図的かどうか、および法的責任の問題あり • Trade secret として扱う方法もある
  • 16. • 分野ごとに高リスクな推測データが 異なる – 技術者と社会がもっと話し合う必要あり • Personal target data – Search, advertising, pricing, routing, hiring, credit – メタデータからの推測もある • Efficiency が fairness を損なう場合ることに注意 • Fairness – 文脈依存的 – Fairnessの条件にReasonable inferenceあり( privacy & reasonable company’s profit) • 表現の自由とプライバシー保護のバランスが重要 – ただし、分野ごとに状況は違う
  • 17. GDPR 22条 自動的なprofiling結果に服さなくてよい権利 • Profiling と 自動的(機械的)判断の関係に注意 すべき • そもそも22条に関して、何をpersonal data と考え るべきか検討すべき • データブローカーによる合法なデータの反復的 なabuseが問題  その企業に文句をいうべき • このような考察においてprivacy と identity の関 係が重要(忘れられがち)
  • 18. Tech standards on ethics and/or regulations (sponsored by IEEE) • Standardization の政治化は繰り返されているが、 democracyの視点ではかなり危険では? • What is ethics in AI? という問題敵はあったが解答なし。 • Misuse of standardization が多い。理由は、standard作成者 とロビー活動している人が同じことが多いからだそうだ。 • Ethical risk assessment に関してBS8611 という method/toolkit がある。 • ISO/IEC JTC1 では SC42 がAI関連を扱う。
  • 19. • 産業界の政治ゲームと化している現状に対して – ゲートキーパーが必要: – 例:EU司法裁判所 – 例:EDPB (旧29条作業部会) • Defact standardを無視した議論が続いていた。 セッション後質問してみたら、Defact Standardは 国ごと、業界ごとのローカルなもので、それを internationalizeするのが我々の仕事だという正 論だけがかえってきた(中川) • Multi-stakeholderの問題も無視されていた