Enviar búsqueda
Cargar
Chainerで流体計算
•
26 recomendaciones
•
10,471 vistas
Preferred Networks
Seguir
Deep LearningフレームワークのChainerを使って流体計算をやってみた
Leer menos
Leer más
Ciencias
Denunciar
Compartir
Denunciar
Compartir
1 de 43
Descargar ahora
Descargar para leer sin conexión
Recomendados
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
最適化超入門
最適化超入門
Takami Sato
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
深層学習の数理
深層学習の数理
Taiji Suzuki
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
Recomendados
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
最適化超入門
最適化超入門
Takami Sato
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
深層学習の数理
深層学習の数理
Taiji Suzuki
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
最適化計算の概要まとめ
最適化計算の概要まとめ
Yuichiro MInato
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
Triplet Lossによる Person Re-identification
Triplet Lossによる Person Re-identification
tancoro
Lucas kanade法について
Lucas kanade法について
Hitoshi Nishimura
強化学習入門
強化学習入門
Shunta Saito
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
深層強化学習でマルチエージェント学習(前篇)
深層強化学習でマルチエージェント学習(前篇)
Junichiro Katsuta
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
克海 納谷
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
Kensho Hara
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
Convex Hull Trick
Convex Hull Trick
HCPC: 北海道大学競技プログラミングサークル
The review of 'Explaining nonlinear classification decisions with deep Taylor...
The review of 'Explaining nonlinear classification decisions with deep Taylor...
tetsuo ishigaki
Más contenido relacionado
La actualidad más candente
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
最適化計算の概要まとめ
最適化計算の概要まとめ
Yuichiro MInato
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
Triplet Lossによる Person Re-identification
Triplet Lossによる Person Re-identification
tancoro
Lucas kanade法について
Lucas kanade法について
Hitoshi Nishimura
強化学習入門
強化学習入門
Shunta Saito
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
深層強化学習でマルチエージェント学習(前篇)
深層強化学習でマルチエージェント学習(前篇)
Junichiro Katsuta
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
克海 納谷
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
Kensho Hara
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
La actualidad más candente
(20)
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
最適化計算の概要まとめ
最適化計算の概要まとめ
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
全力解説!Transformer
全力解説!Transformer
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
Triplet Lossによる Person Re-identification
Triplet Lossによる Person Re-identification
Lucas kanade法について
Lucas kanade法について
強化学習入門
強化学習入門
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
深層強化学習でマルチエージェント学習(前篇)
深層強化学習でマルチエージェント学習(前篇)
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
Optimizer入門&最新動向
Optimizer入門&最新動向
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
Transformer メタサーベイ
Transformer メタサーベイ
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Similar a Chainerで流体計算
Convex Hull Trick
Convex Hull Trick
HCPC: 北海道大学競技プログラミングサークル
The review of 'Explaining nonlinear classification decisions with deep Taylor...
The review of 'Explaining nonlinear classification decisions with deep Taylor...
tetsuo ishigaki
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
Taiji Suzuki
充足可能性問題のいろいろ
充足可能性問題のいろいろ
Hiroshi Yamashita
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysis
Tatsuki SHIMIZU
続分かりやすいパターン認識 4章後半(4.7以降)
続分かりやすいパターン認識 4章後半(4.7以降)
Motoya Wakiyama
Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Parallel WaveNet: Fast High-Fidelity Speech Synthesis
dhigurashi
6 Info Theory
6 Info Theory
melvincabatuan
第2回 メドレー読書会
第2回 メドレー読書会
Toshifumi
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
TakaakiYonekura
130323 slide all
130323 slide all
ikea0064
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Deep Learning JP
演習発表 Sari v.1.2
演習発表 Sari v.1.2
Lutfiana Ariestien
連続最適化勉強会
連続最適化勉強会
shima o
Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定
Nagi Teramo
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)
yukihiro domae
coqun
coqun
MoCo7
coqun
coqun
MoCo7
色々なダイクストラ高速化
色々なダイクストラ高速化
yosupo
Similar a Chainerで流体計算
(19)
Convex Hull Trick
Convex Hull Trick
The review of 'Explaining nonlinear classification decisions with deep Taylor...
The review of 'Explaining nonlinear classification decisions with deep Taylor...
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
充足可能性問題のいろいろ
充足可能性問題のいろいろ
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysis
続分かりやすいパターン認識 4章後半(4.7以降)
続分かりやすいパターン認識 4章後半(4.7以降)
Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Parallel WaveNet: Fast High-Fidelity Speech Synthesis
6 Info Theory
6 Info Theory
第2回 メドレー読書会
第2回 メドレー読書会
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
130323 slide all
130323 slide all
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
演習発表 Sari v.1.2
演習発表 Sari v.1.2
連続最適化勉強会
連続最適化勉強会
Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)
coqun
coqun
coqun
coqun
色々なダイクストラ高速化
色々なダイクストラ高速化
Más de Preferred Networks
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
Preferred Networks
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Preferred Networks
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Preferred Networks
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
Preferred Networks
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Preferred Networks
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Preferred Networks
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
Preferred Networks
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Preferred Networks
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
Preferred Networks
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Preferred Networks
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Preferred Networks
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Preferred Networks
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
Preferred Networks
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Preferred Networks
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Preferred Networks
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
Preferred Networks
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
Preferred Networks
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
Preferred Networks
Más de Preferred Networks
(20)
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
Chainerで流体計算
1.
Chainerで流流体計算 PFI・PFNセミナー 2015/8/20 Preferred Networks
Inc. 松元 叡⼀一
2.
Github l この発表に関するコードはこちら – https://github.com/mattya/chainer-‐‑‒fluid
3.
⾃自⼰己紹介 l 松元 叡⼀一
(@mattya1089) l 東⼤大理理物→総合⽂文化研究科修⼠士卒 l 今年年4⽉月からPFN l DQN(去年年のPFIインターン) l 分散深層強化学習 https://www.youtube.com/watch? v=a3AWpeOjkzw http://www.ustream.tv/recorded/53153399
4.
Chainerで流流体計算 l Chainer使って変なこと(Deep Learning以外で)したい l
Cupyの登場でGPU側のデータの扱いが楽になった – スライスとったり値を直接代⼊入したり l Autograd (Chainer黎黎明期に少し話題になったライブラリ) – https://github.com/HIPS/autograd/ l よし、流流体計算だ l ※数式がごりごり出てきますが 気楽に聞いてください
5.
こんなのが作れる! (発表準備時間のほとんどを このパラメタチューニングに費やしてしまった。。。)
6.
流流体⽅方程式 l こんなのを解きたい(https://ja.wikipedia.org/wiki/渦度度・流流れ関数法) 移流流拡散⽅方程式(時間依存偏微分⽅方程式) ポアソン⽅方程式
7.
微分⽅方程式を解く l オイラー法 x =
x_init for i in xrange(T/dt): dxdt = f(x) x = x + dt * dxdt 時刻Tでのxが求まる dx dt = v dv dt = − k m x − c m v d ! x dt = f ( ! x) 例例:バネ
8.
l a 無駄にGPU
9.
偏微分⽅方程式 l 空間に分布してるp(x)
10.
偏微分⽅方程式 l 空間に分布してるp(x) l コンピュータでは離離散化して表現 p[0]
p[1] p[2] p[3] p[4] p[5]… 間隔dx
11.
偏微分⽅方程式 l 空間に分布してるp(x) l コンピュータでは離離散化して表現 p[0]
p[1] p[2] p[3] p[4] p[5]… 間隔dx dp dx を(p[i+1]-p[i-1])/(2*dx) で近似 (中⼼心差分法) dpdx[2] = (p[3]-p[1])/dx この計算をすべてのiについて⾏行行う [-1, 0, 1]のカーネルでConvolution
12.
偏微分⽅方程式 l 空間に分布してるp(x) l コンピュータでは離離散化して表現 p[0]
p[1] p[2] p[3] p[4] p[5]… 間隔dx dp dx を (p[ i+1 ]-p[ i-1 ])/(2*dx) で近似(中⼼心差分法) d2 p dx2 を (p[ i+1 ]+p[ i-1 ]-2*p[ i ])/(dx*dx) で近似 ( (p[i+1]-p[i])/dx – (p[i]-p[i-1])/dx) / dx [1, -2, 1]でのConvolution
13.
偏微分⽅方程式 l ⼆二次元に分布してても同様 u[0,0] u[0,1]
u[0,2] … u[1,0] u[1,1] u[1,2] … u[2,0] u[2,1] u[2,2] … … (u[1,2] – u[1,0])/2 u ∂u/∂x 右 – 左
14.
拡散⽅方程式 l 物質や熱の拡散を⽀支配する⽅方程式 ∂u ∂t = D ∂2 u ∂x2 + ∂2 u ∂y2 " # $ % & ' =
D∇2 u u[0,0] u[0,1] u[0,2] … u[1,0] u[1,1] u[1,2] … u[2,0] u[2,1] u[2,2] … … (u[0,1]+u[2,1]+u[1,0]+u[1,2] – 4*u[1,1]) ∇2 u上下左右 – 4*⾃自分
15.
拡散⽅方程式 l 物質や熱の拡散を⽀支配する⽅方程式 ∂u ∂t = D ∂2 u ∂x2 + ∂2 u ∂y2 " # $ % & ' =
D∇2 u u[0,0] u[0,1] u[0,2] … u[1,0] u[1,1] u[1,2] … u[2,0] u[2,1] u[2,2] … … (u[0,1]+u[2,1]+u[1,0]+u[1,2] – 4*u[1,1]) ∇2 u このカーネルで Convolution_2d 0 1 0 1 -4 1 0 1 0
16.
t = 0
t = 10 t = 100 cupy カーネルを⼿手打ち 場外はとりあえず0で
17.
偏微分⽅方程式を解く流流れ l ニューラルネット的に Convolution Element- wise Boudary condition ∂ζ ∂t = −ux ∂ζ ∂x −uy ∂ζ ∂y +ν∇2 ζ ζ
+ 周期境界 固定境界 など
18.
反応拡散⽅方程式 l 拡散項以外の部分をElementwiseカーネルで書く
19.
反応拡散⽅方程式 l 境界条件 l メインループの内側
20.
反応拡散⽅方程式
21.
ポアソン⽅方程式を解く l ポアソン⽅方程式 l ρが与えられた時にψを求める問題 –
電荷→電位 – 質量量分布→重⼒力力ポテンシャル – 理理想流流体の定常解(ρは湧き出し) – 拡散⽅方程式の定常解(ρは湧き出し) ∇2 ψ = ρ +2 -1
22.
ポアソン⽅方程式を解く l ヤコビ法 – 次の操作を反復復する(αは適当な係数)
ここが0になると収束する ∇2 ψ = ρ ψ ←ψ +α(ρ − ∇2 ψ) さっきの拡散⽅方程式と同じconvolution 正解に近いx0から始めれば、少ない数の反復復でOK
23.
ポアソン⽅方程式を解く l ヤコビ法 – 次の操作を反復復する(αは適当な係数)
ここが0になると収束する ∇2 ψ = ρ ψ ←ψ +α(ρ − ∇2 ψ) さっきの拡散⽅方程式と同じconvolution 正解に近いx0から始めれば、少ない数の反復復でOK
24.
ポアソン⽅方程式を解く l ヤコビ法 – 次の操作を反復復する(αは適当な係数)
ここが0になると収束する ∇2 ψ = ρ ψ ←ψ +α(ρ − ∇2 ψ) さっきの拡散⽅方程式と同じconvolution 正解に近いx0から始めれば、少ない数の反復復でOK
25.
ポアソン⽅方程式を解く l ヤコビ法 – 次の操作を反復復する(αは適当な係数)
ここが0になると収束する ∇2 ψ = ρ ψ ←ψ +α(ρ − ∇2 ψ) さっきの拡散⽅方程式と同じconvolution 正解に近いx0から始めれば、少ない数の反復復でOK
26.
流流体⽅方程式 l こんなのを解きたい(https://ja.wikipedia.org/wiki/渦度度・流流れ関数法) ポアソン⽅方程式 この項は拡散⽅方程式 Ψは、微分すると流流速uが出てくるような量量として定義 ポアソン⽅方程式より、ζとuは次の関係にある ζ =
rotu = duy dx − dux dy こういう点で 渦度度ζは⼤大きい 流流速u
27.
流流体⽅方程式 l 渦度度輸送⽅方程式を⼀一部抜粋 ∂ζ ∂t = −ux ∂ζ ∂x この式の意味は?
28.
流流体⽅方程式 l 渦度度輸送⽅方程式を⼀一部抜粋 x ζ(x, t) 流流速ux ∂ζ ∂t =
−ux ∂ζ ∂x この点でのζ(x, t)が、t+Δtではどれだけ増加するか?
29.
流流体⽅方程式 l 渦度度輸送⽅方程式を⼀一部抜粋 x ζ(x, t) ζ(x,
t+Δt) 流流速ux uxΔt ∂ζ ∂t = −ux ∂ζ ∂x −ux ∂ζ ∂x Δt 保存量量ζが流流速uで流流れる現象を表した⽅方程式
30.
流流体⽅方程式を解く l 道具は揃った? 0 0
0 −0.5 0 0.5 0 0 0 0 −0.5 0 0 0 0 0 0.5 0 0 1 0 1 −4 1 0 1 0 ポアソン⽅方程式→ヤコビ法 d/dxのカーネル d/dyのカーネル ∇2のカーネル Poissonを解いて Ψを求める (Jacobi法) Ψ, ζのx, y微分, ∇2ζを Convで求める Element-wiseに 渦度度輸送⽅方程式を Δt進める
31.
流流体⽅方程式を解く l 道具は揃った? 0 0
0 −0.5 0 0.5 0 0 0 0 −0.5 0 0 0 0 0 0.5 0 0 1 0 1 −4 1 0 1 0 ポアソン⽅方程式→ヤコビ法 d/dxのカーネル d/dyのカーネル ∇2のカーネル Poissonを解いて Ψを求める (Jacobi法) Ψ, ζのx, y微分, ∇2ζを Convで求める Element-wiseに 渦度度輸送⽅方程式を Δt進める
32.
流流体⽅方程式を解く l 道具は揃った? 0 0
0 −0.5 0 0.5 0 0 0 0 −0.5 0 0 0 0 0 0.5 0 0 1 0 1 −4 1 0 1 0 ポアソン⽅方程式→ヤコビ法 d/dxのカーネル d/dyのカーネル ∇2のカーネル ζの初期値 500*500の[-10,10]⼀一様分布をガウシアン カーネルで平滑滑化したもの
33.
流流体⽅方程式を解く l 道具は揃った? 100ステップ 200ステップ そして NaNへ 変な振動が 成⻑⾧長していく! 流流体は、どんどん解が 鈍っていく拡散⽅方程式 などと⽐比べて不不安定で ある ∂ρ ∂t =
−ux ∂ρ ∂x −uy ∂ρ ∂y に従うインクを可視化している
34.
流流体⽅方程式の精度度向上:差分の精度度向上 l ラプラシアン2次精度度→4次精度度 l オイラー法(1次)→中点法(2次) 0
1 0 1 −4 1 0 1 0 0.2 0.8 0.2 0.8 −4 0.8 0.2 0.8 0.2 x = x_init for i in xrange(T/dt): dxdt = f(x) x = x + dt * dxdt x = x_init for i in xrange(T/dt): dxdt = f(x) x_ = x + 0.5 * dt * dxdt dxdt_ = f(x_) x = x + dt * dxdt_
35.
流流体⽅方程式の精度度向上:⾵風上差分 l 今までのdxカーネルは、⾵風下の情報も使っている – しかし⾵風下からは情報は流流れてこない l
⾵風上だけから情報を取ってくるようにしたい! 0 0 0 −0.5 0 0.5 0 0 0 ⾵風上 ux ⾵風下 0 0 0 −1 1 0 0 0 0 0 0 0 0 −1 1 0 0 0 uxが正の時 (右向きの⾵風) uxが負の時 (左向きの⾵風)
36.
流流体⽅方程式の精度度向上:⾵風上差分 l 今までのdxカーネルは、⾵風下の情報も使っている – しかし⾵風下からは情報は流流れてこない l
⾵風上だけから情報を取ってくるようにしたい! 0 0 0 −0.5 0 0.5 0 0 0 ⾵風上 ux ⾵風下 0 0 0 −1 1 0 0 0 0 0 0 0 0 −1 1 0 0 0 uxが正の時 (右向きの⾵風) uxが負の時 (左向きの⾵風) 両⽅方のカーネルを計算しておいて、 流流速の符号に応じて⽚片⽅方を⽤用いる
37.
流流体⽅方程式の精度度向上:⾵風上差分 l 河村・桑原スキーム(3次精度度⾵風上差分) 0 0
0 0 0 0 0 0 0 0 1/ 6 −6 / 6 3/ 6 2 / 6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 −2 / 6 −3/ 6 6 / 6 −1/ 6 0 0 0 0 0 0 0 0 0 0 uxが正の時 (右向きの⾵風) uxが負の時 (左向きの⾵風)
38.
流流体⽅方程式実験1
39.
流流体⽅方程式実験2 l せっかくのChainerなのでBackpropを使ってみる – 実はすべて微分可能な操作 Poissonを解いて Ψを求める (Jacobi法) Ψ,
ζのx, y微分, ∇2ζを Convで求める Element-wiseに 渦度度輸送⽅方程式を Δt進める 10回convと basic_mathしてるだけ
40.
流流体⽅方程式実験2 l 適切切なζの初期値を勾配降降下法で求める 100ステップの 流流体時間発展 ⽬目標との誤差をbackwardして 初期値のζを更更新する ⽬目標 これをやるだけ
41.
流流体⽅方程式実験2 ⾵風上差分だけ backwardを書く 必要あり
42.
流流体⽅方程式実験2 l ChainerからPFNへ
43.
まとめ l ふと微分⽅方程式を解きたくなったら? – →Chainer
Descargar ahora