SlideShare una empresa de Scribd logo
1 de 33
Parallel WaveNet: Fast High-
Fidelity Speech Synthesis
ICML2018読み会
dhgrs
Parallel WaveNet
• 3行でまとめると…
– WaveNetのarchitectureの詳細を公開した
– WaveNetの量子化bit数を8bitから16bitにした
– WaveNetの音声合成を1000倍高速化した
• http://proceedings.mlr.press/v80/oord18a.html
Parallel WaveNet
• 3行でまとめると…
– WaveNetのarchitectureの詳細を公開した
– WaveNetの量子化bit数を8bitから16bitにした
– WaveNetの音声合成を1000倍高速化した
WaveNetとは?
WaveNetとは?
WaveNetとは?
WaveNetとは?
ちょっと詳しくWaveNet
Dilated
Conv
σ
tan
h
Split
x
1x1
+
Dilated
Conv
σ
tan
h
Split
x
1x1
+
ちょっと詳しくWaveNet
Dilated
Conv
σ
tan
h
Split
x
1x1
+
256
512
512
512
256
1x1
256
Skip Connection
512
ちょっと詳しくWaveNet
Σ 1x1
ReL
U
ReL
U
1x1
256 256
256 or 1
512
Causal Conv
脱線 DNNを使ったText-to-Speech
• @tosaka2 さんがまとめています。
– https://qiita.com/tosaka2/items/356405
0fe0ccea360610
Parallel WaveNet
• 3行でまとめると…
– WaveNetのarchitectureの詳細を公開した
– WaveNetの量子化bit数を8bitから16bitにした
– WaveNetの音声合成を1000倍高速化した
PixelCNN++
• WaveNetのベース手法PixelCNNの改良版
• 256クラスの予測確率ではなく、連続値の確率
分布のパラメータを出力する
– パラメータ数を削減可能
• https://arxiv.org/abs/1701.05517
予測確率(PixelCNNの場合)
Softmaxで各クラスの予測確率を求める
クラスの数だけパラメータが増える
予測確率(PixelCNNの場合)
𝑝 𝑥 =
𝑖=1
𝐾
𝜋𝑖logistic(𝜇𝑖, 𝑠𝑖)
𝜋(各分布の混合比)と𝜇, 𝑠(logistic分
布のパラメータ)が分かれば、予測確率
を計算可能
クラスの数に依らない
混合logistic分布
パラメータ削減の効果
• 16bit(CD音質)で比較すると
– WaveNetだと 2^16channels
– Parallel WaveNetだと 30channels
• パラメータ数(3; 𝜋, 𝜇, 𝑠)×混合数(論文だと10)
Parallel WaveNet
• 3行でまとめると…
– WaveNetのarchitectureの詳細を公開した
– WaveNetの量子化bit数を8bitから16bitにした
– WaveNetの音声合成を1000倍高速化した
IAF Inverse Autoregressive Flow
• WaveNetやPixelCNNはAutoregressive(自己
回帰型)モデル
– 1サンプルにつき1回のDNNのフォワード計算をする必要
がある
– 計算を並列化できないので時間が掛かる
• 1回のDNNのフォワード計算で全サンプルを同時に
計算する手法
• http://papers.nips.cc/paper/6581-improved-
variational-inference-with-inverse-autoregressive-
flow
Parallel WaveNetの定式化
• WaveNetが近似する関数
– 𝑝 𝑥 𝑡 𝑥1, 𝑥2, … , 𝑥 𝑡−1, 𝒉 Teacher WaveNet
• Paralell WaveNetが近似する関数
– 𝑝 𝑥 𝑡 𝑧1, 𝑧2, … , 𝑧𝑡, 𝒉) Student WaveNet
– 𝑧は互いに独立なlogistic分布からサンプリング
– 𝑧~𝑙𝑜𝑔𝑖𝑠𝑡𝑖𝑐(𝜇 = 0, 𝑠 = 1)
損失関数の出発点
• Teacher WaveNetは𝐻(𝑃, 𝑃 𝑇)を最小化する
ように学習した
– 𝑃は真の分布とする
– 𝐻(𝐴, 𝐵)は確率分布𝐴, 𝐵の交差エントロピー
• 𝑃𝑆が𝑃をうまく近似できれば𝐻(𝑃𝑆, 𝑃 𝑇)も小さくなる
はず
交差エントロピーの問題点
• ホワイトノイズをモデル化できない
– 平均0の正規分布で生成される信号
– 無音が交差エントロピーを最小にする
• (平均0/分散0の正規分布)
• 𝑃𝑆の情報量(エントロピー)を大きくしたい
– 損失関数視点では負の情報量を小さくしたい
−𝐻 𝑃𝑆 の追加
• 𝐻 𝑃𝑆, 𝑃 𝑇 − 𝐻 𝑃𝑆
– まさしくKLダイバージェンス
𝐻 𝑃𝑆
𝐷 𝐾𝐿
𝐻 𝑃𝑆, 𝑃 𝑇
中間地点
• 𝐻 𝑃𝑆, 𝑃 𝑇 と𝐻 𝑃𝑆 を求める
– 求めやすいように、Student WaveNetに条件を加
える
– それぞれ具体的な算出方法を考える
Flowの導入
• 難しい問題なので1つのDNNでは解けない
• 複数のステージに分けてだんだん精度を上げてい
く
– Object Detectionなどによくある
– Flowとよぶ
Flowの計算
• 𝑧𝑡
0
~𝐿𝑜𝑔𝑖𝑠𝑡𝑖𝑐 𝜇 = 0, 𝑠 = 1
• 𝑧𝑡
1
= 𝑧𝑡
0
∙ 𝑠𝑡
1
𝑧≤𝑡
0
+ 𝜇 𝑡
1
𝑧≤𝑡
0
– 𝑠𝑡
1
𝑧≤𝑡
0
と𝜇 𝑡
1
𝑧≤𝑡
0
は1つ目のDNNの出力
• 𝑧𝑡
𝑖
= 𝑧𝑡
𝑖−1
∙ 𝑠𝑡
𝑖
𝑧≤𝑡
𝑖−1
+ 𝜇 𝑡
𝑖
𝑧≤𝑡
𝑖−1
– 添え字を一般化
– スケール(整数倍)とシフト(定数項)
Nステージの場合
• 𝑧𝑡
𝑁
= 𝑧𝑡
0
∙ 𝑖
𝑁
[𝑠𝑡
𝑖
𝑧≤𝑡
𝑖−1
] +
𝑖
𝑁
[𝜇 𝑡
𝑖
∙ 𝑗>𝑖
𝑁
[𝑠𝑡
𝑗
(𝑧≤𝑡
𝑗−1
)]]
• 𝑧𝑡
0
(logistic分布のサンプル)をスケール/シフト
– 結局はただのlogistic分布
中間地点
• 𝐻 𝑃𝑆, 𝑃 𝑇 と𝐻 𝑃𝑆 を求める
– 求めやすいように、Student WaveNetに条件を加
える
– それぞれ具体的な算出方法を考える
再掲
𝐻 𝑃𝑆, 𝑃 𝑇 を求める
• logistic分布(𝑃𝑆)と混合logistic分布(𝑃 𝑇)の交
差エントロピーを求める
– 平均、スケール、混合比について
• DNNの出力
– 微分可能な形で
• 誤差逆伝播のため
– 解析的に求めることはできない
• つらい
• 複数回サンプリングすることで近似
脱線 ClariNetの良いところ
• 本当に解析的に求められないのか、自分の数学
力に自信が持てなかった
• BaiduがClariNetというParallel WaveNet系
の手法を発表した
• logistic分布(𝑃𝑆)と混合logistic分布(𝑃 𝑇)だと
解析的に求められずサンプリングが必要だから、ど
ちらもgaussian分布に置き換えた
• https://arxiv.org/abs/1807.07281
𝐻 𝑃𝑆 を求める
• ロジスティック分布のエントロピーは簡単に求めら
れる
• 𝐻 𝐿 𝜇, 𝑠 = log 𝑠 + 2
損失関数の完成形
• KLダイバージェンスの最小化
• 𝐻 𝑃𝑆, 𝑃 𝑇
– 複数回サンプリングで近似
• 𝐻 𝑃𝑆
– log 𝑠 + 2 𝐻 𝑃𝑆
𝐷 𝐾𝐿
𝐻 𝑃𝑆, 𝑃 𝑇
Parallel WaveNet
• 3行でまとめると…
– WaveNetのarchitectureの詳細を公開した
– WaveNetの量子化bit数を8bitから16bitにした
– WaveNetの音声合成を1000倍高速化した
3行でまとまらなかった
Parallel WaveNet
• Polyak averaging(exponential moving
average)
– 小ネタなので省略しました
• 𝑝 𝑥𝑡 𝑧1, 𝑧2, … , 𝑧 𝑇, 𝒉)でない理由
– IAFの範囲なので省略しました
– 本当はちょっと難しかったので…
• 損失関数の正則化項
– それほど目新しくもないので省略しました
– 読めば分かるようなところなので

Más contenido relacionado

La actualidad más candente

Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifoldyukihiro domae
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 Kenta Oono
 
Scalable Partial Least Squares Regression on Grammar-Compressed Data Matrices
Scalable Partial Least Squares Regression on Grammar-Compressed Data MatricesScalable Partial Least Squares Regression on Grammar-Compressed Data Matrices
Scalable Partial Least Squares Regression on Grammar-Compressed Data MatricesYasuo Tabei
 
北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3C北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3CTomoya Oda
 
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」Naonori Nagano
 
AGA_CVPR2017
AGA_CVPR2017AGA_CVPR2017
AGA_CVPR2017nonane
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence LearningDeep Learning JP
 
全体セミナー20180124 final
全体セミナー20180124 final全体セミナー20180124 final
全体セミナー20180124 finalJiro Nishitoba
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習Takashi Kitano
 
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-Yasuyuki Sugai
 
ウェーブレット木の世界
ウェーブレット木の世界ウェーブレット木の世界
ウェーブレット木の世界Preferred Networks
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural NetworksSeiya Tokui
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 

La actualidad más candente (19)

Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifold
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
 
Chainerで流体計算
Chainerで流体計算Chainerで流体計算
Chainerで流体計算
 
Scalable Partial Least Squares Regression on Grammar-Compressed Data Matrices
Scalable Partial Least Squares Regression on Grammar-Compressed Data MatricesScalable Partial Least Squares Regression on Grammar-Compressed Data Matrices
Scalable Partial Least Squares Regression on Grammar-Compressed Data Matrices
 
Vae gan nlp
Vae gan nlpVae gan nlp
Vae gan nlp
 
北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3C北大調和系 DLゼミ A3C
北大調和系 DLゼミ A3C
 
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
 
yyoshida thesis
yyoshida thesisyyoshida thesis
yyoshida thesis
 
AGA_CVPR2017
AGA_CVPR2017AGA_CVPR2017
AGA_CVPR2017
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
 
全体セミナー20180124 final
全体セミナー20180124 final全体セミナー20180124 final
全体セミナー20180124 final
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
 
ウェーブレット木の世界
ウェーブレット木の世界ウェーブレット木の世界
ウェーブレット木の世界
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural Networks
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
Graph LSTM解説
Graph LSTM解説Graph LSTM解説
Graph LSTM解説
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 

Similar a Parallel WaveNet: Fast High-Fidelity Speech Synthesis

文献紹介:SlowFast Networks for Video Recognition
文献紹介:SlowFast Networks for Video Recognition文献紹介:SlowFast Networks for Video Recognition
文献紹介:SlowFast Networks for Video RecognitionToru Tamaki
 
レトリバ勉強会資料:深層学習による自然言語処理2章
レトリバ勉強会資料:深層学習による自然言語処理2章レトリバ勉強会資料:深層学習による自然言語処理2章
レトリバ勉強会資料:深層学習による自然言語処理2章Hiroki Iida
 
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...Deep Learning JP
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted WindowsDeep Learning JP
 
20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshutoMakoto Shuto
 
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!
[part 2]ナレッジグラフ推論チャレンジ・Tech Live![part 2]ナレッジグラフ推論チャレンジ・Tech Live!
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!KnowledgeGraph
 
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Masayoshi Kondo
 
PFDS 8.4.3 Real-Time Deques
PFDS 8.4.3 Real-Time DequesPFDS 8.4.3 Real-Time Deques
PFDS 8.4.3 Real-Time Deques昌平 村山
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-studyNaoya Chiba
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向Yusuke Uchida
 
Res netと派生研究の紹介
Res netと派生研究の紹介Res netと派生研究の紹介
Res netと派生研究の紹介masataka nishimori
 
ディープラーニング基礎.pptx
ディープラーニング基礎.pptxディープラーニング基礎.pptx
ディープラーニング基礎.pptxnorimatsu5
 
Global optimality in neural network training
Global optimality in neural network trainingGlobal optimality in neural network training
Global optimality in neural network trainingFujimoto Keisuke
 
OpenFlow in IaaS - Wakame
OpenFlow in IaaS - WakameOpenFlow in IaaS - Wakame
OpenFlow in IaaS - Wakameaxsh co., LTD.
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
OpenStackネットワーク入門 – OpenStack最新情報セミナー 2015年4月
OpenStackネットワーク入門 – OpenStack最新情報セミナー 2015年4月OpenStackネットワーク入門 – OpenStack最新情報セミナー 2015年4月
OpenStackネットワーク入門 – OpenStack最新情報セミナー 2015年4月VirtualTech Japan Inc.
 
ネットワークプログラマビリティ勉強会
ネットワークプログラマビリティ勉強会ネットワークプログラマビリティ勉強会
ネットワークプログラマビリティ勉強会Tomoya Hibi
 

Similar a Parallel WaveNet: Fast High-Fidelity Speech Synthesis (20)

文献紹介:SlowFast Networks for Video Recognition
文献紹介:SlowFast Networks for Video Recognition文献紹介:SlowFast Networks for Video Recognition
文献紹介:SlowFast Networks for Video Recognition
 
レトリバ勉強会資料:深層学習による自然言語処理2章
レトリバ勉強会資料:深層学習による自然言語処理2章レトリバ勉強会資料:深層学習による自然言語処理2章
レトリバ勉強会資料:深層学習による自然言語処理2章
 
Wssit slide
Wssit slideWssit slide
Wssit slide
 
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 
20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto
 
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!
[part 2]ナレッジグラフ推論チャレンジ・Tech Live![part 2]ナレッジグラフ推論チャレンジ・Tech Live!
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!
 
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
 
PFDS 8.4.3 Real-Time Deques
PFDS 8.4.3 Real-Time DequesPFDS 8.4.3 Real-Time Deques
PFDS 8.4.3 Real-Time Deques
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
bigdata2012ml okanohara
bigdata2012ml okanoharabigdata2012ml okanohara
bigdata2012ml okanohara
 
Res netと派生研究の紹介
Res netと派生研究の紹介Res netと派生研究の紹介
Res netと派生研究の紹介
 
ディープラーニング基礎.pptx
ディープラーニング基礎.pptxディープラーニング基礎.pptx
ディープラーニング基礎.pptx
 
Global optimality in neural network training
Global optimality in neural network trainingGlobal optimality in neural network training
Global optimality in neural network training
 
OpenFlow in IaaS - Wakame
OpenFlow in IaaS - WakameOpenFlow in IaaS - Wakame
OpenFlow in IaaS - Wakame
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
OpenStackネットワーク入門 – OpenStack最新情報セミナー 2015年4月
OpenStackネットワーク入門 – OpenStack最新情報セミナー 2015年4月OpenStackネットワーク入門 – OpenStack最新情報セミナー 2015年4月
OpenStackネットワーク入門 – OpenStack最新情報セミナー 2015年4月
 
ネットワークプログラマビリティ勉強会
ネットワークプログラマビリティ勉強会ネットワークプログラマビリティ勉強会
ネットワークプログラマビリティ勉強会
 

Parallel WaveNet: Fast High-Fidelity Speech Synthesis