Enviar búsqueda
Cargar
[DL Hacks]FPGA入門
•
7 recomendaciones
•
3,007 vistas
Deep Learning JP
Seguir
2018/06/25 Deep Learning JP: http://deeplearning.jp/hacks/
Leer menos
Leer más
Tecnología
Denunciar
Compartir
Denunciar
Compartir
1 de 20
Descargar ahora
Descargar para leer sin conexión
Recomendados
モデル高速化百選
モデル高速化百選
Yusuke Uchida
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Preferred Networks
LBFGSの実装
LBFGSの実装
Kotaro Tanahashi
言語モデル入門
言語モデル入門
Yoshinari Fujinuma
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
Deep Learning JP
Singularityで分散深層学習
Singularityで分散深層学習
Hitoshi Sato
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
Megagon Labs
汎用なNeural Network Potential「Matlantis」を使った新素材探索_2022応用物理学会_2022/3/22
汎用なNeural Network Potential「Matlantis」を使った新素材探索_2022応用物理学会_2022/3/22
Matlantis
Recomendados
モデル高速化百選
モデル高速化百選
Yusuke Uchida
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Preferred Networks
LBFGSの実装
LBFGSの実装
Kotaro Tanahashi
言語モデル入門
言語モデル入門
Yoshinari Fujinuma
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
Deep Learning JP
Singularityで分散深層学習
Singularityで分散深層学習
Hitoshi Sato
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
Megagon Labs
汎用なNeural Network Potential「Matlantis」を使った新素材探索_2022応用物理学会_2022/3/22
汎用なNeural Network Potential「Matlantis」を使った新素材探索_2022応用物理学会_2022/3/22
Matlantis
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
Preferred Networks
いまさら聞けないarmを使ったNEONの基礎と活用事例
いまさら聞けないarmを使ったNEONの基礎と活用事例
Fixstars Corporation
研究の呪い
研究の呪い
Hitoshi Nishikawa
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
Hitoshi Sato
1076: CUDAデバッグ・プロファイリング入門
1076: CUDAデバッグ・プロファイリング入門
NVIDIA Japan
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
マルチコアを用いた画像処理
マルチコアを用いた画像処理
Norishige Fukushima
FPGAでベンチマークしたときに苦労した話@fpgax#12
FPGAでベンチマークしたときに苦労した話@fpgax#12
Jun Ando
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
Gpu vs fpga
Gpu vs fpga
Yukitaka Takemura
FPGAのトレンドをまとめてみた
FPGAのトレンドをまとめてみた
Takefumi MIYOSHI
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
Ichigaku Takigawa
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
Ultra96ボードでYOLOを高速化
Ultra96ボードでYOLOを高速化
Hiroyuki Okuhata
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
第15回 配信講義 計算科学技術特論A(2021)
第15回 配信講義 計算科学技術特論A(2021)
RCCSRENKEI
AlphaGoのしくみ
AlphaGoのしくみ
Hiroyuki Yoshida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
充足可能性問題のいろいろ
充足可能性問題のいろいろ
Hiroshi Yamashita
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
Deep Learning JP
ACRi_webinar_20220118_miyo
ACRi_webinar_20220118_miyo
Takefumi MIYOSHI
Myoshimi extreme
Myoshimi extreme
Masato Yoshimi
Más contenido relacionado
La actualidad más candente
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
Preferred Networks
いまさら聞けないarmを使ったNEONの基礎と活用事例
いまさら聞けないarmを使ったNEONの基礎と活用事例
Fixstars Corporation
研究の呪い
研究の呪い
Hitoshi Nishikawa
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
Hitoshi Sato
1076: CUDAデバッグ・プロファイリング入門
1076: CUDAデバッグ・プロファイリング入門
NVIDIA Japan
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
マルチコアを用いた画像処理
マルチコアを用いた画像処理
Norishige Fukushima
FPGAでベンチマークしたときに苦労した話@fpgax#12
FPGAでベンチマークしたときに苦労した話@fpgax#12
Jun Ando
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
Gpu vs fpga
Gpu vs fpga
Yukitaka Takemura
FPGAのトレンドをまとめてみた
FPGAのトレンドをまとめてみた
Takefumi MIYOSHI
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
Ichigaku Takigawa
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
Ultra96ボードでYOLOを高速化
Ultra96ボードでYOLOを高速化
Hiroyuki Okuhata
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
第15回 配信講義 計算科学技術特論A(2021)
第15回 配信講義 計算科学技術特論A(2021)
RCCSRENKEI
AlphaGoのしくみ
AlphaGoのしくみ
Hiroyuki Yoshida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
充足可能性問題のいろいろ
充足可能性問題のいろいろ
Hiroshi Yamashita
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
Deep Learning JP
La actualidad más candente
(20)
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
東大大学院 戦略ソフトウェア特論2021「ロボットで世界を計算可能にする」海野裕也
いまさら聞けないarmを使ったNEONの基礎と活用事例
いまさら聞けないarmを使ったNEONの基礎と活用事例
研究の呪い
研究の呪い
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
1076: CUDAデバッグ・プロファイリング入門
1076: CUDAデバッグ・プロファイリング入門
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
マルチコアを用いた画像処理
マルチコアを用いた画像処理
FPGAでベンチマークしたときに苦労した話@fpgax#12
FPGAでベンチマークしたときに苦労した話@fpgax#12
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
Gpu vs fpga
Gpu vs fpga
FPGAのトレンドをまとめてみた
FPGAのトレンドをまとめてみた
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
Ultra96ボードでYOLOを高速化
Ultra96ボードでYOLOを高速化
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
第15回 配信講義 計算科学技術特論A(2021)
第15回 配信講義 計算科学技術特論A(2021)
AlphaGoのしくみ
AlphaGoのしくみ
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
充足可能性問題のいろいろ
充足可能性問題のいろいろ
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
Similar a [DL Hacks]FPGA入門
ACRi_webinar_20220118_miyo
ACRi_webinar_20220118_miyo
Takefumi MIYOSHI
Myoshimi extreme
Myoshimi extreme
Masato Yoshimi
CMSI計算科学技術特論A(7) 線形代数演算ライブラリBLASとLAPACKの基礎と実践2
CMSI計算科学技術特論A(7) 線形代数演算ライブラリBLASとLAPACKの基礎と実践2
Computational Materials Science Initiative
研究者のための Python による FPGA 入門
研究者のための Python による FPGA 入門
ryos36
ICD/CPSY 201412
ICD/CPSY 201412
Takefumi MIYOSHI
GPU-FPGA協調プログラミングを実現するコンパイラの開発
GPU-FPGA協調プログラミングを実現するコンパイラの開発
Ryuuta Tsunashima
FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料
一路 川染
High speed-pc-router 201505
High speed-pc-router 201505
ykuga
SDN Japan: ovs-hw
SDN Japan: ovs-hw
ykuga
High-speed Sorting using Portable FPGA Accelerator (IPSJ 77th National Conven...
High-speed Sorting using Portable FPGA Accelerator (IPSJ 77th National Conven...
Takuma Usui
20170421 tensor flowusergroup
20170421 tensor flowusergroup
ManaMurakami1
PyCoRAMを用いたグラフ処理FPGAアクセラレータ
PyCoRAMを用いたグラフ処理FPGAアクセラレータ
Shinya Takamaeda-Y
FPGA・リコンフィギャラブルシステム研究の最新動向
FPGA・リコンフィギャラブルシステム研究の最新動向
Shinya Takamaeda-Y
ソフトウェア技術者はFPGAをどのように使うか
ソフトウェア技術者はFPGAをどのように使うか
なおき きしだ
GNS3上の仮想アプライアンス+GitLabRunner+BDDによるテスト自動化
GNS3上の仮想アプライアンス+GitLabRunner+BDDによるテスト自動化
Shigeru Tsubota
増え続ける情報に対応するためのFPGA基礎知識
増え続ける情報に対応するためのFPGA基礎知識
なおき きしだ
Fpga local 20130322
Fpga local 20130322
Takefumi MIYOSHI
Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)
Fixstars Corporation
Abstracts of FPGA2017 papers (Temporary Version)
Abstracts of FPGA2017 papers (Temporary Version)
Takefumi MIYOSHI
Getting Started with Jetson Nano
Getting Started with Jetson Nano
NVIDIA Japan
Similar a [DL Hacks]FPGA入門
(20)
ACRi_webinar_20220118_miyo
ACRi_webinar_20220118_miyo
Myoshimi extreme
Myoshimi extreme
CMSI計算科学技術特論A(7) 線形代数演算ライブラリBLASとLAPACKの基礎と実践2
CMSI計算科学技術特論A(7) 線形代数演算ライブラリBLASとLAPACKの基礎と実践2
研究者のための Python による FPGA 入門
研究者のための Python による FPGA 入門
ICD/CPSY 201412
ICD/CPSY 201412
GPU-FPGA協調プログラミングを実現するコンパイラの開発
GPU-FPGA協調プログラミングを実現するコンパイラの開発
FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料
High speed-pc-router 201505
High speed-pc-router 201505
SDN Japan: ovs-hw
SDN Japan: ovs-hw
High-speed Sorting using Portable FPGA Accelerator (IPSJ 77th National Conven...
High-speed Sorting using Portable FPGA Accelerator (IPSJ 77th National Conven...
20170421 tensor flowusergroup
20170421 tensor flowusergroup
PyCoRAMを用いたグラフ処理FPGAアクセラレータ
PyCoRAMを用いたグラフ処理FPGAアクセラレータ
FPGA・リコンフィギャラブルシステム研究の最新動向
FPGA・リコンフィギャラブルシステム研究の最新動向
ソフトウェア技術者はFPGAをどのように使うか
ソフトウェア技術者はFPGAをどのように使うか
GNS3上の仮想アプライアンス+GitLabRunner+BDDによるテスト自動化
GNS3上の仮想アプライアンス+GitLabRunner+BDDによるテスト自動化
増え続ける情報に対応するためのFPGA基礎知識
増え続ける情報に対応するためのFPGA基礎知識
Fpga local 20130322
Fpga local 20130322
Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)
Abstracts of FPGA2017 papers (Temporary Version)
Abstracts of FPGA2017 papers (Temporary Version)
Getting Started with Jetson Nano
Getting Started with Jetson Nano
Más de Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
Más de Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Último
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Toru Tamaki
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Toru Tamaki
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Hiroshi Tomioka
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
WSO2
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
atsushi061452
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Último
(12)
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
[DL Hacks]FPGA入門
1.
FPGA入門 システム情報学専攻 修士2年 上野 洋典
2.
FPGAとは • Field Programmable
Gate Array • 動作を書き換えられるデジタル回路の集合体 • 大雑把に言うとANDとかORとかが数万個~数百万個詰まってる • 並列計算が得意 • 自分だけの高速並列計算機が作れる • 機械学習と相性良し ◯ × CPU ソフト開発者たくさん。クロック最速(数GHz) 汎用品の限界。ノイマンボトルネック。ク ロックもう伸びない GPU 大量の数値演算なら最強。ソフト開発者が扱える。クロック速い(1GHz位) 汎用品の限界。電力食い過ぎ(200W) ASIC 自由に専用設計できる。低消費電力(uW~W) 修正できないので開発が大がかり。1~2年+ 数億円かかる。コストの8割が検証作業 FPGA 自由に専用設計できる。低消費電力(mW~W)。いつでも仕様変更・バグ修 正できる。1万円で試せる手軽さ ソフト開発者には難しい。クロック遅い(数 100MHz)。集積度低い https://qiita.com/kazunori279/items/a9e97a4463cab7dda8b9
3.
FPGAのインパクト • 2015年,IntelがFPGA大手のAlteraを2兆円で買収 • MicrosoftのBing検索がFPGAによって2倍高速化 •
杉山研佐藤先生の成果もFPGA
4.
今回使うボード • Xilinx Zynq-7000
ZC702 • ARM Cortex-A9 周波数: ~1GHz • 1GB DDR3 memory • 28mm programmable Logic • Configurable Logic Block • 36Kb RAM • Digital signal processor (乗算器等) • etc • ツール込みで900ドルくらい
5.
なぜ早い? CPU 数GHz FPGA y[0] = x[0]
* x[0]; y[1] = x[1] * x[1]; ・・・ y[999] = x[999] * x[999]; x[0] * y[0] x[1] * y[1] x[999] * y[999] ・・・
6.
開発手順 • システム設計 • 機能設計 •
RTL設計 • 目的の回路を表すHDL(HW記述言語)を書く • 論理設計 • 物理設計 • FPGA上にマッピング 開発ソフトのCAD が自動で行う
7.
HDLによる開発 • 考えること • データパス •
スケジューリング • 状態遷移 • etc… 2値化CNNなDQNをFPGAで動かしてみた 中原啓貴 https://www.slideshare.net/HirokiNakahara1/tensor-flow-usergroup-2016
8.
高位合成 • C/C++等の高級言語からHDLを生 成する技術 • コンパイルには時間がかかる •
関数単位で行う • アプリケーションの内,一部はCPU で,一部はPLで実行 • FPGA化する関数は色々な制約あり • ダブルポインタ使えない • グローバル変数使えない • 引数の配列サイズの明示 など FPGA化
9.
関数単位のFPGA化 CPUのみ 関数2のみFPGA化 関数1 関数2 関数3 CPUが処理する空間 逐次的 数GHz 関数1 関数2へのアクセスコード 関数3 CPUが処理する空間 逐次的 数GHz 関数2 FPGAが処理する空間 高い並列性 数百MHz
10.
実装 • 右の書籍に沿って行う • 3層CNNをC言語で実装しFPGA化 •
犬猫の2クラス分類 • Train: 100枚, Test: 20枚 関数構成 main() ├ ReadBMP() ├ CNN() │ ├ CNNLayer() │ │ ├ Convolution() │ │ │ └ CalcConvolution() │ │ └ Pooling() │ │ └ MaxPooling() │ └Perceptron() ├ HiddenLearning() └ OutLearning() ソースコード https://github.com/aquaxis/CNNFPGA
11.
実行時間: CPUのみで実行 • CPU(Zynq上のARM)のみで実行した場合 •
40ms / dataの実行時間 • FPGA化によってこれを処理時間を 早くしたい 関数構成 main() ├ ReadBMP() ├ CNN() │ ├ CNNLayer() │ │ ├ Convolution() │ │ │ └ CalcConvolution() │ │ └ Pooling() │ │ └ MaxPooling() │ └Perceptron() ├ HiddenLearning() └ OutLearning()
12.
CalcConvolution()のみをFPGA化 • 「何も考えずに」Calc~()をFPGA化 • 2130ms
/ data • 50倍遅い! • メモリ転送がネックになっている • 周波数が遅い分より効いている 関数構成 main() ├ ReadBMP() ├ CNN() │ ├ CNNLayer() │ │ ├ Convolution() │ │ │ └ CalcConvolution() │ │ └ Pooling() │ │ └ MaxPooling() │ └Perceptron() ├ HiddenLearning() └ OutLearning() filter[0] filter[1] filter[2] filter[3]・・・ FPGAによる 処理実行時間 メモリ
13.
CalcConvolution()のみをFPGA化 • 「少し考えて」Calc~()をFPGA化 • 243ms
/ data • さっきよりマシだがまだ遅い • 配列をまとめて転送 • #pragma SDS data access_pattern(filter:SEQUENTIAL) 関数構成 main() ├ ReadBMP() ├ CNN() │ ├ CNNLayer() │ │ ├ Convolution() │ │ │ └ CalcConvolution() │ │ └ Pooling() │ │ └ MaxPooling() │ └Perceptron() ├ HiddenLearning() └ OutLearning() filter[0] filter[1] filter[2] filter[3]・・・ FPGAによる 処理実行時間 メモリ
14.
CNNLayer()をFPGA化 • CNNLayer()を「そのまま」FPGA化 • 171ms
/ data • 早くなったけど遅い… • 原則として下層の関数からFPGA化 • コンパイラはPLが足りるように試行錯誤 • いきなり上層の関数から行うとPL足りないかも 関数構成 main() ├ ReadBMP() ├ CNN() │ ├ CNNLayer() │ │ ├ Convolution() │ │ │ └ CalcConvolution() │ │ └ Pooling() │ │ └ MaxPooling() │ └Perceptron() ├ HiddenLearning() └ OutLearning()
15.
CNNLayer()をFPGA化 • CNNLayer()を「よく考えて」FPGA化 • 111ms
/ data • 「よく考えて」=「処理全体でのデータの流れを考えて」 • FPGA内の処理でメモリを使わないようにする 関数構成 main() ├ ReadBMP() ├ CNN() │ ├ CNNLayer() │ │ ├ Convolution() │ │ │ └ CalcConvolution() │ │ └ Pooling() │ │ └ MaxPooling() │ └Perceptron() ├ HiddenLearning() └ OutLearning() メモリ Convolution Pooling Before メモリ Convolution Pooling After
16.
最終的に • とかをやっても (この本の内容では)
93msが限界 • ループアンローリングを 使って並列性を高める • #pragma HLS UNROLE 処理1 処理2 処理3 処理4 処理1 処理2 処理3 処理4 処理1 処理2 処理3 処理4 処理1 処理2 処理3 処理4 • 処理をパイプライン化する ことでスループットを高める • #pragma HLS PIPELINE
17.
感想 • FPGA化すれば何でも早くなるというのは幻想 • 職人技が必要 •
そもそもFPGAが不向きな計算もある • 結局高速化にはハードウェアの知識は最低限必要 • 高位合成のおかげでだいぶ軽減はされている • 別件でHDLで4bit CPU作ってみたけど楽しかった
18.
Pynqボード • Pythonで高位合成ができるボード! • ARMチップとPLあり •
ARM上のLinuxでjupyter notebookも動く • LAN経由でアクセス可能 • 右上のコードだけでLチカできる! • 229ドル+送料 • アカデミック割で65ドル+送料
19.
まとめ • SW寄りの人も知っておく価値はあり • HDLは書けなくても大丈夫だと思う… •
DLのソフトだけやっててもなあ…って人はぜひ • Pynqボード面白そう • 需要ありそうなら動かした感想をLTで
20.
参考文献 • そろそろプログラマーもFPGAを触ってみよう! • https://qiita.com/kazunori279/items/a9e97a4463cab7dda8b9 •
2値化CNNなDQNをFPGAで動かしてみた • https://www.slideshare.net/HirokiNakahara1/tensor-flow- usergroup-2016 • ソフトウェア技術者から見たFPGAの魅力と可能性 • https://www.slideshare.net/MITSUDA_Kenichiro/fpga2018 • ソフトウェア技術者のためのFPGA入門 石原ひでみ • https://nextpublishing.jp/book/9219.html
Descargar ahora