SlideShare a Scribd company logo
1 of 35
Active Convolution,
Deformable Convolution
―形状・スケールを学習可能なConvolution―
夏のトップカンファレンス論文読み会
2017/9/18
進矢陽介
自己紹介
2007~2014 東京大学
話者認識
形状の数式表現、Mixed Reality
2014~2015 三菱電機
車内センシング(ドライバモニタ)
2015~ デンソー(東京支社)
車外センシング(物体検出等)
技術動向調査(論文・特許)
http://toyota.jp/technology/safety/toyota_safety_sense_p/ より引用
三菱電機公式サイトより引用
※本発表は個人として行うものであり
所属組織を代表するものではありません
CNNのモジュール
• Convolution
• Activation
ReLU, LReLU, PReLU, RReLU, ELU, SELU, NG, tanh, Maxout, …
• Normalization
Batch Normalization, Weight Normalization, Layer Normalization, Batch Renormalization, …
︙
︙
CNNの根幹である Convolution はこのままで良いのか?
目次、紹介論文
• 前置き
- Receptive Field, Effective Receptive Field
- Atrous Convolution, Dilated Convolution
• Active Convolution
Active Convolution: Learning the Shape of Convolution for Image Classification
[Yunho Jeon+, CVPR2017] https://arxiv.org/abs/1703.09076 (arXiv投稿:2017/3/27)
• Deformable Convolution
Deformable Convolutional Networks
[Jifeng Dai+, ICCV2017] https://arxiv.org/abs/1703.06211 (arXiv投稿:2017/3/17)
(theoretical) Receptive Field(受容野)
• あるニューロンの出力に影響を与える入力画像の範囲
認識対象の物体全体(+周囲のコンテキスト)をカバーするように設計される
• 長方形カーネル
認識対象の形状に合わせることもある
例:人物を検出したい時に縦長にする
• 正方形カーネル
通常のCNNでは 3x3 convが多用される
2つ積むと 5x5 の領域を見ている
MS-CNN [Zhaowei Cai+, ECCV2016]
車両 →
歩行者/
サイクリスト →
歩行者 →
図引用元:[Jifeng Dai+, ICCV2017]
Effective Receptive Field (ERF; 実効受容野(?))
• (theoretical) Receptive Fieldが、影響の有無を 0,1 で表す概念なのに対し、
ERFは影響度合いを考慮した概念
• ERFはガウス分布に近い形状をしており、Receptive Fieldの端の影響は薄まっている
• 通常のconv層を積んでも、ERFは 層数 でしか増えない
• 学習とともに広がるが、多くのCNNでERFを広げる必要あり
1 2 3 2 1
2 4 6 4 2
3 6 9 6 3
2 4 6 4 2
1 2 3 2 1
• シンプルな例
下の 5x5 の領域を 3x3 conv が通る回数
[Wenjie Luo+, NIPS2016] https://arxiv.org/abs/1701.04128
Atrous Convolution (Dilated Convolution)
• 穴ありのconvolution
• pooling等と異なり、解像度を落とすことなく、
receptive fieldを広げられる
• パラメータ数は通常のconvolutionと同じ
• Dilated Convolutionとも呼ばれる
図引用元: https://github.com/vdumoulin/conv_arithmetic
DeepLab [Liang-Chieh Chen+, ICLR2015]
https://arxiv.org/abs/1412.7062
dilation factor
ERFも広がるが四角くなる
1次元表示
2次元表示
Dilated Convolution (によるMulti-Scale Context Aggregation)
• dilation factorを層ごとに2倍にしたconv層を積むことで、
receptive fieldを層ごとに2倍にする
Multi-Scale Context Aggregation by Dilated Convolutions
[Fisher Yu+, ICLR2016] https://arxiv.org/abs/1511.07122
WaveNet: A Generative Model for Raw Audio
[Aaron van den Oord+, arXiv2016]
https://arxiv.org/abs/1609.03499
2次元表示
1次元表示
従来のConvolutionの問題点
(1) 形状が固定
• 物体の形状は基本的に、RFのような矩形でもERFのような円形でもない
• 物体ごとに形状は異なる
(2) スケールが固定
• Dilated Convolutionでreceptive fieldが広げられても、所詮は手設計の値
• 物体ごとにスケールは異なる
→ Convolutionの形状・スケールを、学習によって決めるべき
Active Convolution
Active Convolutionのコンセプト
• 接続位置は固定
• 整数座標(離散値)
• 接続位置は学習で変動
• 実数座標(連続値)
シナプスはロスを減らすようニューロン間を動き回る
→ Convolutionの形状・スケールを学習する
1次元表示
2次元表示
Active Convolutionの実現方法
• 各シナプスに持たせた、座標変位パラメータ 𝛼 𝑘, 𝛽 𝑘 をbackpropで学習する
通常の3x3 convであれば、 𝛼 𝑘, 𝛽 𝑘 が -1, 0, 1 で固定
• ニューロン間の値は、近傍4ニューロンからバイリニア補間
Active Convolutionの工夫
• Normalized Gradient
・シナプスの移動量は正規化で一定にし、
移動する向きだけが変わるようにすることで、
移動量が層によって変動するのを防ぐ
・1 iteration で 0.001 pixel しか動かさない
(変位の初期学習率0.001)
整数座標で微分できないが、この学習率であれば、
実験的には問題無い
• Warming up
学習初期は座標変位を学習しない
速度・パラメータ数
• 速度
バイリニア補間を行うため通常のconvolutionより約1.6倍遅い
cuDNN使用で速くなる可能性あり
• 追加パラメータ数(3x3 convを置き換える場合)
中央以外の8シナプスが、それぞれ座標変位パラメータを2つ持つ
kernel間でパラメータを共有するため、一層あたり16パラメータ
評価結果(画像分類)
• Active Convolutionに変更するとベースラインより高精度
Places365 (365シーン分類)
学習された変位(CIFAR-10)
• 下位層は通常のconvolutionに落ち着く
- 局所特徴抽出
- 学習中に変動するため、augmentationの効果
• 上位層は広がり、dilated convolutionに類似
- 前層の特徴を広く統合
↑この図が全追加パラメータを示している
学習された変位(Places365)
• 入力解像度が大きい分広い
• AlexNetでは、1層で2種のreceptive fieldを持つよう学習されている
Deformable Convolution
Deformable Convolutionのコンセプト
通常の
Convolution
Deformable
Convolution
• サンプリング位置のオフセットをbackpropで学習
• 非整数座標での値はバイリニア補間で算出
Deformable Convolutionで表せる変形の例
(スケール・アスペクト比・回転)
Active Convolutionと同じ? 違います!
Deformable Convolutionの特徴
• 画像中に映っている物体のスケール・形状に合わせて、
receptive fieldが動的に変わる
• 学習したreceptive fieldが固定して使われるActive Convolutionとは異なる
Deformable Convolutionの流れ(全体)
(1) オフセット出力用convをかける
(2) offset fieldの2Nチャンネルをほぐす
(2はx,y、Nは右図では 3x3=9)
(3) オフセット値に応じて
入力特徴マップからサンプリング
(4) 特徴マップ出力用convをかける
• Active Convolutionのパラメータはオフセット値自体
• Deformable Convolutionのパラメータは、オフセット値を出力するconv層が持つ
→ 入力特徴マップの値によって、オフセット値が変動する
→ receptive fieldが動的に変わる
(1) (2)
(3) (4)
Deformable Convolutionの流れ(前頁(3),(4)の詳細)
• 非整数座標の入力特徴マップの値は
バイリニア補間で算出
• 𝐪 は x 内の全ての整数座標を列挙
• バイリニア補間は1次元カーネル2つに分解
• 𝐺(𝐪, 𝐩) は、 𝑞 𝑥 − 𝑝 𝑥 < 1 かつ 𝑞 𝑦 − 𝑝 𝑦 < 1
でのみ非ゼロ( 𝐩 の近傍4ニューロン)
• 通常のconvolutionに
オフセットが追加される入力特徴マップ
バイリニア補間
オフセット
なお、Deformable Convolution, Deformable RoI Pooling(後述)はともに2D演算
(チャンネル間でパラメータ共有)
Deformable RoI Pooling
• 物体検出で使用されるRoI Pooling*1に
Deformable Convolutionのアイディアを適用したもの
• Deformable RoI Pooling
Faster R-CNN系で使用される
RoI Poolingのオフセット学習追加版
• Deformable PS RoI Pooling
R-FCNで使用される
Position-Sensitive (PS) RoI Poolingの
オフセット学習追加版
*1: YOLO, SSD等のsingle shot系では使用されない
関連研究との差異
• Spatial Transform Networks (STN) と比べて、
- 軽量で、学習しやすい
- 特徴マップ全体のwarpingではなく、局所的で密なサンプリングを行う
- semantic segmentationや物体検出に向く
• Deformable Part Models (DPM) と違ってdeepであり、
モジュールを積むことで、変形のモデリング能力が増す
[Max Jaderberg+, NIPS2015]
評価結果:Deformable Convolutionの適用層
• 最後の方から3層に適用するとトレードオフ上良い*1
↑
1スケール出力の
SSDに近い
↑
@V: PASCAL VOC
@C: Cityscapes
*1: 特徴マップの解像度が大きい下位層で使用するとおそらく遅くなる
下位層より上位層の方が効果が大きいことはActive Convolutionの結果からも推測される
Semantic
Segmentation
物体検出
Deformable Convolutionの定性的効果
• 認識対象のスケール・形状に応じて、receptive fieldが変形する
(緑の位置のニューロンは、3層のDeformable Convolutionを介して、
(3x3)3=729個の赤の点からサンプリングしている)
↑背景に対応 ↑小さい物体に対応 ↑大きい物体に対応
Deformable (PS) RoI Poolingの定性的効果
• RoI poolingのbinが前景物体の近くに移動する
• 特に非剛体の位置精度に効果
評価結果:物体サイズとreceptive fieldの対応
• 認識対象の物体のサイズと、receptive fieldのサイズに相関がある
• 背景領域の認識には大きめのreceptive fieldが必要(mediumとlargeの中間)
effective dilation*1の平均・標準偏差 (receptive fieldのサイズと関連)
*1: サンプリング位置の隣接ペアの距離の平均
評価結果:Deformable RoI Poolingの効果
• atrous convolutionの適切なdilation factorはタスクによって異なる
• deformable convolutionが最高精度
→ フィルタ変形の適応的学習の有効性・必要性を示している
• Deformable RoI Pooling は特に mAP@0.7 で有効
(位置精度が向上している)
パラメータ数・速度
• オーバーヘッドは小さい
• 精度向上はパラメータ数ではなく、変形のモデリング能力向上によるもの
まとめ
形状・スケールを学習可能なConvolutionを2つ紹介
• Active Convolution: 座標オフセット値自体を学習
• Deformable Convolution: 座標オフセット値を出力する追加のconv層を学習
画像中に映っている物体のスケール・形状に合わせて、receptive fieldが動的に変わる
感想
• Deformable Convolutionが一足飛びで頭一つ抜けている印象
• 時系列データ、3D CNN(xyt) に適用すると、形状・スケールはどうなるだろうか
補足:Learnable Dilated Convolution
• dilation factorをchannelごとに学習で求める
• バイリニア補間を用い、非整数のdilation factorに対応
• スケール変化には対応可能だが、形状変化には対応しない
(Active Convolution, Deformable Convolution のように、
各方向のシナプスが自由に動き回ったりせず、あくまでスケールが伸び縮みする)
Learning Dilation Factors for Semantic Segmentation of Street Scenes
[Yang He+, GCPR2017] https://arxiv.org/abs/1709.01956
学習で得られた dilation factor の分布
補足:Irregular Convolution
• カーネル形状をchannelごとに学習で求める
Irregular Convolutional Neural Networks
[Jiabin Ma+, arXiv2017] https://arxiv.org/abs/1706.07966
学習で得られた変位の分布
補足:Deformable part-based RoI pooling
• Deformable PS RoI Poolingと同様、R-FCNのPS RoI Poolingの拡張
• DPMの影響をより強く受けており、
binの移動量がDeformation costにより制約される
Deformable Part-based Fully Convolutional Network for Object Detection
[Taylor Mordan+, BMVC2017] https://arxiv.org/abs/1707.06175
http://deeplearning.csail.mit.edu/instance_ross.pdf
[Kaiming He+, ICCV2017]
補足:RoI Align (Mask R-CNN) でのバイリニア補間
4点使っているが別に4点でなくてもいい

More Related Content

What's hot

【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Keigo Nishida
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformercvpaper. challenge
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Kohta Ishikawa
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
信号処理・画像処理における凸最適化
信号処理・画像処理における凸最適化信号処理・画像処理における凸最適化
信号処理・画像処理における凸最適化Shunsuke Ono
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fieldscvpaper. challenge
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-studyNaoya Chiba
 

What's hot (20)

【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
信号処理・画像処理における凸最適化
信号処理・画像処理における凸最適化信号処理・画像処理における凸最適化
信号処理・画像処理における凸最適化
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 

Recently uploaded

NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 

Recently uploaded (7)

NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 

Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―