SlideShare una empresa de Scribd logo
1 de 24
Descargar para leer sin conexión
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
“Improving Coherence and Consistency in Neural
Sequence Models with Dual-System, Neuro-Symbolic
Reasoning.(NIPS2021)”
Okimura Itsuki, Matsuo Lab, B4
アジェンダ
1. 書誌情報
2. 概要
3. 問題意識
4. ⼆重過程理論
5. 提案⼿法
6. 実験
7. 議論
2
1 書誌情報
タイトル: Improving Coherence and Consistency in Neural Sequence
Models with Dual-System, Neuro-Symbolic Reasoning
出典: NIPS2021
https://nips.cc/Conferences/2021/ScheduleMultitrack?event=25970
著者: Maxwell Nye, Michael Henry Tessler, Joshua B. Tenenbaumなど
(MIT, Facebook AI)
選んだ理由:パラメータを増やすという⽅向ではなく、既存のシステムの
組み合わせで推論能⼒の向上を⽬指すというのが良かった。
3
2 概要
• 近年のニューラル⾔語モデルの発展にも関わらず,
⾔語モデルは⼀貫した発話の⽣成にしばしば失敗する。
• そこで,認知科学の⼆重過程理論をもとにニューラルアプローチと
記号的アプローチのそれぞれの⻑所を組み合わせることで,
より効果的にドメイン知識を取り込むことができる⼆重過程モデルを提案
• ⾔語⽣成においては、ニューラル⽣成に最⼩限の世界モデルを
組み合わせることで,⽣成する⾔語の⼀貫性と整合性が向上することを⽰
す。
4
3 問題意識
5
近年のニューラル⾔語モデルの発展にも関わらず,
⾔語モデルは⼀貫した発話の⽣成にしばしば失敗する。
特に,GPT-3のようなモデルは⼈間と同じような直観的で⾮体系的な
パターン認識エラーに陥る。
⼆重過程理論からヒントを得て,神経回路モデルと既存の知識との
インターフェースを改善し,⼀貫性を向上させる
4 ⼆重過程理論
⼆重過程理論(Dual Process Theory)
6
推論の基礎には直感的なシステム1と熟考的なシステム2という
2つの異なる認知システムがあるという理論
システム1
直感的
連想的
速い
バイアスも含む
システム2
熟考的
論理的
遅い
規範的な反応
4 ⼆重過程理論
システム1とシステム2
7
以下のような問題について考える。2秒で回答を考えてください。
Q. ボールとバットは合わせて1.1ドルで
す。
バットはボールより1ドル高いです。
さて,ボールはいくらでしょう?
A. 0.1ドル(10セント)
A. 0.05ドル(5セント)
4 ⼆重過程理論
システム1とシステム2の働き
8
時間に追われたりした状況であると,⼈間においてもシステム1が
論理的に整合していない回答を導くこともある。
システム2の努⼒が、システム1から⽣じるデフォルトの反応を無効にしたり、
抑制したりして、⼀貫性のない、系統性のない直感的な衝動を修正する。
4 ⼆重過程理論
⾔語モデルの直感的なミス
9
GPT-3のような⾔語モデルにおいても⼈間にとってシステム1が犯すような
直感的なミスに陥る
本論⽂では⾔語モデルの出⼒に対し、⼈間におけるシステム2のような
フィルタリングを組み込むことで⼀貫性と健全性の向上を⽬指す。
5 提案⼿法
ニューラルモデルと記号論理モデルを組み合わせた⼆重過程モデル
10
以降のページでは実験に⽤いた質問応答の形式で
⾃然⾔語理解の基礎的な能⼒のテストに⽤いられる
bABI[J Weston, 2015]を題材に説明する。 bABIの例
出典:https://arxiv.org/pdf/1502.05698.pdf
テキスト⽣成タスクを
システム1のような役割を期待するニューラルモデルと
システム2のような役割を期待する記号論理モデルの組み合わせで
解くことで⼀貫性の向上を⽬指す。
5 提案⼿法
1. テキスト⽣成モデルでその次に続く⽂章の候補をサンプリングする。
11
Daniel went to the garden.
Mary traveled to the office.
Daniel grabbed the apple.
Mary dropped the apple there.
Daniel went back to the garden.
Daniel went to the patio.
…
システム1
それまでの文章
候補生成
(ex.GPT-3)
次の文の候補
5 提案⼿法
2. GPT-3をfew-shotで学習した構⽂解析を⾏い,事実の抽出を⾏う。
12
Daniel went to the garden.
Mary traveled to the office.
Daniel grabbed the apple.
Mary dropped the apple there.
Daniel went back to the garden.
Daniel went to the patio.
…
システム1
Daniel.location = garden
apple.holder = Daniel
Mary.location = office
drop(Mary, apple)
go(Daniel, garden)
go(Daniel, patio)
…
次の文の候補
最小世界モデル
(minimal world model)
それまでの文章
システム2
構文解析
(GPT-3)
構文解析
(GPT-3)
候補生成
(ex.GPT-3)
5 提案⼿法
3. タスクのために設計した最⼩世界モデルで整合性を確認する。
13
Daniel went to the garden.
Mary traveled to the office.
Daniel grabbed the apple.
Mary dropped the apple there.
Daniel went back to the garden.
Daniel went to the patio.
…
システム1
Daniel.location = garden
apple.holder = Daniel
Mary.location = office
drop(Mary, apple) ❌
go(Daniel, garden) ❌
go(Daniel, patio) ⭕
…
次の文の候補
最小世界モデル
(minimal world model)
それまでの文章
システム2
構文解析
(GPT-3)
構文解析
(GPT-3)
整合性確認
(Symbolic)
候補生成
(ex.GPT-3)
5 提案⼿法
4. 整合性の確認できたものを出⼒とする。
14
Daniel went to the garden.
Mary traveled to the office.
Daniel grabbed the apple.
Mary dropped the apple there.
Daniel went back to the garden.
Daniel went to the patio.
…
候補生成
(ex.GPT-3)
Daniel.location = garden
apple.holder = Daniel
Mary.location = office
drop(Mary, apple) ❌
go(Daniel, garden) ❌
go(Daniel, patio) ⭕
…
次の文の候補
最小世界モデル
(minimal world model)
それまでの文章
システム2
構文解析
(GPT-3)
構文解析
(GPT-3)
整合性確認
(Symbolic)
Daniel went to the patio.
システム1
6 実験
bABIを⽤いて質問応答タスクと物語⽣成タスクの両⽅について性能を調査
15
タスク
質問応答:最後の質問を解析して与える解答の正解率を計測
物語⽣成:整合性を保つために拒否される⽂の割合を計測
詳細
候補⽣成にはGPT-3をFew-shotで学習したものを使⽤
最⼩世界モデルは,単純なPythonコードで実装され,以下のことを⾏う。
1. これまで述べてきた⼈,物,場所を追跡する
2. それまでの⾏動の結果としての世界の状態変化を修正する。
3. 候補となる⾏動が,1と2で定義される現在の世界状態に違反しているかどうかをチェックする。
⽐較対象
⽣成モデルのみ
⽣成モデル+RoBERTaNLIスコアリング(解答候補10個のうちもっとも含意の確率が⾼いものを選択)
⽣成モデル+システム2モデル(最⼩世界モデル)
6 実験
構⽂解析を⽤いることで、質問応答性能、論理的な⽣成能⼒を向上
16
質問応答
最⼩世界モデルは⽣成モデルのみ,または
NLIスコアリングを⼤きく上回る100%の
品質管理精度を達成する
物語⽣成
⽣成された50のストーリーにおいて,
すべてのストーリーは少なくとも1⽂は⼀貫性を保
つために再サンプリングされ,
⽣成された⽂の53.1%が論理的整合性を保つために
システム2モデルによって拒否
6 実験
CLUTRR[Sinha, 2019]を⽤いて物語⽣成タスクについて性能を調査
17
データセット
CLUTRR:⼈間が記述した家族関係を持つストーリーの
質問課題
この課題を物語⽣成タスクとして解く
タスク
物語⽣成:
1.⽣成したストーリーの整合性確認を通過できた割合
2.続けて⽣成したストーリーが⼀貫しているかを⼈⼿判断
システム2モデルの整合性確認によって最初に拒否された⽂
その後整合性確認を突破した⽂を⽐較
6 実験
CLUTRR[Sinha, 2019]を⽤いて物語⽣成タスクについて性能を調査
18
詳細
候補作成において以下のものを使⽤
- CLUTRRの汎化性能評価⽤のテストデータに含まれるテキスト(from dataset)
- CLUTRR学習コーパスでfine-tuningしたBARTによって⽣成されたテキスト(from model)
最⼩世界モデルは,Z3ソルバ[De Moura & Bjørner, 2008]を⽤いて,
論理関係および制約のセットとして実装。
⽐較対象
整合性確認
⽣成モデルのみ
⽣成モデル+システム2モデル(最⼩世界モデル)
⼈⼿評価
⽣成モデル+システム2モデル(最⼩世界モデル)
⽣成モデル+システム2モデル(NLIモデル)
6 実験
システム2モデルによれば,しばしば⽣成モデルは整合性がない
19
システム2モデルによる整合性確認
モデルから⽣成した(from model)条件下では,36.4%のストーリー*と71.9%の⽂しか
整合性確認を突破することができない。
しかし,93.5%のストーリーと96.3%の⽂が10サンプル以内に整合性確認を突破。
*1ストーリーは4行でサンプリング
6 実験
システム2モデルに最⼩世界モデルを⽤いた場合、論理的⼀貫性も向上
20
システム2モデルで修正した⽂の論理的⼀貫性の⼈⼿評価
システム2に最⼩世界モデルを⽤いた場合,
77%(from dataset)と79%(from model)の場合で
意味のある⽂としてシステム2に修正された⽂を選択。
⼀⽅,システム2にNLIモデルを⽤いた場合,
51%(from dataset)と58%(from model)の場合でしか
⽣成品質を改善したと評価されず。
7 議論
システム2としての最⼩世界モデルの利⽤は拡張性に問題がある
21
有⽤性
本⼿法は少数の論理的制約を明⽰的に設定できる領域では有⽤である。
その⼀⽅で、制約が明⽰的に困難な場合や制約が多い場合,
最⼩世界モデルを⼿作業で設計する必要があるため,そこまでの有⽤性は認められない。
展望
現在の最⼩世界モデルは簡単に修正できるが,⼿作業で変更を⾏う必要がある。
ニューロシンボル学習技術やのニューロシンボル統合作業の要素を取り⼊れ,
構造化された知識を⾃動的に学習し更新することで改善の⾒込みがある。
感想
22
モデルのパラメーターを増やさずに、ニューラルモデルと論理システムを組み合わせて
モデルの推論能⼒をあげるというのが共感できる。
⾃然⾔語推論を⽤いたフィルタリングが⼈⼿評価であまり効果的と判断されなかったのも興味深い。
ある程度のサンプリング回数までに候補⽣成に整合性のあるものが上がってくることが
前提になっている。結果としてFoundation modelには依存してしまう印象がある。
まとめ
23
• 近年のニューラル⾔語モデルの発展にも関わらず,
⾔語モデルは⼀貫した発話の⽣成にしばしば失敗する。
• そこで,認知科学の⼆重過程理論をもとにニューラルアプローチと
記号的アプローチのそれぞれの⻑所を組み合わせることで,
より効果的にドメイン知識を取り込むことができる⼆重過程モデルを提案
• ⾔語⽣成においては、ニューラル⽣成に最⼩限の世界モデルを
組み合わせることで,⽣成する⾔語の⼀貫性と整合性が向上することを⽰
す。
DEEP LEARNING JP
[DL Papers]
“Implicit Representations of Meaning in Neural Language
Models (ACL2021)”
Okimura Itsuki, Matsuo Lab, B4
http://deeplearning.jp/

Más contenido relacionado

La actualidad más candente

【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta...
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware  Panoptic Segmenta...【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware  Panoptic Segmenta...
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta...Deep Learning JP
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...Deep Learning JP
 
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...Deep Learning JP
 
【DL輪読会】Spectral Normalisation for Deep Reinforcement Learning: An Optimisatio...
【DL輪読会】Spectral Normalisation for Deep Reinforcement Learning: An Optimisatio...【DL輪読会】Spectral Normalisation for Deep Reinforcement Learning: An Optimisatio...
【DL輪読会】Spectral Normalisation for Deep Reinforcement Learning: An Optimisatio...Deep Learning JP
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Plot Hong
 
TalkingData AdTracking Fraud Detection Challenge (1st place solution)
TalkingData AdTracking  Fraud Detection Challenge (1st place solution)TalkingData AdTracking  Fraud Detection Challenge (1st place solution)
TalkingData AdTracking Fraud Detection Challenge (1st place solution)Takanori Hayashi
 
Grad-CAMの始まりのお話
Grad-CAMの始まりのお話Grad-CAMの始まりのお話
Grad-CAMの始まりのお話Shintaro Yoshida
 
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAKento Doi
 
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 西岡 賢一郎
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたいTakuji Tahara
 
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural imagesDeep Learning JP
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...Deep Learning JP
 
(DL輪読)Matching Networks for One Shot Learning
(DL輪読)Matching Networks for One Shot Learning(DL輪読)Matching Networks for One Shot Learning
(DL輪読)Matching Networks for One Shot LearningMasahiro Suzuki
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions Deep Learning JP
 

La actualidad más candente (20)

【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta...
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware  Panoptic Segmenta...【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware  Panoptic Segmenta...
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta...
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
 
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
 
【DL輪読会】Spectral Normalisation for Deep Reinforcement Learning: An Optimisatio...
【DL輪読会】Spectral Normalisation for Deep Reinforcement Learning: An Optimisatio...【DL輪読会】Spectral Normalisation for Deep Reinforcement Learning: An Optimisatio...
【DL輪読会】Spectral Normalisation for Deep Reinforcement Learning: An Optimisatio...
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
 
TalkingData AdTracking Fraud Detection Challenge (1st place solution)
TalkingData AdTracking  Fraud Detection Challenge (1st place solution)TalkingData AdTracking  Fraud Detection Challenge (1st place solution)
TalkingData AdTracking Fraud Detection Challenge (1st place solution)
 
Grad-CAMの始まりのお話
Grad-CAMの始まりのお話Grad-CAMの始まりのお話
Grad-CAMの始まりのお話
 
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNA
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
 
World model
World modelWorld model
World model
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
 
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
 
(DL輪読)Matching Networks for One Shot Learning
(DL輪読)Matching Networks for One Shot Learning(DL輪読)Matching Networks for One Shot Learning
(DL輪読)Matching Networks for One Shot Learning
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
 

Similar a [DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Dual-System, Neuro-Symbolic Reasoning"

DLゼミ20170522
DLゼミ20170522DLゼミ20170522
DLゼミ20170522harmonylab
 
Learning Process-Based Therapy_Chapter 2 (Book Club Japan).pdf
Learning Process-Based Therapy_Chapter 2 (Book Club Japan).pdfLearning Process-Based Therapy_Chapter 2 (Book Club Japan).pdf
Learning Process-Based Therapy_Chapter 2 (Book Club Japan).pdfJun Kashihara
 
Neuroscience inspired artificial intelligence
Neuroscience inspired artificial intelligenceNeuroscience inspired artificial intelligence
Neuroscience inspired artificial intelligenceYasunori Endo
 
Reasoning with neural tensor networks for knowledge base completion
Reasoning with neural tensor networks for knowledge base completionReasoning with neural tensor networks for knowledge base completion
Reasoning with neural tensor networks for knowledge base completionJunya Kamura
 
深層学習と自動診断
深層学習と自動診断深層学習と自動診断
深層学習と自動診断Daiki Shimada
 
帰納バイアスが成立する条件
帰納バイアスが成立する条件帰納バイアスが成立する条件
帰納バイアスが成立する条件Shinobu KINJO
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networksDeep Learning JP
 
Learning Process-Based Therapy_Chapter 3 (Book Club Japan).pdf
Learning Process-Based Therapy_Chapter 3 (Book Club Japan).pdfLearning Process-Based Therapy_Chapter 3 (Book Club Japan).pdf
Learning Process-Based Therapy_Chapter 3 (Book Club Japan).pdfJun Kashihara
 
A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoningA simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoningharmonylab
 
Rationalizing Medical Relation Prediction from Corpus-level Statistics
Rationalizing Medical Relation Prediction from Corpus-level StatisticsRationalizing Medical Relation Prediction from Corpus-level Statistics
Rationalizing Medical Relation Prediction from Corpus-level StatisticsSohOhara
 
[DL輪読会]Weight Agnostic Neural Networks
[DL輪読会]Weight Agnostic Neural Networks[DL輪読会]Weight Agnostic Neural Networks
[DL輪読会]Weight Agnostic Neural NetworksDeep Learning JP
 
【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...
【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...
【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...Deep Learning JP
 
[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNsDeep Learning JP
 
Evolving Deep Unsupervised Convolutional Networks for Vision-Based Reinforcem...
Evolving Deep Unsupervised Convolutional Networks for Vision-Based Reinforcem...Evolving Deep Unsupervised Convolutional Networks for Vision-Based Reinforcem...
Evolving Deep Unsupervised Convolutional Networks for Vision-Based Reinforcem...Shunta Nomura
 
IIBMP 2014 JSBi講習会 パーソナルゲノム時代のリテラシー教育 - 慶應SFCでの事例 -
IIBMP 2014 JSBi講習会 パーソナルゲノム時代のリテラシー教育 - 慶應SFCでの事例 -IIBMP 2014 JSBi講習会 パーソナルゲノム時代のリテラシー教育 - 慶應SFCでの事例 -
IIBMP 2014 JSBi講習会 パーソナルゲノム時代のリテラシー教育 - 慶應SFCでの事例 -Kazuharu Arakawa
 
Introduction of the_paper
Introduction of the_paperIntroduction of the_paper
Introduction of the_paperNaokiIto8
 
2021.1.28 understanding brain
2021.1.28 understanding brain2021.1.28 understanding brain
2021.1.28 understanding brainRyuichi Maruyama
 

Similar a [DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Dual-System, Neuro-Symbolic Reasoning" (20)

DLゼミ20170522
DLゼミ20170522DLゼミ20170522
DLゼミ20170522
 
Learning Process-Based Therapy_Chapter 2 (Book Club Japan).pdf
Learning Process-Based Therapy_Chapter 2 (Book Club Japan).pdfLearning Process-Based Therapy_Chapter 2 (Book Club Japan).pdf
Learning Process-Based Therapy_Chapter 2 (Book Club Japan).pdf
 
Sprint16
Sprint16Sprint16
Sprint16
 
Neuroscience inspired artificial intelligence
Neuroscience inspired artificial intelligenceNeuroscience inspired artificial intelligence
Neuroscience inspired artificial intelligence
 
Reasoning with neural tensor networks for knowledge base completion
Reasoning with neural tensor networks for knowledge base completionReasoning with neural tensor networks for knowledge base completion
Reasoning with neural tensor networks for knowledge base completion
 
深層学習と自動診断
深層学習と自動診断深層学習と自動診断
深層学習と自動診断
 
帰納バイアスが成立する条件
帰納バイアスが成立する条件帰納バイアスが成立する条件
帰納バイアスが成立する条件
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks
 
Learning Process-Based Therapy_Chapter 3 (Book Club Japan).pdf
Learning Process-Based Therapy_Chapter 3 (Book Club Japan).pdfLearning Process-Based Therapy_Chapter 3 (Book Club Japan).pdf
Learning Process-Based Therapy_Chapter 3 (Book Club Japan).pdf
 
A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoningA simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoning
 
Rationalizing Medical Relation Prediction from Corpus-level Statistics
Rationalizing Medical Relation Prediction from Corpus-level StatisticsRationalizing Medical Relation Prediction from Corpus-level Statistics
Rationalizing Medical Relation Prediction from Corpus-level Statistics
 
[DL輪読会]Weight Agnostic Neural Networks
[DL輪読会]Weight Agnostic Neural Networks[DL輪読会]Weight Agnostic Neural Networks
[DL輪読会]Weight Agnostic Neural Networks
 
【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...
【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...
【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...
 
[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs
 
Evolving Deep Unsupervised Convolutional Networks for Vision-Based Reinforcem...
Evolving Deep Unsupervised Convolutional Networks for Vision-Based Reinforcem...Evolving Deep Unsupervised Convolutional Networks for Vision-Based Reinforcem...
Evolving Deep Unsupervised Convolutional Networks for Vision-Based Reinforcem...
 
IIBMP 2014 JSBi講習会 パーソナルゲノム時代のリテラシー教育 - 慶應SFCでの事例 -
IIBMP 2014 JSBi講習会 パーソナルゲノム時代のリテラシー教育 - 慶應SFCでの事例 -IIBMP 2014 JSBi講習会 パーソナルゲノム時代のリテラシー教育 - 慶應SFCでの事例 -
IIBMP 2014 JSBi講習会 パーソナルゲノム時代のリテラシー教育 - 慶應SFCでの事例 -
 
Introduction of the_paper
Introduction of the_paperIntroduction of the_paper
Introduction of the_paper
 
2021.1.28 understanding brain
2021.1.28 understanding brain2021.1.28 understanding brain
2021.1.28 understanding brain
 
Dilated rnn
Dilated rnnDilated rnn
Dilated rnn
 

Más de Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...Deep Learning JP
 

Más de Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 

Último

知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 

Último (10)

知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 

[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Dual-System, Neuro-Symbolic Reasoning"