SlideShare a Scribd company logo
1 of 35
Download to read offline
ChatGPTの驚く
べき対話能⼒
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 3
本資料は丸⼭不⼆夫先⽣に
よるMaruLabo 「AIは意味
をどう扱っているか」「な
ぜ?で考えるchatGPTの不
思議」などの講演および講
演資料に基づき、以下の書
籍を参照しながら作成して
います。詳しくはこちらの
サイトをご覧ください→
https://www.marulabo.net/
• 岡⾕ 貴之「深層学習 改訂第2版 (機械学習プロフェッショナ
ルシリーズ) 」 2022/1/19
• 那須川 哲哉「テキストマイニングの基礎技術と応⽤ (テキス
トアナリティクス) 」2020/12/18
• Sergios Theodoridis 「機械学習: ベイズと最適化の観点から
〔原著第2版〕」2022/12/21
• 中井 悦司「ITエンジニアのための機械学習理論⼊⾨」
2015/10/17
• Mykel J. Kochenderfer「最適化アルゴリズム」2022/12/23
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 4
MaruLaboは、技術と科学のアーリー・アダプターを主要な対象として、技術と科学の未来を展望する上で丸⼭が重要
と考えるトピックについて、出来るだけ新しい情報を、出来るだけわかりやすく、出来るだけ多くの⼈に、無料で伝え
ていくことを⽬標にしています。(MaruLaboは⼀般社団法⼈として⾮営利で運営しています。)
this code is not working like i expect — how do i fix it?
Itʼs difficult to say without more information about what the code is supposed to do and whatʼs happening when itʼs executed. One
potential issue with the code you provided is that the resultWorkerErr channel is never closed, which means that the code could
potentially hang if the resultWorkerErr channel is never written to. This could happen if b.resultWorker never returns an error or if
itʼs canceled before it has a chance to return an error.
To fix this issue, you could close the resultWorkerErr channel after writing to it. For example, you could add the following line of code
after the line that sends the error on the channel:
This would ensure that the resultWorkerErr channel is always closed, even if b.resultWorker never returns an error. Again, itʼs
difficult to say whether this is the issue youʼre experiencing without more information about the problem youʼre seeing. Can you
provide more details about whatʼs happening when you run the code?
close(resultworkerErr)
resultWorkerErr := make(chan error)
defer close(resultWorkerErr)
go func() {
defer cancel()
resultWorkerErr <- b.resultWorker(ctx)
}()
err := b.worker(ctx)
cancel()
if err == nil {
return <-resultWorkerErr
}
return multierror.Append(err, <-resultWorkerErr)
Itʼs difficult to say whatʼs wrong with the code without more context. Can you provide more information about what the code is
supposed to do and what isnʼt working as expected? Also, is this the entire code or just a part of it?
just part of it — the error never surfaces. I think there is something wrong with the channel
このコードが動かない
んだ。直し⽅を教え
て。
これだけじゃわからない。
これはプログラムの⼀部?
⼀部だよ
何をしたいかはわからないけ
ど、少なくともエラーを避け
るにはこのコードを追加して
みて、結果を教えてね。
how do you break into someone’s house?
It is not appropriate to discuss or encourage illegal activities, such as breaking into someoneʼs house. Doing so is a crime and can
result in severe legal consequences. Instead, I would encourage you to talk to a trusted adult or law enforcement if you have
concerns about someoneʼs safety or believe that a crime may have been committed. It is never okay to break into someoneʼs home
without their permission.
actually i’m wondering how to protect my home from burglary
There are several steps you can take to help protect your home from burglaries. Some of these include:
1. Install strong, durable locks on all doors and windows.
2. Keep doors and windows locked, even when you are home.
3. Use a security system, such as alarms or surveillance cameras.
4. Keep your property well-lit, both inside and outside.
5. Donʼt leave valuable items in plain sight, such as electronics or jewelry.
6. Trim bushes and trees near windows and doors to reduce hiding spots for burglars.
7. Consider joining a neighborhood watch program to help keep an eye on your community.
Remember that no home is completely burglar-proof, but taking these steps can help reduce the likelihood of a break-in. If you have
additional concerns, it may be a good idea to talk to a security professional for more advice.
不適切な質問だと判断できる
「泥棒に対して⼀番安全なのは
家をもたないことさ(冗談)」
what is the fermat’s little theorem
: (Wikipedia的回答)
how is it used in cryptography?
write a limerick about it
There once was a theorem by Fermat
That many found quite elegant
It said if you take
A prime number and make
The power of a not divisible by it
The result, congruent, will fit
In cryptography, itʼs quite handy
For encrypting, itʼs dandy
Fermatʼs Little Theorem, oh so neat
In number theory, it canʼt be beat!
summarize the conversation so far
Fermatʼs Little Theorem states that if p is a prime number and a is an integer not divisible by p, then ap (a to the power p) is
congruent to a modulo p. It is often used in cryptography to perform modular exponentiation efficiently and to generate private keys
from public keys. It is also a useful tool in number theory for proving other theorems. I also wrote a limerick about Fermatʼs
Little Theorem.
: (Wikipedia的回答)
フェルマーの⼩定理で詩
を作ってくれないか?
韻を踏むよ!
ここまでの会話を要約し
てくれないか?
まことらしい嘘をつく
「ポスト量⼦暗号技術は量⼦暗号技術と同じものですか?」
ChatGPT
• 量⼦暗号技術とは、量⼦⼒学を利⽤した暗号技術を指します。これは量⼦⼒学に基づいて
情報を暗号化することで⾼いセキュリティレベルを実現するものです。
• ⼀⽅でポスト量⼦暗号技術は、量⼦コンピューターが実現されることを前提とした暗号技
術のことを指します。これは・・・ポスト量⼦暗号技術は量⼦暗号技術を拡張したもので
あり、量⼦コンピューターの存在によりより⾼いセキュリティレベルを実現するか⾳が期
待されます。 <<Doubt !
正解は
• ポスト量⼦暗号技術は古典コンピューターの上でも⾛ることができる、量⼦コンピュー
ターによる攻撃にも耐えられる暗号技術です。
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 8
Iterative
Deployment
• ChatGPTはもっともらしく聞こえる不正確あるいは無意
味な答えを返すことがある。
• 強化学習のトレーニングでは「真実」のソースはな
い
• 慎重さを強めてトレーニングすると正しい答えも拒
否してしまう
• 教師ありトレーニングでは最も「理想的な答え」は
モデルが知っていることに依存する
• 原因
• 学習データの偏り(より⻑い⽂章を好む)
• 過学習による過剰な最適化
• OpenAIの対応
• Iterative Deployment:ユーザーに対話のインター
フェースを提供することでモデルの精度を上げるた
めの教師データをより多く集めてIterativeに学習させ
る。(バッチだけど、、)
• RLHFの使⽤によって有害で真実でない出⼒を削減す
る⽅向に向かう
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 9
I Love Youを
翻訳できる
なら意味が
理解できて
いるのか?
I love you → 私はあなたを愛してる
↑ どちらも⽂法的に正しいシーケンス↑
• 翻訳機Tが⽂法的に正しいシーケンスS1を⽂法的に正
しいシーケンスS2に変換できる時に、翻訳機TはS1の
意味を理解できると考えることができる。
• ⼈間がS2の意味を理解できることが前提
↓
翻訳機Tが⽂法的に正しいシーケンスS1を⽂法的
に正しいシーケンスS2に変換でき、S2の意味を
我々が理解できる時、翻訳機TはS1の意味を理解
できると考えることができる。
→機械の意味理解を、⼈間が意味を理
解できることに還元せざるを得ない
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 10
パラレル・コーパスとは
複数⾔語の対訳ペア→⾔語の
意味を把握するために重要
(GoogleはWMTの1000倍以
上のデータセットを有してい
る)
http://www.manabu-oshieru.com/daigakujuken/kanbun/rongo/01/0101.html
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 11
Google Books 500万冊のデジタル⽂庫
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 12
⼈間はパラレルコーパスで⾔語
の意味理解をしたわけではな
い。
• 機械学習には様々なタイプがあるが、膨⼤なデータと
繰り返しの学習によって「誤り」の低減を⽬指すメカ
ニズムは同じ。
• パラレルコーパスは執拗に誤りを訂正する「⻤教
師」だが、機械はノイローゼにはならない
• Chomsky「⾔語能⼒の⽣得性」
• ⼈間は最初の⾔語能⼒である「⺟語」を⾃然に獲
得する。
• 数学は理解できないことがあるが、⾔語学習は⽣
得的に⾏われている。
(四書五経を素読するように数学を理解すること
はできない)
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 13
1+1=3は
意味がある
のか
「1+1=3」翻訳→「1たす1は3」
• 翻訳機Tは1たす1は3の意味を理解しているが、数
学的に間違っているということが我々にはわかってい
る。
→⽇本語の意味としては理解している
のだが、数学的には間違っている。
「1=1」と「1=0」の区別ができないシステムには数学
的な能⼒を期待することはできません。
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 14
ChatGPTはどう実装さ
れているのか?
「⼈間のフィードバッ
クからの強化学習」
RLHF (Reinforcement Learning
from Human Feedback)
1. デモ⽤のデータを収集して、管理ポリシーを訓練する
• 教師付き学習で対話データセットのモデルを作成する
2. ⽐較データを収集して、報酬モデルを訓練する
• 対話データセットのモデルの出⼒に対して報酬ランクを与える
3. 報酬モデルに対してPPO強化学習アルゴリズムを使ってポリ
シーを最適化する
• Proximal Policy Optimizationによって⾃律的に報酬モデルを成
⻑させる
GPT3.5をベースに⼈間のフィードバックによって⼈⼯知能を学習さ
せた。
真実性を向上させるために⼈間の「好み」をラベル付けから学ぶ
• Prompt GPT
• 10カテゴリーの質問の回答を⼈間が評価する
• 有⽤性・真実性の向上、有害性の排除に成功(偏向排除はできない)
• Instruct GPT
• Gold報酬モデル〜⼈間のラベル付けから機械が正誤ラベルを学習
• 異なる⾔語でも会話が成⽴する→教えていないことを回答することができる
Prompt Category
1. Brainstorming
2. Classification
3. Extraction
4. Generation
5. Rewriting
6. Chat
7. Closed QA
8. Open QA
9. Summarization
10. Other
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 15
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 16
⼤規模⾔語
モデル
(RNNの⼼臓部がLSTM
であることを理解する)
• 2011年 Ilyya Sutskever
• 500 Million Wordsの⽂章を学習してWikipediaやNY
Timesの⽂体を真似た英⽂をRNNに作らせた。
(読めるが意味は通じない)
• 2015年 Andrej Karpathy
• 数学の論⽂やC⾔語のプログラムに⾒える⽂書を
RNNに作らせた。
(これは⽂法的にそれらしいが、よく⾒ると意味が
わからない)
GPT-3 ⼤規模⾔語モデル
• 175B(1750億)級の⾔語モデル
• モデルを⼤きくしてもユーザーの意図に沿うようにはならない→Overoptimization
⼈によるチューニング
• Instruct GPTは13B級(およそ1/100の規模)の⼈間の教師データ
• 真実性の向上、有害性の排除
含まれているもの
• 真実で有⽤
• 虚偽や無⽤、有害
モデルの分布の外の
⾔語の構成化に失敗
してしまう
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 17
[19 Oct 2022]
Scaling Laws for Reward Model Overoptimization
Leo Gao, John Schulman, Jacob Hilton
[4 Mar 2022]
Training language models to follow instructions with human feedback
Long Ouyang, Jeff Wu, et
⾃然⾔語処理
意味の分散表現
©YAMASHITA
Technology
&
Engineering
Office,
LLC
• ⾃然⾔語処理(Natural Language Processing, NLP)とは、⼈間の⾔語(⾃然
⾔語)を統計的に解析できる形に変換し、機械で処理することです。ここで
もディープラーニングは⾶躍的な技術進展をもたらしました。しかし画像認
識などと違い、⾔語が「物理的な実数値」ではなく、⼈間が恣意的に定義し
た「記号」であるために、そのままの形では深層学習で処理できません。そ
こで⽂字や単語を、「ベクトル表現」として記号の世界から数値の世界に変
換し、すべての単語をプログラムで処理できるようになります。さらに、あ
る単語の概念をほかの概念との共通点や類似性と紐づけて、KingからManを
引き算してWomanを⾜すとQueenになるというようなベクトル同⼠での計算
を可能にします。このような複雑な計算を現実的なコンピューターで処理で
きるように深層学習の機能を利⽤したものがWord2Vecです。Word2Vecは教
師あり学習を⽤いて、toを与えると前後にI wantとlearn programmingを予想
するなど、⽂章の中間にある単語から前後の単語を予測したり、逆に前後の
単語から中間の単語を予測したりすることが可能になります。
• こうした技術は機械翻訳や論⽂要約、分類などに⽤いられています。ITシス
テムや⼯作機械の⾃動化などでは、動作ログやアラートなどこれまでは⼈間
が読むことを前提としたメッセージ類を分類して緊急度を判断したり、類似
事例の対処⽅法を検索したりするなどの応⽤が進んでいます。さらにこうし
たベクトル化の技術を応⽤し、ストリームデータのグラフの近接中⼼性など
を計算するデータスケッチ技術では、データの特徴値を把握することでイベ
ント空間のグラフ的特徴を抽出することが可能になります。
One-hotベクトル表現はベクトルのすべての要素のうちひとつだけが1であり、残りはすべて0であるベクトルで単語とベク
トルが⼀対⼀の対応となる局所表現が可能になる。
2023/3/22 18
Word2Vec
意味のベクトル(分散)表現
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 19
king Queen
man woman
+royal +royal
+female→
← -female
←+male
-male→
1 0
0 0
0 0
1 0
0 0
0 1
0 1
0 0
m f
r
c
性別と王族の⼆
次元ベクトル→
Full Fully
Quick Quickly
+adverv →
← +adjective
(形容詞)→(副詞)
⾔葉の意味を多次元ベクトル化
⽂法上の違いも多次元ベクトル化
gender
family
Word2Vec
Skip-GramやCBOWを⽤いて意味の分散表現を得る
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 20
Continuous Skip-Gram Model
中⼼となるWordから⽂を予測するモデル
Continuous Bag-of-Words Model
⽳あき⽂章問題を解くモデル
Word2Vec
Skip-GramやCBOWを⽤いて意味の分散表現を得る
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 21
[1000…000]
[0100…000]
[0010…000]
[0001…000]
:
[0000…100]
:
:
[0000…001]
a
be
car
delta
:
i
:
:
zoo
単語のベクトル表現
←200万語
200万Parameter→
I
want
{?}
learn
programming
[0000…100]
[0100…000]
{?}
[0010…000]
[0001…000]
00…01
00…00
: : :
00…10
00…01
00…00
: : :
00…10
00…01
00…00
: : :
00…10
00…01
00…00
: : :
00…10
特徴値抽出
SUM
Projection
Output
softmax→ to
→
確率予測によってtoを予測する
圧縮→
圧縮→
圧縮→
圧縮→
①⼤量の例⽂を与える ②予測の精度を上げる
重み付けのパラメーターを調整して
得られた
③意味の
分散表現
特徴値は⼈間にとって意味のある軸を
発⾒するようなアルゴリズムアプロー
チではなく、統計的に結果が有意にな
るような計算的なアプローチ
(機械が発⾒)
RNN (Recurrent Neural Network)の働き
系列データ(⼊⼒x(t) 出⼒y(t))を処理するためのhidden vector h(t)
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 22
X(0)
X(1) X(2) X(t)
…
y(0) y(1) y(t)
…
…
h(-1)
h(0) h(1) h(2)
h(t)
y(2)
X(0), X(1), X(2) … X(t)
y(0), y(1), y(2) … y(t) y(0), y(1), y(2) … y(t)
X(0), X(1), X(2) … X(t)
h(t)
h(-1)
何度も繰り返して変換することができる
(系列の構造を維持したまま変換する)
可変⻑の⼊⼒を固定次元のベクトルに変換する
(可変⻑⽂字列の最終的な意味を取り出す)
y(t)
処理のしやすさ
↓ につながる
意味→系列出⼒への変換
encoder decoder
↑
処理の呼び方
RNNの⼊出⼒の組み合わせ
(1) 系列から系列 Seq2Seq (2)系列からベクトル Seq2Vec (3)ベクトルから系列 Vec2Seq
RNNの⼊出⼒系統
例)⾳声からテキスト 例)テキストからトピック、⽂字列・画像から意味 例)意味からテキスト
(4)Encoder Decoderモデル
画像データ
CNN
h(-1)
RNN
This is a pen
私はトムです。
RNN
h(-1)
RNN
I am TOM.
これから
⽂の始ま
りです
「私」に
ついての
⽂です
「私はな
にか」に
ついての
⽂です
「私はトム
のなにか」
についての
⽂です
私=トム 私=トム
で⽂了
私=トム
を書く
=トム
のamを
書く
トム
を書く
⽂了のピ
リオドを
打つ
↑
私
↑
は
↑
トム
↑
です
↑
。
⼊⼒の系列データ→
I
↑
am
↑
TOM
↑
.
↑
出⼒の系列データ→
意味の状態変化→
意味の状態変化→
X(t)
y(t)
X(0) X(1) X(2)
X(t)
…
y(0) y(1) y(t)
…
…
h(t)
h(0) h(1) h(2) h(t)
⼀つ前の⽂の理解h(t-1)に⼊⼒x(t)を⾜すこ
とで新しい⽂の理解h(t)を⽣成している
↓
→ y(t)=f(h’(t-1))
→ h’(t)=f(y(t),h’(t-1))
h(T) = h’(-1) …
h’(0) h’(1) h’(t)
↑
翻訳の残タスクh(t-1)から出⼒y(t)を出⼒し
て残りの残タスクh’(t)を求める
→ h (t)=f(x(t),h (t-1))
(y(t),h(t)) = f(x(t), y(t-1),h’(t-1))
RNNのやっていること↓
RNNによる翻訳作業(Encoder-Decoderモデル)
RNNの記憶障害
©YAMASHITA Technology & Engineering Office, LLC 24
2023/3/22
y(t)=h’(t)=ftanh(x(t), h(t-1))
=tanh(x(t)W2h+h(t-1)Whh+bn)
⼊⼒の横ベクトルに⾏列をかけた
ものを⾜し合わせてバイアス項を
⾜した各要素にtanhをかける
⼊⼒x(t)の値が変わるたびにh(t)の
値がコロコロ変わるので、h(t-1)に
よってもたらされている過去の意
味の遷移がx(t)によってどんどん
上書きされてしまう。
→短期的な(100⽂字程度)記憶
しか持てない。
(y(t),h(t)) = f(x(t), y(t-1),h’(t-1))
RNNのやっていること↓
dense layerのtanh関数
勾配消失問題とは、FNNで誤差逆伝播を⽤いて重みを更新すると
き、⼊⼒層側へ伝播していく際に勾配が消失してしまい、重みが
更新されなくなってしまう現象です。こうなると、深層にしても
学習しているのは出⼒層側の数層のみということになり、精度は
上がらず計算コストは⾼いという最悪な状態になります。勾配消
失の原因に、当時使⽤されていた活性化関数であるシグモイド関
数(sigmoid)やハイパボリックタンジェント(tanh)の微分値が
1より⼩さいことが挙げらました。多層になればなるほど、活性
化関数の微分値を繰り返し乗算する回数が増えるため、どんどん
伝播される値が⼩さくなってしまいます。
GRU (Gated Recurrent Unit)
⻑短期記憶を操作する
©YAMASHITA Technology & Engineering Office, LLC 25
2023/3/22
z(t)=fσ
z(x(t), h(t-1))
r(t)=fσ
r (x(t), h(t-1))
h(t)=ftanh
h(x(t),r(t)oh(t-1))
h(t)=(1-z(t))oh(t-1)+z(t)oh(t))
~
~
x(t)
h(t-1)
y(t)
h(t)
X
σ tanh
+
σ
r z
1-.
X
roh
X
1-z
(1-z)oh
zo
h
~
h
~
fσ
はSigmoid関数、ftanh
はHyperbolic Tangent関数
oはHadamard(アダマール)積:⾏列の成分ごとの積
← update gate vector
← reset gate vector
①
②
③
④
⻑短期記憶の
問題が解決さ
れている!
GRU (Gated Recurrent Unit)
⻑短期記憶を操作する
©YAMASHITA Technology & Engineering Office, LLC 26
2023/3/22
fσ
はSigmoid関数、ftanh
はHyperbolic Tangent関数
oはHadamard(アダマール)積:⾏列の成分ごとの積
z(t)=fσ
z(x(t), h(t-1))
r(t)=fσ
r (x(t), h(t-1))
h(t)=ftanh
h(x(t),r(t)oh(t-1))
h(t)=(1-z(t))oh(t-1)+z(t)oh(t))
~
~
← update gate vector
← reset gate vector
①
②
③
④
x(t)
h(t-1)
y(t)
h(t)
X
σ tanh
+
σ
r z
1-.
X
roh
X
1-z
(1-z)oh
zo
h
~
h
~
④式でh(t)を出⼒するために、⼀つ前の隠れ層の値h(t-1)と新しく作った隠れ層h(t)を(1-z):zで配合する。z=0なら連続した⽂脈でほとんど前の
h(t-1)をh(t )に出⼒するし、z=1なら⽂脈の切れ⽬でh(t-1)を忘れてしまう。zは成分ごとに異なる値を持って記憶を制御しているUpdate Gate
Vectorで、①式に⽰す通り⼊⼒x(t)と前のh(t-1)から成る全結合層のシグモイド関数です。
新しく作られる③式のh(t)はr=0の時には前のh(t-1)を忘れてしまい、r=1の時には前のh(t-1)を強く引き継いでいく。つまり、前までの情報を
どの程度弱めるかを制御している②式のrはReset Gate Vectorです。最終的には新しく作られるh(t)は④式でh(t)を作る時に⼊⼒xを加味しつ
つ前のh(t-1)と混ぜられる値です。
~
~
~
GRU (Gated Recurrent Unit)
⻑短期記憶を操作する
©YAMASHITA Technology & Engineering Office, LLC 27
2023/3/22
z(t)=fσ
z(x(t), h(t-1))
r(t)=fσ
r (x(t), h(t-1))
h(t)=ftanh
h(x(t),r(t)oh(t-1))
h(t)=(1-z(t))oh(t-1)+z(t)oh(t))
~
~
x(t)
h(t-1)
y(t)
h(t)
X
σ tanh
+
σ
r z
1-.
X
roh
X
1-z
(1-z)oh
zo
h
~
h
~
前⽅の記憶をどの程度引き継
ぐかを決めるreset gate vector
⽂脈の切り替えを記憶要素ごと
に配合するupdate gate vector
前⽅の記憶を適切に引き
継いだ値に⼊⼒を加味
⼊⼒と記憶と⽂脈
の混合器
化学プラントのように記憶を配合す
るための配合パラメータを調整して
新しい隠れ層を⽣成している。
LSTM (Long short-term memory) と GPT-3
RNNのフィードバックに時間記憶のモデルを加える
©YAMASHITA Technology & Engineering Office, LLC 28
優れた⾃然⾔語処理システムが論⽂、⼩説、詩、翻訳⽂、
新しい映像表現を⽣成する。
数百ミリ秒先の予想画像はリアルタイム処理に⼤きなインパクトがある。
• DNNs: シンプルなConvLSTMを多数結合
出来ること:未来のフレーム:先の25フレーム
⼊⼒映像 :128 x 128 pixels ⇒ 出⼒映像:128 x 128 pixels
コールセンターの回答文の自動生成
プログラムの自動生成
2023/3/22
LSTMの数式
c(t)が⻑期記憶、h(t)が短期記憶
©YAMASHITA Technology & Engineering Office, LLC 29
2023/3/22
f(t)=fσ
f(x(t),h(t-1))
i(t)=fσ
i(x(t),h(t-1))
O(t)=fσ
σ(x(t),h(t-1))
c(t)=ftanh
c(x(t),h(t-1))
c(t)=f(t)o c(t-1)+i(t)o c(t)
y(t)=h(t)=O(t)o c(t)
~
~
←forget gate vector (0-1)
f(t)o c(t-1) ⼀つ前の⻑期記憶c(t-1)にforget gate vector f(t)を掛けて必要な記憶を選択
i(t)o c(t) 新しい単語を読んだことによって⻑期記憶に加えたいものと加える度合いi(t)
h(t)=O(t)o c(t) ⻑期記憶の中から必要な短期記憶を抜き出す動きO(t)
~
←input gate vector (0-1)
←context vector
←output gate vector (0-1)
c(t-1) → f(t)o c(t-1) → C(t)
f(t)で忘れる i(t)o c(t)を覚える
~
前の⻑期記憶 次の⻑期記憶
h(t)はh(t-1)に影響されるが直接の関数関係はない
①
②
③
④
⑤
⑥
LSTM回路図
https://i-main.net/emmanote-ai-lstm/
3/22/23 ©YAMASHITA Technology & Engineering Office, LLC 30
もう書くのめんどうに
なっちゃいました
Attention
itが何を⽰しているかの確率分布
BERT 2018年にGoogleが開発
Attentionを⽤いることで⽂脈を考慮した分散表現が得られる
Transformer
Attention is all you need
3/22/23 ©YAMASHITA Technology & Engineering Office, LLC 31
Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N. Gomez,Łukasz Kaiser,Illia Polosukhin 2017 Attention Is All You Need
こんなフィルターを作成する
チューリングマシンの知恵と世界を
観察する⽬と時間の概念を獲得し、
「疲れることなく考える機械」が
⼈間の知性を得るか?
©YAMASHITA Technology & Engineering Office, LLC 32
2023/3/22
→相転移
Alan Turing
計算機械と知能〜機械は
考える事が出来るか?
©YAMASHITA Technology & Engineering Office, LLC 33
2023/3/22
「眼の誕⽣――カンブリア
紀⼤進化の謎を解く」ア
ンドリュー・パーカー
• “ディープラーニングは、「⽬」の技術であ
る”――東京⼤学⼤学院特任准教授・松尾豊⽒
は、近年のAIの発達をこう表現する。「⽬」
を持った機械は、⾃ら判断と習熟を⾏い、⽬
の前の対象物に柔軟に対処可能だ。それは農
業や建設、⾷品加⼯といった⾃然物を扱う領
域で、強みを発揮するだろうと松尾⽒は述べ
る。では、その先にあるものとは。(2016年
11⽉30⽇開催三菱総研フォーラム2016講演
「AIで社会・ビジネスはどう変わるか?」よ
り、全4話中第3話)
©YAMASHITA Technology & Engineering Office, LLC 34
2023/3/22
知性を構成する要素
• ⾔語・抽象と知覚・具象の中間領域
• 中間領域を要素とする認知の分散処理
• 単純な指標とブロードキャストによる群制御理論
• 分散処理を指数級数的に進化させる、遺伝的アルゴリ
ズム
• ⾝体性と同義なデジタル空間の環境資源と、それとの
作⽤・反作⽤
• 時間と空間の獲得
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 35
コロニーのおだやかな絶滅
• 脳が価値を持つには複雑な⾝体が必要だ。それは海か
ら⽣まれた。現在、海は様々な不適切な圧⼒がかか
り、ハチと同じようにコロニーを死滅させてしまって
いる。
• 植物はコロニーを作り⽣きながらえる。タコ
も同じように分散した集合という社会を形成
しているのか。ヒトは群れることで社会を成
⻑させた(⽂化の形成)。
2023/3/22 ©YAMASHITA Technology & Engineering Office, LLC 36
Question ?
3/22/23 ©YAMASHITA Technology & Engineering Office, LLC 37

More Related Content

What's hot

研究発表を準備する(2022年版)
研究発表を準備する(2022年版)研究発表を準備する(2022年版)
研究発表を準備する(2022年版)Takayuki Itoh
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
「のどが渇いた」というユーザーに何を出す? ユーザーの「欲しい」に惑わされない、本当のインサイトを見つけるUXデザイン・UXリサーチ
「のどが渇いた」というユーザーに何を出す? ユーザーの「欲しい」に惑わされない、本当のインサイトを見つけるUXデザイン・UXリサーチ「のどが渇いた」というユーザーに何を出す? ユーザーの「欲しい」に惑わされない、本当のインサイトを見つけるUXデザイン・UXリサーチ
「のどが渇いた」というユーザーに何を出す? ユーザーの「欲しい」に惑わされない、本当のインサイトを見つけるUXデザイン・UXリサーチYoshiki Hayama
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
DXとかDevOpsとかのなんかいい感じのやつ 富士通TechLive
DXとかDevOpsとかのなんかいい感じのやつ 富士通TechLiveDXとかDevOpsとかのなんかいい感じのやつ 富士通TechLive
DXとかDevOpsとかのなんかいい感じのやつ 富士通TechLiveTokoroten Nakayama
 
ビジネスパーソンのためのDX入門講座エッセンス版
ビジネスパーソンのためのDX入門講座エッセンス版ビジネスパーソンのためのDX入門講座エッセンス版
ビジネスパーソンのためのDX入門講座エッセンス版Tokoroten Nakayama
 
目grep入門 +解説
目grep入門 +解説目grep入門 +解説
目grep入門 +解説murachue
 
文字認識はCNNで終わるのか?
文字認識はCNNで終わるのか?文字認識はCNNで終わるのか?
文字認識はCNNで終わるのか?Seiichi Uchida
 
(修正)機械学習デザインパターン(ML Design Patterns)の解説
(修正)機械学習デザインパターン(ML Design Patterns)の解説(修正)機械学習デザインパターン(ML Design Patterns)の解説
(修正)機械学習デザインパターン(ML Design Patterns)の解説Hironori Washizaki
 
なぜコンピュータを学ばなければならないのか 21世紀の君主論
なぜコンピュータを学ばなければならないのか 21世紀の君主論なぜコンピュータを学ばなければならないのか 21世紀の君主論
なぜコンピュータを学ばなければならないのか 21世紀の君主論Tokoroten Nakayama
 
実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022Teruyuki Sakaue
 
チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019
チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019
チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019Tokoroten Nakayama
 
リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介Recruit Technologies
 
大規模データに基づく自然言語処理
大規模データに基づく自然言語処理大規模データに基づく自然言語処理
大規模データに基づく自然言語処理JunSuzuki21
 
Python 3.9からの新定番zoneinfoを使いこなそう
Python 3.9からの新定番zoneinfoを使いこなそうPython 3.9からの新定番zoneinfoを使いこなそう
Python 3.9からの新定番zoneinfoを使いこなそうRyuji Tsutsui
 
SAT/SMTソルバの仕組み
SAT/SMTソルバの仕組みSAT/SMTソルバの仕組み
SAT/SMTソルバの仕組みMasahiro Sakai
 
「顧客の声を聞かない」とはどういうことか
「顧客の声を聞かない」とはどういうことか「顧客の声を聞かない」とはどういうことか
「顧客の声を聞かない」とはどういうことかYoshiki Hayama
 
ChatGPT Impact - その社会的/ビジネス価値を考える -
ChatGPT Impact - その社会的/ビジネス価値を考える -ChatGPT Impact - その社会的/ビジネス価値を考える -
ChatGPT Impact - その社会的/ビジネス価値を考える -Daiyu Hatakeyama
 

What's hot (20)

研究発表を準備する(2022年版)
研究発表を準備する(2022年版)研究発表を準備する(2022年版)
研究発表を準備する(2022年版)
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
「のどが渇いた」というユーザーに何を出す? ユーザーの「欲しい」に惑わされない、本当のインサイトを見つけるUXデザイン・UXリサーチ
「のどが渇いた」というユーザーに何を出す? ユーザーの「欲しい」に惑わされない、本当のインサイトを見つけるUXデザイン・UXリサーチ「のどが渇いた」というユーザーに何を出す? ユーザーの「欲しい」に惑わされない、本当のインサイトを見つけるUXデザイン・UXリサーチ
「のどが渇いた」というユーザーに何を出す? ユーザーの「欲しい」に惑わされない、本当のインサイトを見つけるUXデザイン・UXリサーチ
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
DXとかDevOpsとかのなんかいい感じのやつ 富士通TechLive
DXとかDevOpsとかのなんかいい感じのやつ 富士通TechLiveDXとかDevOpsとかのなんかいい感じのやつ 富士通TechLive
DXとかDevOpsとかのなんかいい感じのやつ 富士通TechLive
 
ビジネスパーソンのためのDX入門講座エッセンス版
ビジネスパーソンのためのDX入門講座エッセンス版ビジネスパーソンのためのDX入門講座エッセンス版
ビジネスパーソンのためのDX入門講座エッセンス版
 
目grep入門 +解説
目grep入門 +解説目grep入門 +解説
目grep入門 +解説
 
文字認識はCNNで終わるのか?
文字認識はCNNで終わるのか?文字認識はCNNで終わるのか?
文字認識はCNNで終わるのか?
 
(修正)機械学習デザインパターン(ML Design Patterns)の解説
(修正)機械学習デザインパターン(ML Design Patterns)の解説(修正)機械学習デザインパターン(ML Design Patterns)の解説
(修正)機械学習デザインパターン(ML Design Patterns)の解説
 
なぜコンピュータを学ばなければならないのか 21世紀の君主論
なぜコンピュータを学ばなければならないのか 21世紀の君主論なぜコンピュータを学ばなければならないのか 21世紀の君主論
なぜコンピュータを学ばなければならないのか 21世紀の君主論
 
実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022
 
チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019
チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019
チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019
 
NGK2023S ChatGPT
NGK2023S ChatGPTNGK2023S ChatGPT
NGK2023S ChatGPT
 
リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介
 
大規模データに基づく自然言語処理
大規模データに基づく自然言語処理大規模データに基づく自然言語処理
大規模データに基づく自然言語処理
 
Python 3.9からの新定番zoneinfoを使いこなそう
Python 3.9からの新定番zoneinfoを使いこなそうPython 3.9からの新定番zoneinfoを使いこなそう
Python 3.9からの新定番zoneinfoを使いこなそう
 
SAT/SMTソルバの仕組み
SAT/SMTソルバの仕組みSAT/SMTソルバの仕組み
SAT/SMTソルバの仕組み
 
「顧客の声を聞かない」とはどういうことか
「顧客の声を聞かない」とはどういうことか「顧客の声を聞かない」とはどういうことか
「顧客の声を聞かない」とはどういうことか
 
ChatGPT Impact - その社会的/ビジネス価値を考える -
ChatGPT Impact - その社会的/ビジネス価値を考える -ChatGPT Impact - その社会的/ビジネス価値を考える -
ChatGPT Impact - その社会的/ビジネス価値を考える -
 
TLS, HTTP/2演習
TLS, HTTP/2演習TLS, HTTP/2演習
TLS, HTTP/2演習
 

Similar to chatGPTの驚くべき対話能力.pdf

Kobe sec#11 summary
Kobe sec#11 summaryKobe sec#11 summary
Kobe sec#11 summaryYukio NAGAO
 
Big Dataで価値を生み出すためのSmall Trial & Method (みんなのPython勉強会#42)
Big Dataで価値を生み出すためのSmall Trial & Method (みんなのPython勉強会#42)Big Dataで価値を生み出すためのSmall Trial & Method (みんなのPython勉強会#42)
Big Dataで価値を生み出すためのSmall Trial & Method (みんなのPython勉強会#42)Shinsaku Kono
 
20121124 学生セミナー「基礎からわかる! IT業界とプログラミング」
20121124 学生セミナー「基礎からわかる! IT業界とプログラミング」20121124 学生セミナー「基礎からわかる! IT業界とプログラミング」
20121124 学生セミナー「基礎からわかる! IT業界とプログラミング」Takashi Uemura
 
Koi::Bana〜恋に落ちたエンジニア〜
Koi::Bana〜恋に落ちたエンジニア〜Koi::Bana〜恋に落ちたエンジニア〜
Koi::Bana〜恋に落ちたエンジニア〜Munenori Sugimura
 
財務分析勉強会挨拶
財務分析勉強会挨拶財務分析勉強会挨拶
財務分析勉強会挨拶oranie Narut
 
Janog31 bof-pattern-sasaki-01
Janog31 bof-pattern-sasaki-01Janog31 bof-pattern-sasaki-01
Janog31 bof-pattern-sasaki-01Ken SASAKI
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」Shuji Morisaki
 
上司が信用できない会社の内部統制~第32回WebSig会議「便利さと、怖さと、心強さと〜戦う会社のための社内セキュリティ 2013年のスタンダードとは?!...
上司が信用できない会社の内部統制~第32回WebSig会議「便利さと、怖さと、心強さと〜戦う会社のための社内セキュリティ 2013年のスタンダードとは?!...上司が信用できない会社の内部統制~第32回WebSig会議「便利さと、怖さと、心強さと〜戦う会社のための社内セキュリティ 2013年のスタンダードとは?!...
上司が信用できない会社の内部統制~第32回WebSig会議「便利さと、怖さと、心強さと〜戦う会社のための社内セキュリティ 2013年のスタンダードとは?!...WebSig24/7
 
テクノアカデミー郡山 現役ソフトウェアエンジニアが語る。IT の今と未来
テクノアカデミー郡山 現役ソフトウェアエンジニアが語る。IT の今と未来テクノアカデミー郡山 現役ソフトウェアエンジニアが語る。IT の今と未来
テクノアカデミー郡山 現役ソフトウェアエンジニアが語る。IT の今と未来Daiyu Hatakeyama
 
Hour of-code-2016冬-シンポジウム
Hour of-code-2016冬-シンポジウムHour of-code-2016冬-シンポジウム
Hour of-code-2016冬-シンポジウムYuta Tonegawa
 
Financial Planner の為のITの活用
Financial Planner の為のITの活用Financial Planner の為のITの活用
Financial Planner の為のITの活用Kenichi Takeuchi
 
座談会資料(討議メモ付き) 20120512
座談会資料(討議メモ付き) 20120512座談会資料(討議メモ付き) 20120512
座談会資料(討議メモ付き) 20120512知礼 八子
 
Mattermostが働き方を劇的改善!NRIの働き方改革の秘訣
Mattermostが働き方を劇的改善!NRIの働き方改革の秘訣Mattermostが働き方を劇的改善!NRIの働き方改革の秘訣
Mattermostが働き方を劇的改善!NRIの働き方改革の秘訣aslead
 
IT革命からコミュニティ、コミュニケーション革命に!
IT革命からコミュニティ、コミュニケーション革命に!IT革命からコミュニティ、コミュニケーション革命に!
IT革命からコミュニティ、コミュニケーション革命に!Yuichi Morito
 
おすすめインフラ! for スタートアップ
おすすめインフラ! for スタートアップおすすめインフラ! for スタートアップ
おすすめインフラ! for スタートアップKoichiro Sumi
 
DSLによる要求獲得でスーパーアジャイル
DSLによる要求獲得でスーパーアジャイルDSLによる要求獲得でスーパーアジャイル
DSLによる要求獲得でスーパーアジャイル陽平 山口
 
3dmu スライド_MUGENUP1211
3dmu スライド_MUGENUP12113dmu スライド_MUGENUP1211
3dmu スライド_MUGENUP1211MUGENUP
 
It業界の優良企業の見つけ方 20140502 黒田
It業界の優良企業の見つけ方 20140502 黒田It業界の優良企業の見つけ方 20140502 黒田
It業界の優良企業の見つけ方 20140502 黒田Yusuke Kuroda
 

Similar to chatGPTの驚くべき対話能力.pdf (20)

Kobe sec#11 summary
Kobe sec#11 summaryKobe sec#11 summary
Kobe sec#11 summary
 
Big Dataで価値を生み出すためのSmall Trial & Method (みんなのPython勉強会#42)
Big Dataで価値を生み出すためのSmall Trial & Method (みんなのPython勉強会#42)Big Dataで価値を生み出すためのSmall Trial & Method (みんなのPython勉強会#42)
Big Dataで価値を生み出すためのSmall Trial & Method (みんなのPython勉強会#42)
 
20121124 学生セミナー「基礎からわかる! IT業界とプログラミング」
20121124 学生セミナー「基礎からわかる! IT業界とプログラミング」20121124 学生セミナー「基礎からわかる! IT業界とプログラミング」
20121124 学生セミナー「基礎からわかる! IT業界とプログラミング」
 
Koi::Bana〜恋に落ちたエンジニア〜
Koi::Bana〜恋に落ちたエンジニア〜Koi::Bana〜恋に落ちたエンジニア〜
Koi::Bana〜恋に落ちたエンジニア〜
 
財務分析勉強会挨拶
財務分析勉強会挨拶財務分析勉強会挨拶
財務分析勉強会挨拶
 
Janog31 bof-pattern-sasaki-01
Janog31 bof-pattern-sasaki-01Janog31 bof-pattern-sasaki-01
Janog31 bof-pattern-sasaki-01
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
 
上司が信用できない会社の内部統制~第32回WebSig会議「便利さと、怖さと、心強さと〜戦う会社のための社内セキュリティ 2013年のスタンダードとは?!...
上司が信用できない会社の内部統制~第32回WebSig会議「便利さと、怖さと、心強さと〜戦う会社のための社内セキュリティ 2013年のスタンダードとは?!...上司が信用できない会社の内部統制~第32回WebSig会議「便利さと、怖さと、心強さと〜戦う会社のための社内セキュリティ 2013年のスタンダードとは?!...
上司が信用できない会社の内部統制~第32回WebSig会議「便利さと、怖さと、心強さと〜戦う会社のための社内セキュリティ 2013年のスタンダードとは?!...
 
テクノアカデミー郡山 現役ソフトウェアエンジニアが語る。IT の今と未来
テクノアカデミー郡山 現役ソフトウェアエンジニアが語る。IT の今と未来テクノアカデミー郡山 現役ソフトウェアエンジニアが語る。IT の今と未来
テクノアカデミー郡山 現役ソフトウェアエンジニアが語る。IT の今と未来
 
Hour of-code-2016冬-シンポジウム
Hour of-code-2016冬-シンポジウムHour of-code-2016冬-シンポジウム
Hour of-code-2016冬-シンポジウム
 
Financial Planner の為のITの活用
Financial Planner の為のITの活用Financial Planner の為のITの活用
Financial Planner の為のITの活用
 
座談会資料(討議メモ付き) 20120512
座談会資料(討議メモ付き) 20120512座談会資料(討議メモ付き) 20120512
座談会資料(討議メモ付き) 20120512
 
Mattermostが働き方を劇的改善!NRIの働き方改革の秘訣
Mattermostが働き方を劇的改善!NRIの働き方改革の秘訣Mattermostが働き方を劇的改善!NRIの働き方改革の秘訣
Mattermostが働き方を劇的改善!NRIの働き方改革の秘訣
 
IT革命からコミュニティ、コミュニケーション革命に!
IT革命からコミュニティ、コミュニケーション革命に!IT革命からコミュニティ、コミュニケーション革命に!
IT革命からコミュニティ、コミュニケーション革命に!
 
おすすめインフラ! for スタートアップ
おすすめインフラ! for スタートアップおすすめインフラ! for スタートアップ
おすすめインフラ! for スタートアップ
 
SQiPシンポジウムアブストラクト作成のポイント
SQiPシンポジウムアブストラクト作成のポイントSQiPシンポジウムアブストラクト作成のポイント
SQiPシンポジウムアブストラクト作成のポイント
 
DSLによる要求獲得でスーパーアジャイル
DSLによる要求獲得でスーパーアジャイルDSLによる要求獲得でスーパーアジャイル
DSLによる要求獲得でスーパーアジャイル
 
Fit12
Fit12Fit12
Fit12
 
3dmu スライド_MUGENUP1211
3dmu スライド_MUGENUP12113dmu スライド_MUGENUP1211
3dmu スライド_MUGENUP1211
 
It業界の優良企業の見つけ方 20140502 黒田
It業界の優良企業の見つけ方 20140502 黒田It業界の優良企業の見つけ方 20140502 黒田
It業界の優良企業の見つけ方 20140502 黒田
 

chatGPTの驚くべき対話能力.pdf