SlideShare una empresa de Scribd logo
1 de 63
Descargar para leer sin conexión
© 2017 IBM Corporation
数理・計算科学特論C
プログラミング言語処理系の最先端実装技術
第6講 inliningとdevirtualization
2017年12月12日
日本アイ・ビー・エム(株) 東京基礎研究所
石崎 一明 kiszk@acm.org
IBM Research - Tokyo
© 2017 IBM Corporation
IBM Research - Tokyo
自己紹介
石崎 一明(いしざき かずあき) http://ibm.biz/ishizaki
1992年3月 早稲田大学理工学研究科修士課程電気工学専攻を修了。
1992年4月 日本アイ・ビー・エム(株)入社、東京基礎研究所勤務。以来、並列化コンパイラ、動的
コンパイラ、アプリケーション最適化、などの研究に従事。最近は、GPGPUのためのコンパイル技術
の研究、Apache Sparkの高速化、に従事。現在、同研究所シニア・テクニカル・スタッフ・メンバー
2002年12月 早稲田大学理工学研究科にて、博士(情報科学)を取得。
2008年から2009年まで、IBMワトソン研究所に滞在。
2004年に情報処理学会業績賞受賞。ACMシニアメンバー、情報処理学会シニアメンバー
主なAcademic Activity
2004, 5年 日本ソフトウェア科学会PPL 2004/2005ワークショップ プログラム委員
2006年 日本ソフトウェア科学会PPL 2006ワークショップ プログラム共同委員長
2008年 PC Member of ACM OOPSLA 2013 Conference
2007~2009年度 日本ソフトウェア科学会プログラミング論研究会 運営委員
2011~2014年度 情報処理学会アーキテクチャ研究会 運営委員
2015年~ 日本ソフトウェア科学会理事
2016年度~ 情報処理学会プログラミング研究会 運営委員
2017年 PC Member of IEEE BigData 2017
2
© 2017 IBM Corporation
IBM Research - Tokyo
講義予定のおさらい と 今回のトピック
3
Topic Lecturer Date Time
1 Runtime – JVM Overview & Interpreter 緒方 11/30 木 13:20~14:50
2 Runtime – Object Management &
Synchronization
河内谷 12/5 火 13:20~14:50
3 Runtime – Native Memory Management 緒方 12/5 火 15:05~16:35
4 Compiler – Overview 仲池 12/7 木 13:20~14:50
5 Compiler – Dataflow Analysis 稲垣 12/12 火 13:20~14:50
6 Compiler – Devirtualization & Inlining 石崎 12/12 火 15:05~16:35
7 Hot topic – X10 竹内 12/14 木 13:20~14:50
8 Hot topic – Open Source Java VM 堀江 12/19 火 13:20~14:50
9 Hot topic – Full-stack Optimization 堀井 12/19 火 15:05~16:35
10 Compiler – Trace Compilation & LLVM 井上 12/21 木 13:20~14:50
11 Hot topic – H/W Acceleration
(GPGPU, HTM, FPGA)
石崎 1/9 火 13:20~14:50
12 まとめと展望 小野寺 1/9 火 15:05~16:35
© 2017 IBM Corporation
IBM Research - Tokyo
今日の講義内容
▪ メソッド呼び出しの実行時間に関する最適化
– Method inlining
• 直接メソッド呼び出しにおいてInliningするメソッドの決定
–メソッド呼び出しのdevirtualization
• 仮想メソッド呼び出しから直接メソッド呼び出しへの変換
▪ 異なるコード間の実行の遷移について
– コンパイルコードからインタープリタへ
– インタープリタからコンパイルコードへ
4
今日の話の前提は、コンパイル単位は
メソッドです。
メソッド以外のコンパイル単位の話は、
12/21の10講で。
© 2017 IBM Corporation
IBM Research - Tokyo
今日の授業でわかること(1/2)
▪ メソッド呼び出しの最適化
– Super.div()の呼び出しとその実行を、どうやって高速化するか?
– s.add()のような、仮想メソッド呼び出し(呼び出し先が一意に決まらない可能
性がある)の実行を、どうやって高速化するか?
5
class Super {
public int add(int i) { return i + 9; }
public int mul(int i) { return i * 9; }
public static final int div(int i) { return (i != 0) ? (4 / i) : 0;}
public static int calc() {
int r = Super.div(2) + 3;
return r;
}
}
class Sub1 extends Super {
public int add(int i) { return i + 1; }
public int foo(...) { ... }
public static int calc1(Super s) {
int r = s.add(2) + 3;
return r;
}
}
© 2017 IBM Corporation
IBM Research - Tokyo
今日の授業でわかること(2/2)
▪ メソッドの実行遷移の最適化
– s.add()でSub2.add()がよく呼ばれることがわかった時、”長いコード”をコンパ
イルしないようにできないか?
– 1度だけ呼び出されるmain()メソッド内にあるSuper.div()へのメソッド呼び出し
を、どうやってmethod inliningするか?
6
class Sub2 extends {
public int add(int i) { return i + 2; }
public static int calc2(Super s) {
int r = s.add(-2);
if (r != 0) { ... // 長いコード }
return r;
}
}
class Super {
public static final int div(int i) { return (i != 0) ? (4 / i) : 0;}
public static void main(String args[]) {
for (int i = 0; i < 100000; i++) {
int r = Super.div(2) + 3;
System.println(r);
}
}
}
© 2017 IBM Corporation
IBM Research - Tokyo
Method inlining
7
© 2017 IBM Corporation
IBM Research - Tokyo
Method inining(inline expansion – インライン展開)
▪ あるメソッド呼び出しによって呼びされるメソッド(呼び出し先)の本体のコピー
で、メソッド呼び出しを置き換える
– 引数で渡されて性質がわからないオブジェクトを明確にする
–パラメータをローカルなコードにする
– 呼び出し手続きを最適化するのに有用
8
© 2017 IBM Corporation
IBM Research - Tokyo
Method inining(inline expansion – インライン展開)
▪ 実際の適用例
9
class Super {
public static final int div(int i) { return (i != 0) ? (4/i) : 0; }
public static int calc() {
int r = Super.div(2);
return r;
}
}
プログラム
public static int calc() {
int r = (2 != 0) ? (4 / 2) : 0;
return r;
}
© 2017 IBM Corporation
IBM Research - Tokyo
なぜmethod inliningを行うのか?
▪ プロセッサ上での問題の軽減
– 直接メソッド呼び出しや仮想メソッド呼び出しが使用する命令が、プロセッサ
内のパイプライン実行を乱す
▪ コンパイラによって生成されるコードの質の問題の軽減
– コンパイル単位を大きくして、最適化をより適用したい
• 一般にオブジェクト指向言語では、メソッドの大きさが小さくなりがち
• 仮想メソッドの場合にはdevirtualizationが必要
– メソッド呼び出しのオーバヘッドの削減
10
© 2017 IBM Corporation
IBM Research - Tokyo
method inliningの前提
▪ 元の動作を変更してはいけない
– 外部から見える値(volatile変数など)
– 例外・同期が起きた時
▪ 実行時間をMethod inliningしないときより減らしたい
– ハードウェアのリソース(メモリ、命令キャッシュなど)を使いすぎない
▪ コンパイル時間の増加をほどほどに
11
© 2017 IBM Corporation
IBM Research - Tokyo
直接メソッド呼び出し(direct method call)
▪ コンパイル時に、プログラム上の情報から呼び出し先が一意に決定可能
– 直接分岐命令(call address)の使用
12
...
call method_div
...
method_div:
...
ret
class Super {
public static final
int div(int i) { ... }
public static int calc() {
... Super.div(2) ...
...
}
}
プログラム 機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
仮想メソッド呼び出し(virtual method call)
▪ コンパイル時に、呼び出し先が一意に決定できない
▪ 実行時に呼び出し先を決定する機構(表引き、など)が必要
– 間接分岐命令(call reg)の使用
13
Super s
class Sub1 extends Super {
public
int add(int i) { ... }
public
int sub(int i) { ... }
public static
int calc1(Super s) {
... s.add(2) ...
...
}
}
...
// r3 = object of Super
ld r2, (r3+offset_class_in_object)
ld r1, (r2+offset_vtableadd_in_class)
ld r0, (r1+offset_code_in_method)
call r0
...
プログラム 機械語命令
class Sub1
mul
foo
virtual table
add
code
method Sub1.add
r3 r2 r1
binary
code
r0
sub
同じメソッドはクラス階層内で
同じオフセットを持つ
© 2017 IBM Corporation
IBM Research - Tokyo
(昔の)プロセッサ上での問題の軽減
▪ 直接分岐のオーバヘッド
– 命令アドレスが連続する次の命令アドレス、ではなくなるので、命令パイプ
ライン内の実行を乱す(ハザードの発生)
–最近のプロセッサは、命令パイプラインの早い段階(Idecなど)で分岐先ア
ドレスを生成するので、ハザードは少ない
14
IFetch IDec Exec WB
IFetch IDec Exec WB
IFetch IDec Exec WB
IFetch IDec Exec WB
call method_div
add r3 = r11, r12
mov r4 = r3
method_div:
mov r4 = r3
method_div
© 2017 IBM Corporation
IBM Research - Tokyo
(昔の)プロセッサ上での問題の軽減
▪ 間接分岐のオーバヘッド
– 分岐先の命令アドレスが決定するのに時間がかかるので、命令パイプライ
ン内の実行を乱し、ハザードを発生する
– 最近のプロセッサは命令パイプラインの早い段階で(Idecなど)、強力な分
岐予測機構によって、分岐先アドレスを生成するので、ハザードは少ない
• 命令アドレスから、過去の分岐履歴に基づいて分岐先アドレスを予測す
る
15
IFetch IDec Exec WB
IFetch IDec Exec WB
IFetch IDec Exec WB
IFetch IDec Exec
Load r0,...(r1)
call r0
...
method_Sub1add:
...
method_Sub1add
r0
WB
© 2017 IBM Corporation
IBM Research - Tokyo
コンパイラによって生成されるコードの問題
▪ 機械語命令のcall命令による、メソッドの呼び出し
// s.add(2)の呼び出し
...
call method_add
...
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
ABIのコードの問題
▪ 現実の処理系におけるメソッド呼び出しの際には、プログラムからは見えない、
application binary interface(ABI)にもとづいた処理が必要になる
// s.add(2)の呼び出し
...
mov r4 = 2 // 第2引数 2
mov r3 = r10 // 第1引数 s
call method_add
mov r4 = r3 // 戻り値
...
sp
lower
address
スタックフレーム
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
ABIのコードの問題
▪ 現実の処理系におけるメソッド呼び出しの際には、プログラムからは見えない、
application binary interface(ABI)にもとづいた処理が必要になる
– メソッド呼び出しがなくなれば、これらの処理は減る
18
// s.add(2)の呼び出し
...
mov r4 = 2 // 第2引数 2
mov r3 = r10 // 第1引数 s
call method_add
mov r4 = r3 // 戻り値
...
// s.add(2)のメソッド入り口
method_add:
st (sp+8), Return// 前のスタックフレーム上へ
// 戻りアドレスを保存
mov r0, sp // 古いスタック値の保存
sub sp = sp - 64 // 新しいスタックの作成
st (sp+0), r0 // 新しいスタックから
// 古いスタックへのリンク作成
mov r16 = r4 // 第2引数の受け取り
...
sp
sp
Return
lower
address
スタックフレーム
s.add()
Return
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
複雑な引数を渡す際のコードの問題
▪ 引数渡しの際に、プログラムからは見えない、重い処理を伴うことがある
– 可変長引数
– キーワード引数(ruby, pythonなど)
19
class Super {
void print(int i, int j, int k) {
System.out.printf(“%d %d¥n”, i, j);
}
}
プログラム
def add(a:1, b:2)
a + b
end
add(a: 1.2, b: 3.4)
プログラム
© 2017 IBM Corporation
IBM Research - Tokyo
複雑な引数を渡す際のコードの問題
▪ 引数渡しの際に、プログラムからは見えない、重い処理を伴うことがある
– 可変長引数
• Javaの場合、オブジェクトが生成される
– キーワード引数(ruby, pythonなど)
• ハッシュ表を生成して渡している
20
class Super {
void print(int i, int j, int k) {
System.out.printf(“%d %d¥n”, i, j);
}
}
class Super {
void print(int i, int j, int k) {
System.out.printf("%d %d¥n", new Object[] {
Integer.valueOf(i), Integer.valueOf(j)
});
}
}
プログラム javacでコンパイルされた結果
def add(a:1, b:2)
a + b
end
add(a: 1.2, b: 3.4)
def add(a:1, b:2)
a + b
end
add(a: 1.2, b: 3.4)
{a=>1.2, b=>3.4}
キーワード引数で渡される実体プログラム
© 2017 IBM Corporation
IBM Research - Tokyo
コンパイラによって生成されるコードの問題の軽減
▪ コンパイル単位の範囲の増加
– 最適化(特にデータフロー解析)の適用範囲が広がる
21
class Super {
public static final int div(int i) { return (i != 0) ? (4 / i) : 0;}
public static int calc() {
int r = Super.div(2) + 3;
return r;
}
}
public static int calc() {
int r = ((2 != 0) ? (4 / 2) : 0) + 3;
return r;
}
public static int calc() {
return 5;
}
Super.div(2)を、呼び出し先のコードで置き換え
コンパイル時に式を評価する
© 2017 IBM Corporation
IBM Research - Tokyo
Method inliningを行うメソッドの特定
▪ 呼び出し先メソッドが、容易に一意に特定できる場合
– 直接メソッド呼び出しの場合
22
class Super {
public int add(int i) { return i + 9; }
public static final int div(int i) { return (i != 0) ? (4 / i) : 0;}
public static int calc() {
int r = Super.div(2) + 3;
return r;
}
}
© 2017 IBM Corporation
IBM Research - Tokyo
Method inliningを行うか行わないかの判断
▪ (私見では)決定解はこれまでにない。
時代(プロセッサアーキテクチャ、言語)によって良い解法が異なるのでは?
– 静的情報
• 呼び出し先メソッドの大きさ
–コンパイル時間が長くならないに
–命令キャッシュが溢れないように
• 制御フローの形
–呼び出し先メソッドを先読みして、method inliningを行った場合最適
化が適用できるか判断する
• …
– 動的情報
• 実行中に集められた実行時のメソッド実行頻度に基づく
–ハードウェアカウンタから、メソッド実行頻度を推定可能
• 実行中に集められた引数の値にもとづいて、 method inliningを行った
場合最適化が適用できるか判断する
23
© 2017 IBM Corporation
IBM Research - Tokyo
Devirtualization
24
© 2017 IBM Corporation
IBM Research - Tokyo
Method inliningを行う呼び出し先メソッドの特定
▪ メソッドの呼び出し先を一意に特定することが難しい場合
– 仮想メソッド呼び出し
– インターフェースメソッド呼び出し
25
call s.add() Sub1.add()
Super.add()
Sub2.add()
...
© 2017 IBM Corporation
IBM Research - Tokyo
Devirtualizationによって特定
▪ 複数の呼び出し先を、特定した1つとその他、に分ける
– 仮想呼び出しではなくなっている、のでdevirtualization(脱仮想化)
▪ 分ける方法
–Guarded devirtualization
– Direct devirtualization
26
call s.add()
call Sub2.add() call s.add()
Sub1.add()
Super.add()
Sub2.add()
...
© 2017 IBM Corporation
IBM Research - Tokyo
Guarded devirtualizationによって特定
▪ 複数の呼び出し先を条件分岐(ガード)によって、特定した1つとその他、に分
ける
▪ 実行時情報などからガードを挿入して、呼び出し先を特定
– Method test [Calder1994]
– Class test [Grove1995]
▪ 複数の呼び出し先を特定
– Polymorphic inline cache [Chambers1991]
27
call s.add()
call Sub2.add()
ガード
call s.add()
Sub1.add()
Super.add()
Sub2.add()
...
© 2017 IBM Corporation
IBM Research - Tokyo
Direct devirtualizationによって特定
▪ プログラム解析などによってガード無しで1つであることを特定する
– 解析の結果、複数個に特定できる場合もある
▪ (通常)ガード無しで、1つの呼び出し先を特定
–Type analysis [Chamber1990]
– Class hierarchy analysis [Dean1995, Ishizaki2000]
– Rapid type analysis [Bacon1996]
– Preexistence [Detletf1999]
28
call s.mul()
call Super.mul()
Super.mul()
...
© 2017 IBM Corporation
IBM Research - Tokyo
Guarded devirtualizationの手法
▪ 元のコード
▪ 直接メソッド呼び出しもしくはmethod inliningされているコードを呼び出してよ
いか、ガードの比較結果に基づいて判断する。
29
Super s
...
// r3 = object in s
ld r2, offset_class_in_object(r3)
ld r1, offset_vtableadd_in_class(r2)
ld r0, offset_code_in_method(r3)
call r0
...
class Sub2
mul
div
virtual table
add
code
method Sub2.add
Method test(メソッドの一致で判断)Class test(クラスの一致で判断)
// r3 = object in s
ld r2, offset_class_in_object(r3)
if (r2 == #address_of_classSub1) {
call Sub2.add / exec inlined code
} else {
ld r1, offset_vtableadd_in_class(r2)
ld r0, offset_code_in_method(r1)
call r0
}
// r3 = object in s
load r2, offset_class_in_object(r3)
load r1, offset_vtableadd_in_class(r2)
if (r1 == #address_of_methodSub1add) {
call Sub2.add / exec inlined code
} else {
load r0, offset_code_in_method(r1)
call r0
}
機械語命令 機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
Class testとMethod testの違い
▪ Method testのほうがメモリからのロードが1つ多いが、呼び出し先を特定する
精度が高い
– 下記のプログラムにおいて、sにSub3のインスタンスが渡されると
• Class test(s.mul()はSuperでガードされていると仮定)では、
Super != Sub3でガードの条件が成立せず、仮想メソッド呼び出しを実
行する必要がある。
• Method testでは、&Super.mul() == &Sub3.mul()となりガードの条件が
成立し、呼び出し先を一意に決定することができ、直接メソッド呼び出し
を実行可能。
–Sub3ではmul()が定義されていないが
Superからvirtual tableを継承して
同じメソッド情報を持つ
public int foo(Super s) {
... s.mul(3) ...
}
class Super
mul()
class Sub3
30
© 2017 IBM Corporation
IBM Research - Tokyo
Polymorphic inline cache (PIC)
▪ 複数の呼び出し先を持つメソッド呼び出しの高速化のために、複数のガードを
挿入する
– 複数のメソッドがオーバライドしている仮想メソッド呼び出し
–複数のクラスがimplementしているインターフェース呼び出し
31
class Super
add()
class Sub1
add()
class Sub2
add()
// r1 = object in s
load r2, offset_class_in_object(r1)
if (r2 == #address_of_classSuper) {
call Super.add / exec inlined code
else if (r2 == #address_of_classSub1) {
call Sub1.add / exec inlined code
else if (r2 == #address_of_classSub2) {
call Sub2.add / exec inlined code
} else {
load r3, offset_vtableadd_in_class(r2)
load r4, offset_code_in_method(r3)
call r4
}
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
Direct devirtualizationの必要性
▪ ガードを挿入したguarded devirtualization、はSmalltalkなどの動的型付け言
語で盛んに研究されてきた
– 仮想メソッド呼び出しの実行コストが大きいので、実行時間の短縮に貢献
▪ Javaなどの静的型付け言語では、仮想メソッド呼び出しの実行コストと、
guarded devirtualization+直接呼び出しによる実行コストは、あまり差がない
– guarded devirtualization+method inlining
–ガード無しのdirect devirtualizationによる、実行時間の短縮の要求
32
動的型付け言語でprototypeベースのような構造が動的に変わるような処理系
(例えばJavaScript)での問題と解法については、下記の論文などがあります
“Improving JavaScript Performance by Deconstructing the Type System”, 2014
© 2017 IBM Corporation
IBM Research - Tokyo
Direct devirtualizationの手法
▪ クラス階層解析(Class hierarchy analysis, CHA)を必要としない方法
– Type analysis [Chamber1990]
– Value type analysis (VTA) [Sundaresan2000]
–Extended type analysis (XTA) [Tip2000]
• Type analysisをメソッド間に拡張
▪ クラス階層解析を必要とする方法
– Class hierarchy analysis (CHA) [Dean1995]
– Rapid type analysis (RTA) [Bacon1996]
– Class hierarchy analysis with code patching [Ishizaki2000]
– Preexistence [Detletf1999]
33
© 2017 IBM Corporation
IBM Research - Tokyo
形解析(type analysis)
▪ メソッド呼び出しのレシーバーに到達するオブジェクトの型をデータフロー解析
によって求める。
▪ 型が一意に決定する場合には、呼び出し先のメソッドを一意に決定可能。
–仮想メソッド呼び出しを、直接メソッド呼び出しに変換、もしくはMethod
inliningが可能
34
...
// r3 = s
call method_Sub1add
...
method_Sub1add:
...
ret
s.add()のsに到達する
のはSub1だけなので、
Sub1.add()が必ず
呼び出される
public int bar() {
Super s = new Sub1();
...
... s.add(4) ...
} レシーバー
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
クラス階層解析(Class hierarchy analysis - CHA)
▪ プログラム全体のクラス階層においてどのメソッドが定義されているかを調べる
– 各クラスがメソッド呼び出しのレシーバーとなった時に、とり得るメソッド集合
を集める
• 集合内のメソッド数が少ないほど、devirtualizationの効率が高くなる
▪ Javaの場合、実行中にクラスロード・アンロードが発生するので、クラス階層を
常にメンテナンスする必要がある。
35
class Super
mul()
class Sub3 class Sub4
mul()
とり得る
メソッド集合{}
Super:
{Super.mul()}
とり得る
メソッド集合{}
Super:
{Super.mul(),
Sub4.mul()}
Sub3:
{Super.mul()}
Sub3:
{Super.mul()}
Sub4:
{Sub4.mul()}
class Super
mul()
class Sub3
SuperかSub3クラスの
どちらでも、呼び出され
る実装はSuper.mul()
Sub3クラスだけだが、
呼び出される実装は
Super.mul()
© 2017 IBM Corporation
IBM Research - Tokyo
Rapid type analysis(RTA)
▪ CHAより、とりえるメソッド集合を減らす方法
– メソッド集合内のメソッド数が少ないほど、devirtualizationの効率が高い
▪ CHAに加えて、プログラム中でクラスがinstantiation(Javaならnew)されてるか
調べる。
– Instantiationされないクラスのメソッド(Sub4.mul())は、メソッド集合に入らな
い
36
class Super
mul()
class Sub3 class Sub4
mul()
Super:
{Super.mul(),
Sub4.mul(),
Sub5.mul()}
Sub3:
{Super.mul()}
Sub4:
{Sub4.mul(),
Sub5.mul()}
プログラム中に、
new Super(),
new Sub3(),
new Sub5()が存在し、
new Sub4()が
存在しないならば
Super:
{Super.mul(),
Sub4.mul(),
Sub5.mul()}
Sub3:
{Super.mul()}
Classがレシーバーの
型となった時
とり得るメソッド集合 {}
Classがレシーバーの
型となった時
とり得るメソッド集合 {}
class Sub5
mul() Sub5:
{Sub5.mul()}
Sub5:
{Sub5.mul()}
Sub4:
{Sub4.mul(),
Sub5.mul()}
© 2017 IBM Corporation
IBM Research - Tokyo
CHAやRTAを使ったdevirtualization
▪ CHAやRTAで求めたメソッド集合を用いて、メソッド呼び出しのレシーバーのオ
ブジェクトの型から、呼び出し先となり得るメソッド集合を取得する
▪ メソッド集合の中にメソッドが1つだけ存在するならば、呼び出し先のメソッドを
一意に決定可能。
– 直接メソッド呼び出しに変換、もしくはmethod inliningが可能
37
...
// r3 = s
call method_Supermul
...
method_Supermul:
...
ret
s.mul()では
Super.mul()が
必ず呼び出される
public int foo(Super s) {
... s.mul(3) ...
}
Super:
{Super.mul()}
Sub3:
{Super.mul()}
class Super
mul()
class Sub3
とり得る
メソッド集合{}
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
CHA(RTA)とcode patchingによるdevirtualization
▪ Javaではクラス階層が固定ではないので、ある時点のコンパイル時に一意で
あった呼び出し先メソッドが、突然複数になることがある
– コンパイル時にs.mul()の呼び出し先メソッドが一意であれば、直接メソッド
呼び出しと間接メソッド呼び出しの両方を用意し、直接メソッド呼び出しを実
行する。
38
...
call method_Supermul // 直接呼び出し
after_call:
...
dynamic_call:
ld r2,(r3+offset_class_in_object)
ld r1,(r2+offset_vtablemul_in_class)
ld r0,(r1+offset_code_in_method)
call r0 // 間接呼び出し
jmp after_call
public int foo(Super s) {
... s.mul(3) ...
}
class Super
mul()
class Sub3
Super:
{Super.mul()}
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
CHA(RTA)とcode patchingによるdevirtualization
▪ Javaではクラス階層が固定ではないので、ある時点のコンパイル時に一意で
あった呼び出し先メソッドが、突然複数になることがある
– 動的クラスローディングの結果、クラスSub4がロードされメソッドmul()がオ
ーバライドされた時は、コードを書き換えて間接メソッド呼び出しを実行する
39
...
jmp dynamic_call
after_call:
...
dynamic_call:
ld r2,(r3+offset_class_in_object)
ld r1,(r2+offset_vtablemul_in_class)
ld r0,(r1+offset_code_in_method)
call r0 // 間接呼び出し
jmp after_call
public int foo(Super s) {
... s.mul(3) ...
}
class Super
mul()
class Sub3 class Sub4
mul()
Super:
{Super.mul(),
Sub4.mul()}
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
Preexistence
▪ CHAやRTAの結果から、仮想メソッド呼び出しの呼び出し先のメソッドが一意
であることがわかる
– Direct devirtualizationによるコードを生成する
▪ 動的クラスロードの結果、メソッドがオーバライドされたら、他の呼び出し先メソ
ッドの呼び出し、にも対応する必要がある
– 一般には、実行中のコードの再生成が必要
– 実行中のコードの再生成、ではなく次回の実行までに再コンパイル、とする
ことはできないか?
• そんな条件は?
40
© 2017 IBM Corporation
IBM Research - Tokyo
Preexistence
▪ CHAやRTAの結果から、仮想メソッド呼び出しの呼び出し先のメソッドが一意
であることがわかる
– Direct devirtualizationによるコードを生成する
▪ 動的クラスロードの結果、メソッドがオーバライドされたら、他の呼び出し先メソ
ッドの呼び出し、にも対応する必要がある
– 一般には、実行中のコードの再生成が必要
– 実行中のコードの再生成、ではなく次回の実行までに再コンパイル、とする
ことはできないか?
41
メソッド呼び出しのレシーバーが、呼び出し側のメソッドを実行する前に
決定したオブジェクトのまま変わらない
→例えば、メソッドの引数
© 2017 IBM Corporation
IBM Research - Tokyo
Preexistenceの例
▪ 下記のプログラムにおいて、foo()が呼び出される前に、sに渡されるオブジェク
トは存在する(pre-exist)
▪ foo()が実行されれば、引数sはSuperかSub3であり、何が起きても変わらない
▪ s.mul()では、必ずSuper.mul()が呼び出される
42
public int foo(Super s) {
... s.mul(3) ...
}
class Super
mul()
class Sub3
...
// r3 = s
call method_Supermul
...
method_Supermul:
...
ret
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
Preexistenceの例
▪ foo()の実行中に、Sub4が動的クラスロードされて、mul()がオーバライドされて
も、引数sに関するメソッド呼び出しは、Super.mul()でよい
▪ 次回のfoo()の呼び出しでは、sにSuperかSub4が渡るかで、s.mul()の呼び出
し先が異なる
– それまでにメソッドfoo()を、再コンパイルすればよい
43
public int foo(Super s) {
... s.mul(3) ...
}
class Super
mul()
class Sub3 class Sub4
mul()
...
// r3 = s
ld r2,(r3+offset_class_in_object)
ld r1,(r2+offset_vtablemul_in_class)
ld r0,(r1+offset_code_in_method)
call r0 // 間接呼び出し
...
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
Guarded devirtualization+method inliningによる問題点
▪ Method inliningした場合と仮想メソッド呼び出しの制御が合流する
– データーフロー解析結果(rの値は?)の精度が悪くなる
• Method test, Class test
• CHA + code patching
▪ 解決手段
– Splitting
– Deoptimization [Holze1992]
• すこし後に説明します
44
r = Sub2.add(-2)
-> -2 + 2 = 0
ガード
r = s.add(-2)
class Sub2 extends Super {
public int add(int i) { return i + 2; }
public static int calc2(Super s) {
int r = s.add(-2);
if (r != 0) { ... // 長いコード }
return r;
}
}
r != 0
// 長いコード
r = 0
© 2017 IBM Corporation
IBM Research - Tokyo
Splitting
▪ コードを複製して、制御の合流点の位置を変更して、データフロー解析結果の
精度を下げない(条件分岐におけるrの値は?)
– 場合によっては、複製するコード量が
増えることがある
45
r = Sub2.add(-2)
-> -2 + 2 = 0
ガード
r = s.add(-2)class Sub2 extends Super {
public int add(int i) { return i + 2; }
public static int calc2(Super s) {
int r = s.add(-2);
if (r != 0) { ... // 長いコード }
return r;
}
}
r != 0
// 長いコード
r = 0
r != 0
r != 0
© 2017 IBM Corporation
IBM Research - Tokyo
Splitting
▪ 左側のパスは、r = 0が確定しているので、条件分岐を除去可能
46
r = Sub2.add(-2)
-> -2 + 2 = 0
ガード
r = s.add(-2)class Sub2 extends Super {
public int add(int i) { return i + 2; }
public static int calc2(Super s) {
int r = s.add(-2);
if (r != 0) { ... // 長いコード }
return r;
}
}
r != 0
// 長いコード
r = 0 r != 0
© 2017 IBM Corporation
IBM Research - Tokyo
今日の授業でわかること
▪ メソッド呼び出しの最適化
– Super.div()の呼び出しの実行を、どうやって高速化するか? → method
inlining
– s.add()のような、仮想メソッド呼び出し(呼び出し先が一意に決まらない可能
性がある)の実行を、どうやって高速化するか? → devirtualization
47
class Super {
public int add(int i) { return i + 9; }
public int mul(int i) { return i * 9; }
public static final int div(int i) { return (i != 0) ? (4 / i) : 0;}
public static int calc() {
int r = Super.div(2) + 3;
return r;
}
}
class Sub1 extends Super {
public int add(int i) { return i + 1; }
public static int calc1(Super s) {
int r = s.add(2) + 3;
return r;
}
}
© 2017 IBM Corporation
IBM Research - Tokyo
今日の授業でわかること
▪ メソッドの実行遷移の最適化
– s.add()でSub2.add()がよく呼ばれることがわかった時、”長いコード”をコンパ
イルしないようにできないか? → splitting
48
class Sub2 extends Super {
public int add(int i) { return i + 2; }
public static int calc2(Super s) {
int r = s.add(-2);
if (r != 0) { ... // 長いコード }
return r;
}
}
© 2017 IBM Corporation
IBM Research - Tokyo
コードの実行遷移
49
© 2017 IBM Corporation
IBM Research - Tokyo
コンパイルコードとインタープリタ間の実行の遷移について
▪ コンパイルコードからインタープリタへ
▪ インタープリタからコンパイルコードへ
–通常はメソッドの先頭で遷移する
– メソッドの実行途中に遷移したいことがある
50
コンパイルされたコード
bar() {
...
...
}
インタープリタのコード
foo() {
...
bar();
...
}
インタープリタのコード
foo() { bar() {
... ...
bar(); ...
... }
}
コンパイルされたコード
bar() {
...
...
}
© 2017 IBM Corporation
IBM Research - Tokyo
用語について
▪ 統一された用語の使い方がないように思われる
– コンパイルコードからインタープリタへ
– インタープリタからコンパイルコードへ
51
コンパイルコードから
インタープリタへ
インタープリタから
コンパイルコードへ
Self
(コンパイルコードから
別のコンパイルコードへ)
Deoptimization ない
OpenJDK Deoptimization On-stack replacement (OSR)
IBM Java, OpenJ9 Deoptimization using OSR Dynamic loop transfer
Jikes RVM
(コンパイルコードから
別のコンパイルコードへ)
OSR OSR
V8
(コンパイルコードから
別のコンパイルコードへ)
Deoptimization OSR
McJIT (LLVM) Optimize OSR Deoptimize OSR
© 2017 IBM Corporation
IBM Research - Tokyo
Deoptimization
▪ コンパイラ内部表現は、ある条件を満たさなかったとき、分岐先がコンパイルコ
ード外となる
– コンパイルするコード量が減る
–コンパイラコード内の制御合流点が減る
▪ 典型的な使われ方
– Specialization(特殊化)を行った場合、
その効果を高める
–デバッガを有効化するとき、インタプリタに
遷移する
5252
r = Sub2.add(-2)
-> -2 + 2 = 0
条件
r = s.add(-2)
class Sub2 extends Super {
public int add(int i) { return i + 2; }
public static int calc2(Super s) {
int i = 1;
int r = s.add(-2);
if (r != 0) { ... // 長いコード }
int t = r + i;
return t;
}
}
r != 0
// 長いコード
r = 0
インタプリタで
実行
t = r + i
© 2017 IBM Corporation
IBM Research - Tokyo
Deoptimizationによるコード最適化
▪ コンパイルコード内では、rの値が0と決まるので、条件分岐と条件が成立しな
い場合のコードを削除可能
▪ コンパイルコード外に実行を移行する
際に、補償コードが必要
– コンパイラが生成した中間変数、削除した
変数、から、インタプリタ、デバッガで
参照される値の復元
–コンパイラは、i = 1を定数伝搬後削除する
5353
r = Sub2.add(-2)
-> -2 + 2 = 0
条件
r = s.add(-2)
class Sub2 extends Super {
public int add(int i) { return i + 2; }
public static int calc2(Super s) {
int r = s.add(-2);
if (r != 0) { ... // 長いコード }
return r;
}
}
インタプリタで
実行
t = r + 1
i = 1
t = r + i
© 2017 IBM Corporation
IBM Research - Tokyo
Deoptimizationによる効果
▪ 動的型付け言語ではより効果が大きい
– 単純には、各演算で型検査が必要
– “+”などの汎用的な演算の型を、一意に決定できる
5454
b = 1
c = a + b
type: INT
ival: 2014
object
type: INT
ival: 1
object
if (a.type == Int && b.type == Int)
{
int i = a.ival + b.ival;
c = Int(i)
} else {
b = Int(1)
c = add(a, b);
}
// cはオブジェクト
if (a->type == Int) {
c = a.val + 1;
} else {
b = Int(1);
goto interpreter
}
// cは整数の単純変数
1 aがintでないなら
deoptimization
コンパイラ中間言語
コンパイラ中間言語
コンパイル
© 2017 IBM Corporation
IBM Research - Tokyo
Deoptimizationの実装について
▪ 最適化されたコンパイルコードからインタプリタへの、実行遷移
– 実行時にそれぞれのコードが持つcontextの変換
55
CONST 1 int
STORE b
LOAD a
LOAD b
ADD
STORE c
バイトコード
if (a->type == Int) {
c = a.val + 1;
} else {
b = Int(1);
//後続使用変数の参照点
goto interpreter
}
// cは整数の単純変数
インタプリタで実行
コンパイルコード インタプリタ上のバイトコード
計算スタック レジスタ インタプリタの独自計算stack
Local変数 レジスタ インタプリタの独自stack frame
Stack frame コンパイルコードの独自stack
(method inliningした場合、複数メソッド
が1つに変換されている)
インタプリタの独自stack frame
(各メソッドごと)
...
mov r3, object_a
mov r4, object_1
a
1
計算stack
変換
機械語命令
© 2017 IBM Corporation
IBM Research - Tokyo
On-Stack Replacement [Chamber1994][Kawahito2003]
▪ インタプリタ実行中から、コンパイルコードの途中に遷移する
– 一般的には、インタプリタでプログラムのループのback edgeを検出した際
に、コンパイルコードのループの先頭に移ることが多い
• 任意の点で移ると、実装の複雑さが増すが、得られるメリットはそれほど
多くない
56
int div(int i){return (i!=0) ? (4/i):0;}
public static void main(String args[]) {
for (int i = 0; i < 100000; i++) {
int r = Super.div(2) + 3;
System.println(r);
}
}
© 2017 IBM Corporation
IBM Research - Tokyo
On-Stack Replacementの実行例
▪ main()がインタプリタで起動されて、ループが何度も実行される
▪ ループのback edgeで、main()のコンパイル要求が出される
57
int div(int i){return (i!=0) ? (4/i):0;}
public static void main(String args[]) {
for (int i = 0; i < 100000; i++) {
int r = Super.div(2) + 3;
System.println(r);
}
}
© 2017 IBM Corporation
IBM Research - Tokyo
On-Stack Replacementの実行例
▪ main()はdiv()をmethod inliningしながらコンパイルされる
– メソッド先頭とループ先頭に、実行遷移点を持つコードが生成される
58
main_entry:
...
loophead:
...
bne loophead
...
ret
main_loop_entry:
...
goto loophead
int div(int i){return (i!=0) ? (4/i):0;}
public static void main(String args[]) {
for (int i = 0; i < 100000; i++) {
int r = Super.div(2) + 3;
System.println(r);
}
}
コンパイル
© 2017 IBM Corporation
IBM Research - Tokyo
On-Stack Replacementの実行例
▪ 実行遷移点では、下記の変換を行う
59
main_entry:
...
loophead:
...
bne loophead
...
ret
main_loop_entry:
...
goto loophead
int div(int i){return (i!=0) ? (4/i):0;}
public static void main(String args[]) {
for (int i = 0; i < 100000; i++) {
int r = Super.div(2) + 3;
System.println(r);
}
}
変換
インタプリタ上のバイトコード コンパイルコード
計算スタック インタプリタの独自計算stack レジスタ
Local変数 インタプリタの独自stack frame レジスタ
Stack frame インタプリタの独自stack frame コンパイルコードの独自stack
© 2017 IBM Corporation
IBM Research - Tokyo
今日の授業でわかること
▪ メソッドの実行遷移の最適化
– s.add()でSub2.add()がよく呼ばれることがわかった時、”長いコード”をコンパ
イルしないようにできないか? → deoptimization
– main()メソッドから呼び出されるSuper.div()を、どうやってmethod inliningする
か? → OSR
60
class Sub2 extends {
public int add(int i) { return i + 2; }
public static int calc2(Super s) {
int r = s.add(-2);
if (r != 0) { ... // 長いコード }
return r;
}
}
class Super {
public static final int div(int i) { return (i != 0) ? (4 / i) : 0;}
public static void main(String args[]) {
for (int i = 0; i < 100000; i++) {
int r = Super.div(2) + 3;
System.println(r);
}
}
}
© 2017 IBM Corporation
IBM Research - Tokyo
今日の講義内容のまとめ
▪ メソッド呼び出しの実行時間に関する最適化
– Method inlining
• 直接メソッド呼び出しにおいてInliningするメソッドの決定
–メソッド呼び出しのdevirtualization
• 仮想メソッド呼び出しから直接メソッド呼び出しへの変換
–Guarded devirtualization, direct devirtualization
▪ 異なるコード間の実行の遷移について
– コンパイルコード ⇔ インタープリタ
• Deoptimization, OSR
61
© 2017 IBM Corporation
IBM Research - Tokyo
参考文献 (1/2)
▪ Guarded devirtualization
– Calder et al. Reducing Indirect Function Call Overhead In C++ Programs, POPL, 1994.
– Grove et al. Profile-guided receiver class prediction, OOPSLA, 1995
– Holzle et al. Optimizing dynamically-typed object-oriented languages with polymorphic inline caches, ECOOP, 1991
– Arnold et al. Thin Guards: A Simple and Effective Technique for Reducing the Penalty of Dynamic Class Loading,
ECOOP, 2002.
▪ 型解析
– Chambers et al. Interactive type analysis and extended message splitting; optimizing dynamically-typed object-
oriented programs, PLDI, 1990.
– Palsberg et al. Object-Oriented Type Inference, OOPSLA, 1991.
– Gagnon et al. Efficient Inference of Static Types for Java Bytecode, SAS, 2000.
– Sundaresan et al. Practical Virtual Method Call Resolution for Java, OOSPLA, 2000.
– Tip et al. Scalable propagation-based call graph construction algorithms, OOSPLA, 2000.
▪ クラス階層解析
– Dean et al. Optimization of object-oriented programs using static class hierarchy, ECOOP, 1995.
– Bacon et al. Fast Static Analysis of C++ Virtual Function Calls, OOPSLA, 1996.
– Ishizaki et al. A Study of Devirtualization Techniques for a Java Just-In-Time Compiler, OOPSLA, 2000.
– Detlefs et al. Inlining of virtual methods, ECOOP, 1999.
▪ Spilitting
– Chambers et al. Interactive type analysis and extended message splitting; optimizing dynamically-typed object-
oriented programs, PLDI, 1990.
▪ インタフェースメソッド呼び出し
– Alpern et al. Efficient Implementation of Java Interfaces: Invokeinterface Considered Harmless, OOPSLA, 2001.
▪ 適応最適化のサーベイ論文
– Arnold et al. A Survey of Adaptive Optimization in Virtual Machines. IBM Research Report RC23143, 2003.62
© 2017 IBM Corporation
IBM Research - Tokyo
参考文献 (2/2)
▪ On stack replacement / deoptimization
– Holzle et al. Debugging Optimized Code with Dynamic Deoptimization, PLDI, 1992.
– Paleczny et al. The Java HotSpot Server Compiler, JVM, 2001.
– Fink et al. Design, Implementation and Evaluation of Adaptive Recompilation with On-Stack Replacement, CGO,
2003.
– Soman et al. Efficient and general on-stack replacement for aggressive program specialization, PLC, 2006.
– Adaptive inlining and on-stack replacement in the CACAO virtual machine, PPPJ, 2007.
– Lameed et al. A Modular Approach to On-Stack Replacement in LLVM, VEE, 2013.
– Kedlaya et al. Deoptimization for Dynamic Language JITs on Typed, Stack-based Virtual Machines, VEE, 2014.
▪ 石崎のこれまでのスライド
– https://www.slideshare.com/ishizaki/
63

Más contenido relacionado

La actualidad más candente

Volta は、Chainer で使えるの?
Volta は、Chainer で使えるの?Volta は、Chainer で使えるの?
Volta は、Chainer で使えるの?NVIDIA Japan
 
2014 11-20 Machine Learning with Apache Spark 勉強会資料
2014 11-20 Machine Learning with Apache Spark 勉強会資料2014 11-20 Machine Learning with Apache Spark 勉強会資料
2014 11-20 Machine Learning with Apache Spark 勉強会資料Recruit Technologies
 
Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)Seiya Tokui
 
並列対決 Elixir × Go × C# x Scala , Node.js
並列対決 Elixir × Go × C# x Scala , Node.js並列対決 Elixir × Go × C# x Scala , Node.js
並列対決 Elixir × Go × C# x Scala , Node.jsYoshiiro Ueno
 
200625material naruse
200625material naruse200625material naruse
200625material naruseRCCSRENKEI
 
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてChainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてRetrieva inc.
 
サイバーエージェントにおけるMLOpsに関する取り組み at PyDataTokyo 23
サイバーエージェントにおけるMLOpsに関する取り組み at PyDataTokyo 23サイバーエージェントにおけるMLOpsに関する取り組み at PyDataTokyo 23
サイバーエージェントにおけるMLOpsに関する取り組み at PyDataTokyo 23Masashi Shibata
 
深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待Seiya Tokui
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習Takashi Kitano
 
Introduction to Chainer and CuPy
Introduction to Chainer and CuPyIntroduction to Chainer and CuPy
Introduction to Chainer and CuPyKenta Oono
 
C++ AMPを使ってみよう
C++ AMPを使ってみようC++ AMPを使ってみよう
C++ AMPを使ってみようOsamu Masutani
 
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Ryosuke Okuta
 
なにわTech20170218(tpu) tfug
なにわTech20170218(tpu) tfugなにわTech20170218(tpu) tfug
なにわTech20170218(tpu) tfugNatsutani Minoru
 
TensorFlow XLA とハードウェア
TensorFlow XLA とハードウェアTensorFlow XLA とハードウェア
TensorFlow XLA とハードウェアMr. Vengineer
 
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-Yasuyuki Sugai
 
きつねさんでもわかるLlvm読書会 第2回
きつねさんでもわかるLlvm読書会 第2回きつねさんでもわかるLlvm読書会 第2回
きつねさんでもわかるLlvm読書会 第2回Tomoya Kawanishi
 
【関東GPGPU勉強会#4】GTX 1080でComputer Vision アルゴリズムを色々動かしてみる
【関東GPGPU勉強会#4】GTX 1080でComputer Visionアルゴリズムを色々動かしてみる【関東GPGPU勉強会#4】GTX 1080でComputer Visionアルゴリズムを色々動かしてみる
【関東GPGPU勉強会#4】GTX 1080でComputer Vision アルゴリズムを色々動かしてみるYasuhiro Yoshimura
 
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)智啓 出川
 

La actualidad más candente (20)

Volta は、Chainer で使えるの?
Volta は、Chainer で使えるの?Volta は、Chainer で使えるの?
Volta は、Chainer で使えるの?
 
2014 11-20 Machine Learning with Apache Spark 勉強会資料
2014 11-20 Machine Learning with Apache Spark 勉強会資料2014 11-20 Machine Learning with Apache Spark 勉強会資料
2014 11-20 Machine Learning with Apache Spark 勉強会資料
 
Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)
 
並列対決 Elixir × Go × C# x Scala , Node.js
並列対決 Elixir × Go × C# x Scala , Node.js並列対決 Elixir × Go × C# x Scala , Node.js
並列対決 Elixir × Go × C# x Scala , Node.js
 
200625material naruse
200625material naruse200625material naruse
200625material naruse
 
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてChainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
 
サイバーエージェントにおけるMLOpsに関する取り組み at PyDataTokyo 23
サイバーエージェントにおけるMLOpsに関する取り組み at PyDataTokyo 23サイバーエージェントにおけるMLOpsに関する取り組み at PyDataTokyo 23
サイバーエージェントにおけるMLOpsに関する取り組み at PyDataTokyo 23
 
深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 
Introduction to Chainer and CuPy
Introduction to Chainer and CuPyIntroduction to Chainer and CuPy
Introduction to Chainer and CuPy
 
C++ AMPを使ってみよう
C++ AMPを使ってみようC++ AMPを使ってみよう
C++ AMPを使ってみよう
 
Thinking in Cats
Thinking in CatsThinking in Cats
Thinking in Cats
 
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能
 
なにわTech20170218(tpu) tfug
なにわTech20170218(tpu) tfugなにわTech20170218(tpu) tfug
なにわTech20170218(tpu) tfug
 
TensorFlow XLA とハードウェア
TensorFlow XLA とハードウェアTensorFlow XLA とハードウェア
TensorFlow XLA とハードウェア
 
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
 
きつねさんでもわかるLlvm読書会 第2回
きつねさんでもわかるLlvm読書会 第2回きつねさんでもわかるLlvm読書会 第2回
きつねさんでもわかるLlvm読書会 第2回
 
【関東GPGPU勉強会#4】GTX 1080でComputer Vision アルゴリズムを色々動かしてみる
【関東GPGPU勉強会#4】GTX 1080でComputer Visionアルゴリズムを色々動かしてみる【関東GPGPU勉強会#4】GTX 1080でComputer Visionアルゴリズムを色々動かしてみる
【関東GPGPU勉強会#4】GTX 1080でComputer Vision アルゴリズムを色々動かしてみる
 
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
2015年度GPGPU実践プログラミング 第10回 行列計算(行列-行列積の高度な最適化)
 
pg_trgmと全文検索
pg_trgmと全文検索pg_trgmと全文検索
pg_trgmと全文検索
 

Similar a 20171212 titech lecture_ishizaki_public

20221226_TITECH_lecture_ishizaki_public.pdf
20221226_TITECH_lecture_ishizaki_public.pdf20221226_TITECH_lecture_ishizaki_public.pdf
20221226_TITECH_lecture_ishizaki_public.pdfKazuaki Ishizaki
 
「C言語規格&MISRA-C:みんなで楽しいCプログラミング」NGK2013B名古屋合同懇親会2013忘年会昼の部
「C言語規格&MISRA-C:みんなで楽しいCプログラミング」NGK2013B名古屋合同懇親会2013忘年会昼の部「C言語規格&MISRA-C:みんなで楽しいCプログラミング」NGK2013B名古屋合同懇親会2013忘年会昼の部
「C言語規格&MISRA-C:みんなで楽しいCプログラミング」NGK2013B名古屋合同懇親会2013忘年会昼の部Kiyoshi Ogawa
 
Metaprogramming Universe in C# - 実例に見るILからRoslynまでの活用例
Metaprogramming Universe in C# - 実例に見るILからRoslynまでの活用例Metaprogramming Universe in C# - 実例に見るILからRoslynまでの活用例
Metaprogramming Universe in C# - 実例に見るILからRoslynまでの活用例Yoshifumi Kawai
 
C#の新機能勉強会 ~ C#7、8の新機能を活用して速く安全なプログラムを書こう~
C#の新機能勉強会 ~ C#7、8の新機能を活用して速く安全なプログラムを書こう~C#の新機能勉強会 ~ C#7、8の新機能を活用して速く安全なプログラムを書こう~
C#の新機能勉強会 ~ C#7、8の新機能を活用して速く安全なプログラムを書こう~Fujio Kojima
 
復習も兼ねて!C#6.0-7.0
復習も兼ねて!C#6.0-7.0復習も兼ねて!C#6.0-7.0
復習も兼ねて!C#6.0-7.0Yuta Matsumura
 
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用de:code 2017
 
さわってみようTOPPERS/SSP
さわってみようTOPPERS/SSPさわってみようTOPPERS/SSP
さわってみようTOPPERS/SSPNSaitoNmiri
 
8 並列計算に向けた pcセッティング
8 並列計算に向けた pcセッティング8 並列計算に向けた pcセッティング
8 並列計算に向けた pcセッティングTakeshi Takaishi
 
GoF デザインパターン 2009
GoF デザインパターン 2009GoF デザインパターン 2009
GoF デザインパターン 2009miwarin
 
2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest informationSony Network Communications Inc.
 
最新アドテク×Java script実践活用術
最新アドテク×Java script実践活用術最新アドテク×Java script実践活用術
最新アドテク×Java script実践活用術Nagao Shun
 
Replace Output Iterator and Extend Range JP
Replace Output Iterator and Extend Range JPReplace Output Iterator and Extend Range JP
Replace Output Iterator and Extend Range JPAkira Takahashi
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイドEtsuji Nakai
 
Live Coding で学ぶ C# 7
Live Coding で学ぶ C# 7Live Coding で学ぶ C# 7
Live Coding で学ぶ C# 7Takaaki Suzuki
 
C++0xの概要(デブサミ2010)
C++0xの概要(デブサミ2010)C++0xの概要(デブサミ2010)
C++0xの概要(デブサミ2010)Akira Takahashi
 
C言語 学習教材
C言語 学習教材C言語 学習教材
C言語 学習教材Jun MITANI
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也harePreferred Networks
 
第2回デザインパターン資料
第2回デザインパターン資料第2回デザインパターン資料
第2回デザインパターン資料gaaupp
 
Swift 2.0 大域関数の行方から #swift2symposium
Swift 2.0 大域関数の行方から #swift2symposiumSwift 2.0 大域関数の行方から #swift2symposium
Swift 2.0 大域関数の行方から #swift2symposiumTomohiro Kumagai
 

Similar a 20171212 titech lecture_ishizaki_public (20)

20221226_TITECH_lecture_ishizaki_public.pdf
20221226_TITECH_lecture_ishizaki_public.pdf20221226_TITECH_lecture_ishizaki_public.pdf
20221226_TITECH_lecture_ishizaki_public.pdf
 
boost - std - C#
boost - std - C#boost - std - C#
boost - std - C#
 
「C言語規格&MISRA-C:みんなで楽しいCプログラミング」NGK2013B名古屋合同懇親会2013忘年会昼の部
「C言語規格&MISRA-C:みんなで楽しいCプログラミング」NGK2013B名古屋合同懇親会2013忘年会昼の部「C言語規格&MISRA-C:みんなで楽しいCプログラミング」NGK2013B名古屋合同懇親会2013忘年会昼の部
「C言語規格&MISRA-C:みんなで楽しいCプログラミング」NGK2013B名古屋合同懇親会2013忘年会昼の部
 
Metaprogramming Universe in C# - 実例に見るILからRoslynまでの活用例
Metaprogramming Universe in C# - 実例に見るILからRoslynまでの活用例Metaprogramming Universe in C# - 実例に見るILからRoslynまでの活用例
Metaprogramming Universe in C# - 実例に見るILからRoslynまでの活用例
 
C#の新機能勉強会 ~ C#7、8の新機能を活用して速く安全なプログラムを書こう~
C#の新機能勉強会 ~ C#7、8の新機能を活用して速く安全なプログラムを書こう~C#の新機能勉強会 ~ C#7、8の新機能を活用して速く安全なプログラムを書こう~
C#の新機能勉強会 ~ C#7、8の新機能を活用して速く安全なプログラムを書こう~
 
復習も兼ねて!C#6.0-7.0
復習も兼ねて!C#6.0-7.0復習も兼ねて!C#6.0-7.0
復習も兼ねて!C#6.0-7.0
 
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
 
さわってみようTOPPERS/SSP
さわってみようTOPPERS/SSPさわってみようTOPPERS/SSP
さわってみようTOPPERS/SSP
 
8 並列計算に向けた pcセッティング
8 並列計算に向けた pcセッティング8 並列計算に向けた pcセッティング
8 並列計算に向けた pcセッティング
 
GoF デザインパターン 2009
GoF デザインパターン 2009GoF デザインパターン 2009
GoF デザインパターン 2009
 
2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information
 
最新アドテク×Java script実践活用術
最新アドテク×Java script実践活用術最新アドテク×Java script実践活用術
最新アドテク×Java script実践活用術
 
Replace Output Iterator and Extend Range JP
Replace Output Iterator and Extend Range JPReplace Output Iterator and Extend Range JP
Replace Output Iterator and Extend Range JP
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 
Live Coding で学ぶ C# 7
Live Coding で学ぶ C# 7Live Coding で学ぶ C# 7
Live Coding で学ぶ C# 7
 
C++0xの概要(デブサミ2010)
C++0xの概要(デブサミ2010)C++0xの概要(デブサミ2010)
C++0xの概要(デブサミ2010)
 
C言語 学習教材
C言語 学習教材C言語 学習教材
C言語 学習教材
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
 
第2回デザインパターン資料
第2回デザインパターン資料第2回デザインパターン資料
第2回デザインパターン資料
 
Swift 2.0 大域関数の行方から #swift2symposium
Swift 2.0 大域関数の行方から #swift2symposiumSwift 2.0 大域関数の行方から #swift2symposium
Swift 2.0 大域関数の行方から #swift2symposium
 

Más de Kazuaki Ishizaki

20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdf20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdfKazuaki Ishizaki
 
Make AI ecosystem more interoperable
Make AI ecosystem more interoperableMake AI ecosystem more interoperable
Make AI ecosystem more interoperableKazuaki Ishizaki
 
Enabling Vectorized Engine in Apache Spark
Enabling Vectorized Engine in Apache SparkEnabling Vectorized Engine in Apache Spark
Enabling Vectorized Engine in Apache SparkKazuaki Ishizaki
 
SQL Performance Improvements At a Glance in Apache Spark 3.0
SQL Performance Improvements At a Glance in Apache Spark 3.0SQL Performance Improvements At a Glance in Apache Spark 3.0
SQL Performance Improvements At a Glance in Apache Spark 3.0Kazuaki Ishizaki
 
In-Memory Evolution in Apache Spark
In-Memory Evolution in Apache SparkIn-Memory Evolution in Apache Spark
In-Memory Evolution in Apache SparkKazuaki Ishizaki
 
Looking back at Spark 2.x and forward to 3.0
Looking back at Spark 2.x and forward to 3.0Looking back at Spark 2.x and forward to 3.0
Looking back at Spark 2.x and forward to 3.0Kazuaki Ishizaki
 
Demystifying DataFrame and Dataset
Demystifying DataFrame and DatasetDemystifying DataFrame and Dataset
Demystifying DataFrame and DatasetKazuaki Ishizaki
 
Transparent GPU Exploitation for Java
Transparent GPU Exploitation for JavaTransparent GPU Exploitation for Java
Transparent GPU Exploitation for JavaKazuaki Ishizaki
 
Making Hardware Accelerator Easier to Use
Making Hardware Accelerator Easier to UseMaking Hardware Accelerator Easier to Use
Making Hardware Accelerator Easier to UseKazuaki Ishizaki
 
20160906 pplss ishizaki public
20160906 pplss ishizaki public20160906 pplss ishizaki public
20160906 pplss ishizaki publicKazuaki Ishizaki
 
Easy and High Performance GPU Programming for Java Programmers
Easy and High Performance GPU Programming for Java ProgrammersEasy and High Performance GPU Programming for Java Programmers
Easy and High Performance GPU Programming for Java ProgrammersKazuaki Ishizaki
 
20151112 kutech lecture_ishizaki_public
20151112 kutech lecture_ishizaki_public20151112 kutech lecture_ishizaki_public
20151112 kutech lecture_ishizaki_publicKazuaki Ishizaki
 
Java Just-In-Timeコンパイラ
Java Just-In-TimeコンパイラJava Just-In-Timeコンパイラ
Java Just-In-TimeコンパイラKazuaki Ishizaki
 
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化Kazuaki Ishizaki
 

Más de Kazuaki Ishizaki (19)

20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdf20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdf
 
Make AI ecosystem more interoperable
Make AI ecosystem more interoperableMake AI ecosystem more interoperable
Make AI ecosystem more interoperable
 
Enabling Vectorized Engine in Apache Spark
Enabling Vectorized Engine in Apache SparkEnabling Vectorized Engine in Apache Spark
Enabling Vectorized Engine in Apache Spark
 
SQL Performance Improvements At a Glance in Apache Spark 3.0
SQL Performance Improvements At a Glance in Apache Spark 3.0SQL Performance Improvements At a Glance in Apache Spark 3.0
SQL Performance Improvements At a Glance in Apache Spark 3.0
 
SparkTokyo2019
SparkTokyo2019SparkTokyo2019
SparkTokyo2019
 
In-Memory Evolution in Apache Spark
In-Memory Evolution in Apache SparkIn-Memory Evolution in Apache Spark
In-Memory Evolution in Apache Spark
 
icpe2019_ishizaki_public
icpe2019_ishizaki_publicicpe2019_ishizaki_public
icpe2019_ishizaki_public
 
hscj2019_ishizaki_public
hscj2019_ishizaki_publichscj2019_ishizaki_public
hscj2019_ishizaki_public
 
Looking back at Spark 2.x and forward to 3.0
Looking back at Spark 2.x and forward to 3.0Looking back at Spark 2.x and forward to 3.0
Looking back at Spark 2.x and forward to 3.0
 
Demystifying DataFrame and Dataset
Demystifying DataFrame and DatasetDemystifying DataFrame and Dataset
Demystifying DataFrame and Dataset
 
Transparent GPU Exploitation for Java
Transparent GPU Exploitation for JavaTransparent GPU Exploitation for Java
Transparent GPU Exploitation for Java
 
Making Hardware Accelerator Easier to Use
Making Hardware Accelerator Easier to UseMaking Hardware Accelerator Easier to Use
Making Hardware Accelerator Easier to Use
 
20160906 pplss ishizaki public
20160906 pplss ishizaki public20160906 pplss ishizaki public
20160906 pplss ishizaki public
 
Exploiting GPUs in Spark
Exploiting GPUs in SparkExploiting GPUs in Spark
Exploiting GPUs in Spark
 
Easy and High Performance GPU Programming for Java Programmers
Easy and High Performance GPU Programming for Java ProgrammersEasy and High Performance GPU Programming for Java Programmers
Easy and High Performance GPU Programming for Java Programmers
 
Exploiting GPUs in Spark
Exploiting GPUs in SparkExploiting GPUs in Spark
Exploiting GPUs in Spark
 
20151112 kutech lecture_ishizaki_public
20151112 kutech lecture_ishizaki_public20151112 kutech lecture_ishizaki_public
20151112 kutech lecture_ishizaki_public
 
Java Just-In-Timeコンパイラ
Java Just-In-TimeコンパイラJava Just-In-Timeコンパイラ
Java Just-In-Timeコンパイラ
 
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
 

20171212 titech lecture_ishizaki_public

  • 1. © 2017 IBM Corporation 数理・計算科学特論C プログラミング言語処理系の最先端実装技術 第6講 inliningとdevirtualization 2017年12月12日 日本アイ・ビー・エム(株) 東京基礎研究所 石崎 一明 kiszk@acm.org IBM Research - Tokyo
  • 2. © 2017 IBM Corporation IBM Research - Tokyo 自己紹介 石崎 一明(いしざき かずあき) http://ibm.biz/ishizaki 1992年3月 早稲田大学理工学研究科修士課程電気工学専攻を修了。 1992年4月 日本アイ・ビー・エム(株)入社、東京基礎研究所勤務。以来、並列化コンパイラ、動的 コンパイラ、アプリケーション最適化、などの研究に従事。最近は、GPGPUのためのコンパイル技術 の研究、Apache Sparkの高速化、に従事。現在、同研究所シニア・テクニカル・スタッフ・メンバー 2002年12月 早稲田大学理工学研究科にて、博士(情報科学)を取得。 2008年から2009年まで、IBMワトソン研究所に滞在。 2004年に情報処理学会業績賞受賞。ACMシニアメンバー、情報処理学会シニアメンバー 主なAcademic Activity 2004, 5年 日本ソフトウェア科学会PPL 2004/2005ワークショップ プログラム委員 2006年 日本ソフトウェア科学会PPL 2006ワークショップ プログラム共同委員長 2008年 PC Member of ACM OOPSLA 2013 Conference 2007~2009年度 日本ソフトウェア科学会プログラミング論研究会 運営委員 2011~2014年度 情報処理学会アーキテクチャ研究会 運営委員 2015年~ 日本ソフトウェア科学会理事 2016年度~ 情報処理学会プログラミング研究会 運営委員 2017年 PC Member of IEEE BigData 2017 2
  • 3. © 2017 IBM Corporation IBM Research - Tokyo 講義予定のおさらい と 今回のトピック 3 Topic Lecturer Date Time 1 Runtime – JVM Overview & Interpreter 緒方 11/30 木 13:20~14:50 2 Runtime – Object Management & Synchronization 河内谷 12/5 火 13:20~14:50 3 Runtime – Native Memory Management 緒方 12/5 火 15:05~16:35 4 Compiler – Overview 仲池 12/7 木 13:20~14:50 5 Compiler – Dataflow Analysis 稲垣 12/12 火 13:20~14:50 6 Compiler – Devirtualization & Inlining 石崎 12/12 火 15:05~16:35 7 Hot topic – X10 竹内 12/14 木 13:20~14:50 8 Hot topic – Open Source Java VM 堀江 12/19 火 13:20~14:50 9 Hot topic – Full-stack Optimization 堀井 12/19 火 15:05~16:35 10 Compiler – Trace Compilation & LLVM 井上 12/21 木 13:20~14:50 11 Hot topic – H/W Acceleration (GPGPU, HTM, FPGA) 石崎 1/9 火 13:20~14:50 12 まとめと展望 小野寺 1/9 火 15:05~16:35
  • 4. © 2017 IBM Corporation IBM Research - Tokyo 今日の講義内容 ▪ メソッド呼び出しの実行時間に関する最適化 – Method inlining • 直接メソッド呼び出しにおいてInliningするメソッドの決定 –メソッド呼び出しのdevirtualization • 仮想メソッド呼び出しから直接メソッド呼び出しへの変換 ▪ 異なるコード間の実行の遷移について – コンパイルコードからインタープリタへ – インタープリタからコンパイルコードへ 4 今日の話の前提は、コンパイル単位は メソッドです。 メソッド以外のコンパイル単位の話は、 12/21の10講で。
  • 5. © 2017 IBM Corporation IBM Research - Tokyo 今日の授業でわかること(1/2) ▪ メソッド呼び出しの最適化 – Super.div()の呼び出しとその実行を、どうやって高速化するか? – s.add()のような、仮想メソッド呼び出し(呼び出し先が一意に決まらない可能 性がある)の実行を、どうやって高速化するか? 5 class Super { public int add(int i) { return i + 9; } public int mul(int i) { return i * 9; } public static final int div(int i) { return (i != 0) ? (4 / i) : 0;} public static int calc() { int r = Super.div(2) + 3; return r; } } class Sub1 extends Super { public int add(int i) { return i + 1; } public int foo(...) { ... } public static int calc1(Super s) { int r = s.add(2) + 3; return r; } }
  • 6. © 2017 IBM Corporation IBM Research - Tokyo 今日の授業でわかること(2/2) ▪ メソッドの実行遷移の最適化 – s.add()でSub2.add()がよく呼ばれることがわかった時、”長いコード”をコンパ イルしないようにできないか? – 1度だけ呼び出されるmain()メソッド内にあるSuper.div()へのメソッド呼び出し を、どうやってmethod inliningするか? 6 class Sub2 extends { public int add(int i) { return i + 2; } public static int calc2(Super s) { int r = s.add(-2); if (r != 0) { ... // 長いコード } return r; } } class Super { public static final int div(int i) { return (i != 0) ? (4 / i) : 0;} public static void main(String args[]) { for (int i = 0; i < 100000; i++) { int r = Super.div(2) + 3; System.println(r); } } }
  • 7. © 2017 IBM Corporation IBM Research - Tokyo Method inlining 7
  • 8. © 2017 IBM Corporation IBM Research - Tokyo Method inining(inline expansion – インライン展開) ▪ あるメソッド呼び出しによって呼びされるメソッド(呼び出し先)の本体のコピー で、メソッド呼び出しを置き換える – 引数で渡されて性質がわからないオブジェクトを明確にする –パラメータをローカルなコードにする – 呼び出し手続きを最適化するのに有用 8
  • 9. © 2017 IBM Corporation IBM Research - Tokyo Method inining(inline expansion – インライン展開) ▪ 実際の適用例 9 class Super { public static final int div(int i) { return (i != 0) ? (4/i) : 0; } public static int calc() { int r = Super.div(2); return r; } } プログラム public static int calc() { int r = (2 != 0) ? (4 / 2) : 0; return r; }
  • 10. © 2017 IBM Corporation IBM Research - Tokyo なぜmethod inliningを行うのか? ▪ プロセッサ上での問題の軽減 – 直接メソッド呼び出しや仮想メソッド呼び出しが使用する命令が、プロセッサ 内のパイプライン実行を乱す ▪ コンパイラによって生成されるコードの質の問題の軽減 – コンパイル単位を大きくして、最適化をより適用したい • 一般にオブジェクト指向言語では、メソッドの大きさが小さくなりがち • 仮想メソッドの場合にはdevirtualizationが必要 – メソッド呼び出しのオーバヘッドの削減 10
  • 11. © 2017 IBM Corporation IBM Research - Tokyo method inliningの前提 ▪ 元の動作を変更してはいけない – 外部から見える値(volatile変数など) – 例外・同期が起きた時 ▪ 実行時間をMethod inliningしないときより減らしたい – ハードウェアのリソース(メモリ、命令キャッシュなど)を使いすぎない ▪ コンパイル時間の増加をほどほどに 11
  • 12. © 2017 IBM Corporation IBM Research - Tokyo 直接メソッド呼び出し(direct method call) ▪ コンパイル時に、プログラム上の情報から呼び出し先が一意に決定可能 – 直接分岐命令(call address)の使用 12 ... call method_div ... method_div: ... ret class Super { public static final int div(int i) { ... } public static int calc() { ... Super.div(2) ... ... } } プログラム 機械語命令
  • 13. © 2017 IBM Corporation IBM Research - Tokyo 仮想メソッド呼び出し(virtual method call) ▪ コンパイル時に、呼び出し先が一意に決定できない ▪ 実行時に呼び出し先を決定する機構(表引き、など)が必要 – 間接分岐命令(call reg)の使用 13 Super s class Sub1 extends Super { public int add(int i) { ... } public int sub(int i) { ... } public static int calc1(Super s) { ... s.add(2) ... ... } } ... // r3 = object of Super ld r2, (r3+offset_class_in_object) ld r1, (r2+offset_vtableadd_in_class) ld r0, (r1+offset_code_in_method) call r0 ... プログラム 機械語命令 class Sub1 mul foo virtual table add code method Sub1.add r3 r2 r1 binary code r0 sub 同じメソッドはクラス階層内で 同じオフセットを持つ
  • 14. © 2017 IBM Corporation IBM Research - Tokyo (昔の)プロセッサ上での問題の軽減 ▪ 直接分岐のオーバヘッド – 命令アドレスが連続する次の命令アドレス、ではなくなるので、命令パイプ ライン内の実行を乱す(ハザードの発生) –最近のプロセッサは、命令パイプラインの早い段階(Idecなど)で分岐先ア ドレスを生成するので、ハザードは少ない 14 IFetch IDec Exec WB IFetch IDec Exec WB IFetch IDec Exec WB IFetch IDec Exec WB call method_div add r3 = r11, r12 mov r4 = r3 method_div: mov r4 = r3 method_div
  • 15. © 2017 IBM Corporation IBM Research - Tokyo (昔の)プロセッサ上での問題の軽減 ▪ 間接分岐のオーバヘッド – 分岐先の命令アドレスが決定するのに時間がかかるので、命令パイプライ ン内の実行を乱し、ハザードを発生する – 最近のプロセッサは命令パイプラインの早い段階で(Idecなど)、強力な分 岐予測機構によって、分岐先アドレスを生成するので、ハザードは少ない • 命令アドレスから、過去の分岐履歴に基づいて分岐先アドレスを予測す る 15 IFetch IDec Exec WB IFetch IDec Exec WB IFetch IDec Exec WB IFetch IDec Exec Load r0,...(r1) call r0 ... method_Sub1add: ... method_Sub1add r0 WB
  • 16. © 2017 IBM Corporation IBM Research - Tokyo コンパイラによって生成されるコードの問題 ▪ 機械語命令のcall命令による、メソッドの呼び出し // s.add(2)の呼び出し ... call method_add ... 機械語命令
  • 17. © 2017 IBM Corporation IBM Research - Tokyo ABIのコードの問題 ▪ 現実の処理系におけるメソッド呼び出しの際には、プログラムからは見えない、 application binary interface(ABI)にもとづいた処理が必要になる // s.add(2)の呼び出し ... mov r4 = 2 // 第2引数 2 mov r3 = r10 // 第1引数 s call method_add mov r4 = r3 // 戻り値 ... sp lower address スタックフレーム 機械語命令
  • 18. © 2017 IBM Corporation IBM Research - Tokyo ABIのコードの問題 ▪ 現実の処理系におけるメソッド呼び出しの際には、プログラムからは見えない、 application binary interface(ABI)にもとづいた処理が必要になる – メソッド呼び出しがなくなれば、これらの処理は減る 18 // s.add(2)の呼び出し ... mov r4 = 2 // 第2引数 2 mov r3 = r10 // 第1引数 s call method_add mov r4 = r3 // 戻り値 ... // s.add(2)のメソッド入り口 method_add: st (sp+8), Return// 前のスタックフレーム上へ // 戻りアドレスを保存 mov r0, sp // 古いスタック値の保存 sub sp = sp - 64 // 新しいスタックの作成 st (sp+0), r0 // 新しいスタックから // 古いスタックへのリンク作成 mov r16 = r4 // 第2引数の受け取り ... sp sp Return lower address スタックフレーム s.add() Return 機械語命令
  • 19. © 2017 IBM Corporation IBM Research - Tokyo 複雑な引数を渡す際のコードの問題 ▪ 引数渡しの際に、プログラムからは見えない、重い処理を伴うことがある – 可変長引数 – キーワード引数(ruby, pythonなど) 19 class Super { void print(int i, int j, int k) { System.out.printf(“%d %d¥n”, i, j); } } プログラム def add(a:1, b:2) a + b end add(a: 1.2, b: 3.4) プログラム
  • 20. © 2017 IBM Corporation IBM Research - Tokyo 複雑な引数を渡す際のコードの問題 ▪ 引数渡しの際に、プログラムからは見えない、重い処理を伴うことがある – 可変長引数 • Javaの場合、オブジェクトが生成される – キーワード引数(ruby, pythonなど) • ハッシュ表を生成して渡している 20 class Super { void print(int i, int j, int k) { System.out.printf(“%d %d¥n”, i, j); } } class Super { void print(int i, int j, int k) { System.out.printf("%d %d¥n", new Object[] { Integer.valueOf(i), Integer.valueOf(j) }); } } プログラム javacでコンパイルされた結果 def add(a:1, b:2) a + b end add(a: 1.2, b: 3.4) def add(a:1, b:2) a + b end add(a: 1.2, b: 3.4) {a=>1.2, b=>3.4} キーワード引数で渡される実体プログラム
  • 21. © 2017 IBM Corporation IBM Research - Tokyo コンパイラによって生成されるコードの問題の軽減 ▪ コンパイル単位の範囲の増加 – 最適化(特にデータフロー解析)の適用範囲が広がる 21 class Super { public static final int div(int i) { return (i != 0) ? (4 / i) : 0;} public static int calc() { int r = Super.div(2) + 3; return r; } } public static int calc() { int r = ((2 != 0) ? (4 / 2) : 0) + 3; return r; } public static int calc() { return 5; } Super.div(2)を、呼び出し先のコードで置き換え コンパイル時に式を評価する
  • 22. © 2017 IBM Corporation IBM Research - Tokyo Method inliningを行うメソッドの特定 ▪ 呼び出し先メソッドが、容易に一意に特定できる場合 – 直接メソッド呼び出しの場合 22 class Super { public int add(int i) { return i + 9; } public static final int div(int i) { return (i != 0) ? (4 / i) : 0;} public static int calc() { int r = Super.div(2) + 3; return r; } }
  • 23. © 2017 IBM Corporation IBM Research - Tokyo Method inliningを行うか行わないかの判断 ▪ (私見では)決定解はこれまでにない。 時代(プロセッサアーキテクチャ、言語)によって良い解法が異なるのでは? – 静的情報 • 呼び出し先メソッドの大きさ –コンパイル時間が長くならないに –命令キャッシュが溢れないように • 制御フローの形 –呼び出し先メソッドを先読みして、method inliningを行った場合最適 化が適用できるか判断する • … – 動的情報 • 実行中に集められた実行時のメソッド実行頻度に基づく –ハードウェアカウンタから、メソッド実行頻度を推定可能 • 実行中に集められた引数の値にもとづいて、 method inliningを行った 場合最適化が適用できるか判断する 23
  • 24. © 2017 IBM Corporation IBM Research - Tokyo Devirtualization 24
  • 25. © 2017 IBM Corporation IBM Research - Tokyo Method inliningを行う呼び出し先メソッドの特定 ▪ メソッドの呼び出し先を一意に特定することが難しい場合 – 仮想メソッド呼び出し – インターフェースメソッド呼び出し 25 call s.add() Sub1.add() Super.add() Sub2.add() ...
  • 26. © 2017 IBM Corporation IBM Research - Tokyo Devirtualizationによって特定 ▪ 複数の呼び出し先を、特定した1つとその他、に分ける – 仮想呼び出しではなくなっている、のでdevirtualization(脱仮想化) ▪ 分ける方法 –Guarded devirtualization – Direct devirtualization 26 call s.add() call Sub2.add() call s.add() Sub1.add() Super.add() Sub2.add() ...
  • 27. © 2017 IBM Corporation IBM Research - Tokyo Guarded devirtualizationによって特定 ▪ 複数の呼び出し先を条件分岐(ガード)によって、特定した1つとその他、に分 ける ▪ 実行時情報などからガードを挿入して、呼び出し先を特定 – Method test [Calder1994] – Class test [Grove1995] ▪ 複数の呼び出し先を特定 – Polymorphic inline cache [Chambers1991] 27 call s.add() call Sub2.add() ガード call s.add() Sub1.add() Super.add() Sub2.add() ...
  • 28. © 2017 IBM Corporation IBM Research - Tokyo Direct devirtualizationによって特定 ▪ プログラム解析などによってガード無しで1つであることを特定する – 解析の結果、複数個に特定できる場合もある ▪ (通常)ガード無しで、1つの呼び出し先を特定 –Type analysis [Chamber1990] – Class hierarchy analysis [Dean1995, Ishizaki2000] – Rapid type analysis [Bacon1996] – Preexistence [Detletf1999] 28 call s.mul() call Super.mul() Super.mul() ...
  • 29. © 2017 IBM Corporation IBM Research - Tokyo Guarded devirtualizationの手法 ▪ 元のコード ▪ 直接メソッド呼び出しもしくはmethod inliningされているコードを呼び出してよ いか、ガードの比較結果に基づいて判断する。 29 Super s ... // r3 = object in s ld r2, offset_class_in_object(r3) ld r1, offset_vtableadd_in_class(r2) ld r0, offset_code_in_method(r3) call r0 ... class Sub2 mul div virtual table add code method Sub2.add Method test(メソッドの一致で判断)Class test(クラスの一致で判断) // r3 = object in s ld r2, offset_class_in_object(r3) if (r2 == #address_of_classSub1) { call Sub2.add / exec inlined code } else { ld r1, offset_vtableadd_in_class(r2) ld r0, offset_code_in_method(r1) call r0 } // r3 = object in s load r2, offset_class_in_object(r3) load r1, offset_vtableadd_in_class(r2) if (r1 == #address_of_methodSub1add) { call Sub2.add / exec inlined code } else { load r0, offset_code_in_method(r1) call r0 } 機械語命令 機械語命令
  • 30. © 2017 IBM Corporation IBM Research - Tokyo Class testとMethod testの違い ▪ Method testのほうがメモリからのロードが1つ多いが、呼び出し先を特定する 精度が高い – 下記のプログラムにおいて、sにSub3のインスタンスが渡されると • Class test(s.mul()はSuperでガードされていると仮定)では、 Super != Sub3でガードの条件が成立せず、仮想メソッド呼び出しを実 行する必要がある。 • Method testでは、&Super.mul() == &Sub3.mul()となりガードの条件が 成立し、呼び出し先を一意に決定することができ、直接メソッド呼び出し を実行可能。 –Sub3ではmul()が定義されていないが Superからvirtual tableを継承して 同じメソッド情報を持つ public int foo(Super s) { ... s.mul(3) ... } class Super mul() class Sub3 30
  • 31. © 2017 IBM Corporation IBM Research - Tokyo Polymorphic inline cache (PIC) ▪ 複数の呼び出し先を持つメソッド呼び出しの高速化のために、複数のガードを 挿入する – 複数のメソッドがオーバライドしている仮想メソッド呼び出し –複数のクラスがimplementしているインターフェース呼び出し 31 class Super add() class Sub1 add() class Sub2 add() // r1 = object in s load r2, offset_class_in_object(r1) if (r2 == #address_of_classSuper) { call Super.add / exec inlined code else if (r2 == #address_of_classSub1) { call Sub1.add / exec inlined code else if (r2 == #address_of_classSub2) { call Sub2.add / exec inlined code } else { load r3, offset_vtableadd_in_class(r2) load r4, offset_code_in_method(r3) call r4 } 機械語命令
  • 32. © 2017 IBM Corporation IBM Research - Tokyo Direct devirtualizationの必要性 ▪ ガードを挿入したguarded devirtualization、はSmalltalkなどの動的型付け言 語で盛んに研究されてきた – 仮想メソッド呼び出しの実行コストが大きいので、実行時間の短縮に貢献 ▪ Javaなどの静的型付け言語では、仮想メソッド呼び出しの実行コストと、 guarded devirtualization+直接呼び出しによる実行コストは、あまり差がない – guarded devirtualization+method inlining –ガード無しのdirect devirtualizationによる、実行時間の短縮の要求 32 動的型付け言語でprototypeベースのような構造が動的に変わるような処理系 (例えばJavaScript)での問題と解法については、下記の論文などがあります “Improving JavaScript Performance by Deconstructing the Type System”, 2014
  • 33. © 2017 IBM Corporation IBM Research - Tokyo Direct devirtualizationの手法 ▪ クラス階層解析(Class hierarchy analysis, CHA)を必要としない方法 – Type analysis [Chamber1990] – Value type analysis (VTA) [Sundaresan2000] –Extended type analysis (XTA) [Tip2000] • Type analysisをメソッド間に拡張 ▪ クラス階層解析を必要とする方法 – Class hierarchy analysis (CHA) [Dean1995] – Rapid type analysis (RTA) [Bacon1996] – Class hierarchy analysis with code patching [Ishizaki2000] – Preexistence [Detletf1999] 33
  • 34. © 2017 IBM Corporation IBM Research - Tokyo 形解析(type analysis) ▪ メソッド呼び出しのレシーバーに到達するオブジェクトの型をデータフロー解析 によって求める。 ▪ 型が一意に決定する場合には、呼び出し先のメソッドを一意に決定可能。 –仮想メソッド呼び出しを、直接メソッド呼び出しに変換、もしくはMethod inliningが可能 34 ... // r3 = s call method_Sub1add ... method_Sub1add: ... ret s.add()のsに到達する のはSub1だけなので、 Sub1.add()が必ず 呼び出される public int bar() { Super s = new Sub1(); ... ... s.add(4) ... } レシーバー 機械語命令
  • 35. © 2017 IBM Corporation IBM Research - Tokyo クラス階層解析(Class hierarchy analysis - CHA) ▪ プログラム全体のクラス階層においてどのメソッドが定義されているかを調べる – 各クラスがメソッド呼び出しのレシーバーとなった時に、とり得るメソッド集合 を集める • 集合内のメソッド数が少ないほど、devirtualizationの効率が高くなる ▪ Javaの場合、実行中にクラスロード・アンロードが発生するので、クラス階層を 常にメンテナンスする必要がある。 35 class Super mul() class Sub3 class Sub4 mul() とり得る メソッド集合{} Super: {Super.mul()} とり得る メソッド集合{} Super: {Super.mul(), Sub4.mul()} Sub3: {Super.mul()} Sub3: {Super.mul()} Sub4: {Sub4.mul()} class Super mul() class Sub3 SuperかSub3クラスの どちらでも、呼び出され る実装はSuper.mul() Sub3クラスだけだが、 呼び出される実装は Super.mul()
  • 36. © 2017 IBM Corporation IBM Research - Tokyo Rapid type analysis(RTA) ▪ CHAより、とりえるメソッド集合を減らす方法 – メソッド集合内のメソッド数が少ないほど、devirtualizationの効率が高い ▪ CHAに加えて、プログラム中でクラスがinstantiation(Javaならnew)されてるか 調べる。 – Instantiationされないクラスのメソッド(Sub4.mul())は、メソッド集合に入らな い 36 class Super mul() class Sub3 class Sub4 mul() Super: {Super.mul(), Sub4.mul(), Sub5.mul()} Sub3: {Super.mul()} Sub4: {Sub4.mul(), Sub5.mul()} プログラム中に、 new Super(), new Sub3(), new Sub5()が存在し、 new Sub4()が 存在しないならば Super: {Super.mul(), Sub4.mul(), Sub5.mul()} Sub3: {Super.mul()} Classがレシーバーの 型となった時 とり得るメソッド集合 {} Classがレシーバーの 型となった時 とり得るメソッド集合 {} class Sub5 mul() Sub5: {Sub5.mul()} Sub5: {Sub5.mul()} Sub4: {Sub4.mul(), Sub5.mul()}
  • 37. © 2017 IBM Corporation IBM Research - Tokyo CHAやRTAを使ったdevirtualization ▪ CHAやRTAで求めたメソッド集合を用いて、メソッド呼び出しのレシーバーのオ ブジェクトの型から、呼び出し先となり得るメソッド集合を取得する ▪ メソッド集合の中にメソッドが1つだけ存在するならば、呼び出し先のメソッドを 一意に決定可能。 – 直接メソッド呼び出しに変換、もしくはmethod inliningが可能 37 ... // r3 = s call method_Supermul ... method_Supermul: ... ret s.mul()では Super.mul()が 必ず呼び出される public int foo(Super s) { ... s.mul(3) ... } Super: {Super.mul()} Sub3: {Super.mul()} class Super mul() class Sub3 とり得る メソッド集合{} 機械語命令
  • 38. © 2017 IBM Corporation IBM Research - Tokyo CHA(RTA)とcode patchingによるdevirtualization ▪ Javaではクラス階層が固定ではないので、ある時点のコンパイル時に一意で あった呼び出し先メソッドが、突然複数になることがある – コンパイル時にs.mul()の呼び出し先メソッドが一意であれば、直接メソッド 呼び出しと間接メソッド呼び出しの両方を用意し、直接メソッド呼び出しを実 行する。 38 ... call method_Supermul // 直接呼び出し after_call: ... dynamic_call: ld r2,(r3+offset_class_in_object) ld r1,(r2+offset_vtablemul_in_class) ld r0,(r1+offset_code_in_method) call r0 // 間接呼び出し jmp after_call public int foo(Super s) { ... s.mul(3) ... } class Super mul() class Sub3 Super: {Super.mul()} 機械語命令
  • 39. © 2017 IBM Corporation IBM Research - Tokyo CHA(RTA)とcode patchingによるdevirtualization ▪ Javaではクラス階層が固定ではないので、ある時点のコンパイル時に一意で あった呼び出し先メソッドが、突然複数になることがある – 動的クラスローディングの結果、クラスSub4がロードされメソッドmul()がオ ーバライドされた時は、コードを書き換えて間接メソッド呼び出しを実行する 39 ... jmp dynamic_call after_call: ... dynamic_call: ld r2,(r3+offset_class_in_object) ld r1,(r2+offset_vtablemul_in_class) ld r0,(r1+offset_code_in_method) call r0 // 間接呼び出し jmp after_call public int foo(Super s) { ... s.mul(3) ... } class Super mul() class Sub3 class Sub4 mul() Super: {Super.mul(), Sub4.mul()} 機械語命令
  • 40. © 2017 IBM Corporation IBM Research - Tokyo Preexistence ▪ CHAやRTAの結果から、仮想メソッド呼び出しの呼び出し先のメソッドが一意 であることがわかる – Direct devirtualizationによるコードを生成する ▪ 動的クラスロードの結果、メソッドがオーバライドされたら、他の呼び出し先メソ ッドの呼び出し、にも対応する必要がある – 一般には、実行中のコードの再生成が必要 – 実行中のコードの再生成、ではなく次回の実行までに再コンパイル、とする ことはできないか? • そんな条件は? 40
  • 41. © 2017 IBM Corporation IBM Research - Tokyo Preexistence ▪ CHAやRTAの結果から、仮想メソッド呼び出しの呼び出し先のメソッドが一意 であることがわかる – Direct devirtualizationによるコードを生成する ▪ 動的クラスロードの結果、メソッドがオーバライドされたら、他の呼び出し先メソ ッドの呼び出し、にも対応する必要がある – 一般には、実行中のコードの再生成が必要 – 実行中のコードの再生成、ではなく次回の実行までに再コンパイル、とする ことはできないか? 41 メソッド呼び出しのレシーバーが、呼び出し側のメソッドを実行する前に 決定したオブジェクトのまま変わらない →例えば、メソッドの引数
  • 42. © 2017 IBM Corporation IBM Research - Tokyo Preexistenceの例 ▪ 下記のプログラムにおいて、foo()が呼び出される前に、sに渡されるオブジェク トは存在する(pre-exist) ▪ foo()が実行されれば、引数sはSuperかSub3であり、何が起きても変わらない ▪ s.mul()では、必ずSuper.mul()が呼び出される 42 public int foo(Super s) { ... s.mul(3) ... } class Super mul() class Sub3 ... // r3 = s call method_Supermul ... method_Supermul: ... ret 機械語命令
  • 43. © 2017 IBM Corporation IBM Research - Tokyo Preexistenceの例 ▪ foo()の実行中に、Sub4が動的クラスロードされて、mul()がオーバライドされて も、引数sに関するメソッド呼び出しは、Super.mul()でよい ▪ 次回のfoo()の呼び出しでは、sにSuperかSub4が渡るかで、s.mul()の呼び出 し先が異なる – それまでにメソッドfoo()を、再コンパイルすればよい 43 public int foo(Super s) { ... s.mul(3) ... } class Super mul() class Sub3 class Sub4 mul() ... // r3 = s ld r2,(r3+offset_class_in_object) ld r1,(r2+offset_vtablemul_in_class) ld r0,(r1+offset_code_in_method) call r0 // 間接呼び出し ... 機械語命令
  • 44. © 2017 IBM Corporation IBM Research - Tokyo Guarded devirtualization+method inliningによる問題点 ▪ Method inliningした場合と仮想メソッド呼び出しの制御が合流する – データーフロー解析結果(rの値は?)の精度が悪くなる • Method test, Class test • CHA + code patching ▪ 解決手段 – Splitting – Deoptimization [Holze1992] • すこし後に説明します 44 r = Sub2.add(-2) -> -2 + 2 = 0 ガード r = s.add(-2) class Sub2 extends Super { public int add(int i) { return i + 2; } public static int calc2(Super s) { int r = s.add(-2); if (r != 0) { ... // 長いコード } return r; } } r != 0 // 長いコード r = 0
  • 45. © 2017 IBM Corporation IBM Research - Tokyo Splitting ▪ コードを複製して、制御の合流点の位置を変更して、データフロー解析結果の 精度を下げない(条件分岐におけるrの値は?) – 場合によっては、複製するコード量が 増えることがある 45 r = Sub2.add(-2) -> -2 + 2 = 0 ガード r = s.add(-2)class Sub2 extends Super { public int add(int i) { return i + 2; } public static int calc2(Super s) { int r = s.add(-2); if (r != 0) { ... // 長いコード } return r; } } r != 0 // 長いコード r = 0 r != 0 r != 0
  • 46. © 2017 IBM Corporation IBM Research - Tokyo Splitting ▪ 左側のパスは、r = 0が確定しているので、条件分岐を除去可能 46 r = Sub2.add(-2) -> -2 + 2 = 0 ガード r = s.add(-2)class Sub2 extends Super { public int add(int i) { return i + 2; } public static int calc2(Super s) { int r = s.add(-2); if (r != 0) { ... // 長いコード } return r; } } r != 0 // 長いコード r = 0 r != 0
  • 47. © 2017 IBM Corporation IBM Research - Tokyo 今日の授業でわかること ▪ メソッド呼び出しの最適化 – Super.div()の呼び出しの実行を、どうやって高速化するか? → method inlining – s.add()のような、仮想メソッド呼び出し(呼び出し先が一意に決まらない可能 性がある)の実行を、どうやって高速化するか? → devirtualization 47 class Super { public int add(int i) { return i + 9; } public int mul(int i) { return i * 9; } public static final int div(int i) { return (i != 0) ? (4 / i) : 0;} public static int calc() { int r = Super.div(2) + 3; return r; } } class Sub1 extends Super { public int add(int i) { return i + 1; } public static int calc1(Super s) { int r = s.add(2) + 3; return r; } }
  • 48. © 2017 IBM Corporation IBM Research - Tokyo 今日の授業でわかること ▪ メソッドの実行遷移の最適化 – s.add()でSub2.add()がよく呼ばれることがわかった時、”長いコード”をコンパ イルしないようにできないか? → splitting 48 class Sub2 extends Super { public int add(int i) { return i + 2; } public static int calc2(Super s) { int r = s.add(-2); if (r != 0) { ... // 長いコード } return r; } }
  • 49. © 2017 IBM Corporation IBM Research - Tokyo コードの実行遷移 49
  • 50. © 2017 IBM Corporation IBM Research - Tokyo コンパイルコードとインタープリタ間の実行の遷移について ▪ コンパイルコードからインタープリタへ ▪ インタープリタからコンパイルコードへ –通常はメソッドの先頭で遷移する – メソッドの実行途中に遷移したいことがある 50 コンパイルされたコード bar() { ... ... } インタープリタのコード foo() { ... bar(); ... } インタープリタのコード foo() { bar() { ... ... bar(); ... ... } } コンパイルされたコード bar() { ... ... }
  • 51. © 2017 IBM Corporation IBM Research - Tokyo 用語について ▪ 統一された用語の使い方がないように思われる – コンパイルコードからインタープリタへ – インタープリタからコンパイルコードへ 51 コンパイルコードから インタープリタへ インタープリタから コンパイルコードへ Self (コンパイルコードから 別のコンパイルコードへ) Deoptimization ない OpenJDK Deoptimization On-stack replacement (OSR) IBM Java, OpenJ9 Deoptimization using OSR Dynamic loop transfer Jikes RVM (コンパイルコードから 別のコンパイルコードへ) OSR OSR V8 (コンパイルコードから 別のコンパイルコードへ) Deoptimization OSR McJIT (LLVM) Optimize OSR Deoptimize OSR
  • 52. © 2017 IBM Corporation IBM Research - Tokyo Deoptimization ▪ コンパイラ内部表現は、ある条件を満たさなかったとき、分岐先がコンパイルコ ード外となる – コンパイルするコード量が減る –コンパイラコード内の制御合流点が減る ▪ 典型的な使われ方 – Specialization(特殊化)を行った場合、 その効果を高める –デバッガを有効化するとき、インタプリタに 遷移する 5252 r = Sub2.add(-2) -> -2 + 2 = 0 条件 r = s.add(-2) class Sub2 extends Super { public int add(int i) { return i + 2; } public static int calc2(Super s) { int i = 1; int r = s.add(-2); if (r != 0) { ... // 長いコード } int t = r + i; return t; } } r != 0 // 長いコード r = 0 インタプリタで 実行 t = r + i
  • 53. © 2017 IBM Corporation IBM Research - Tokyo Deoptimizationによるコード最適化 ▪ コンパイルコード内では、rの値が0と決まるので、条件分岐と条件が成立しな い場合のコードを削除可能 ▪ コンパイルコード外に実行を移行する 際に、補償コードが必要 – コンパイラが生成した中間変数、削除した 変数、から、インタプリタ、デバッガで 参照される値の復元 –コンパイラは、i = 1を定数伝搬後削除する 5353 r = Sub2.add(-2) -> -2 + 2 = 0 条件 r = s.add(-2) class Sub2 extends Super { public int add(int i) { return i + 2; } public static int calc2(Super s) { int r = s.add(-2); if (r != 0) { ... // 長いコード } return r; } } インタプリタで 実行 t = r + 1 i = 1 t = r + i
  • 54. © 2017 IBM Corporation IBM Research - Tokyo Deoptimizationによる効果 ▪ 動的型付け言語ではより効果が大きい – 単純には、各演算で型検査が必要 – “+”などの汎用的な演算の型を、一意に決定できる 5454 b = 1 c = a + b type: INT ival: 2014 object type: INT ival: 1 object if (a.type == Int && b.type == Int) { int i = a.ival + b.ival; c = Int(i) } else { b = Int(1) c = add(a, b); } // cはオブジェクト if (a->type == Int) { c = a.val + 1; } else { b = Int(1); goto interpreter } // cは整数の単純変数 1 aがintでないなら deoptimization コンパイラ中間言語 コンパイラ中間言語 コンパイル
  • 55. © 2017 IBM Corporation IBM Research - Tokyo Deoptimizationの実装について ▪ 最適化されたコンパイルコードからインタプリタへの、実行遷移 – 実行時にそれぞれのコードが持つcontextの変換 55 CONST 1 int STORE b LOAD a LOAD b ADD STORE c バイトコード if (a->type == Int) { c = a.val + 1; } else { b = Int(1); //後続使用変数の参照点 goto interpreter } // cは整数の単純変数 インタプリタで実行 コンパイルコード インタプリタ上のバイトコード 計算スタック レジスタ インタプリタの独自計算stack Local変数 レジスタ インタプリタの独自stack frame Stack frame コンパイルコードの独自stack (method inliningした場合、複数メソッド が1つに変換されている) インタプリタの独自stack frame (各メソッドごと) ... mov r3, object_a mov r4, object_1 a 1 計算stack 変換 機械語命令
  • 56. © 2017 IBM Corporation IBM Research - Tokyo On-Stack Replacement [Chamber1994][Kawahito2003] ▪ インタプリタ実行中から、コンパイルコードの途中に遷移する – 一般的には、インタプリタでプログラムのループのback edgeを検出した際 に、コンパイルコードのループの先頭に移ることが多い • 任意の点で移ると、実装の複雑さが増すが、得られるメリットはそれほど 多くない 56 int div(int i){return (i!=0) ? (4/i):0;} public static void main(String args[]) { for (int i = 0; i < 100000; i++) { int r = Super.div(2) + 3; System.println(r); } }
  • 57. © 2017 IBM Corporation IBM Research - Tokyo On-Stack Replacementの実行例 ▪ main()がインタプリタで起動されて、ループが何度も実行される ▪ ループのback edgeで、main()のコンパイル要求が出される 57 int div(int i){return (i!=0) ? (4/i):0;} public static void main(String args[]) { for (int i = 0; i < 100000; i++) { int r = Super.div(2) + 3; System.println(r); } }
  • 58. © 2017 IBM Corporation IBM Research - Tokyo On-Stack Replacementの実行例 ▪ main()はdiv()をmethod inliningしながらコンパイルされる – メソッド先頭とループ先頭に、実行遷移点を持つコードが生成される 58 main_entry: ... loophead: ... bne loophead ... ret main_loop_entry: ... goto loophead int div(int i){return (i!=0) ? (4/i):0;} public static void main(String args[]) { for (int i = 0; i < 100000; i++) { int r = Super.div(2) + 3; System.println(r); } } コンパイル
  • 59. © 2017 IBM Corporation IBM Research - Tokyo On-Stack Replacementの実行例 ▪ 実行遷移点では、下記の変換を行う 59 main_entry: ... loophead: ... bne loophead ... ret main_loop_entry: ... goto loophead int div(int i){return (i!=0) ? (4/i):0;} public static void main(String args[]) { for (int i = 0; i < 100000; i++) { int r = Super.div(2) + 3; System.println(r); } } 変換 インタプリタ上のバイトコード コンパイルコード 計算スタック インタプリタの独自計算stack レジスタ Local変数 インタプリタの独自stack frame レジスタ Stack frame インタプリタの独自stack frame コンパイルコードの独自stack
  • 60. © 2017 IBM Corporation IBM Research - Tokyo 今日の授業でわかること ▪ メソッドの実行遷移の最適化 – s.add()でSub2.add()がよく呼ばれることがわかった時、”長いコード”をコンパ イルしないようにできないか? → deoptimization – main()メソッドから呼び出されるSuper.div()を、どうやってmethod inliningする か? → OSR 60 class Sub2 extends { public int add(int i) { return i + 2; } public static int calc2(Super s) { int r = s.add(-2); if (r != 0) { ... // 長いコード } return r; } } class Super { public static final int div(int i) { return (i != 0) ? (4 / i) : 0;} public static void main(String args[]) { for (int i = 0; i < 100000; i++) { int r = Super.div(2) + 3; System.println(r); } } }
  • 61. © 2017 IBM Corporation IBM Research - Tokyo 今日の講義内容のまとめ ▪ メソッド呼び出しの実行時間に関する最適化 – Method inlining • 直接メソッド呼び出しにおいてInliningするメソッドの決定 –メソッド呼び出しのdevirtualization • 仮想メソッド呼び出しから直接メソッド呼び出しへの変換 –Guarded devirtualization, direct devirtualization ▪ 異なるコード間の実行の遷移について – コンパイルコード ⇔ インタープリタ • Deoptimization, OSR 61
  • 62. © 2017 IBM Corporation IBM Research - Tokyo 参考文献 (1/2) ▪ Guarded devirtualization – Calder et al. Reducing Indirect Function Call Overhead In C++ Programs, POPL, 1994. – Grove et al. Profile-guided receiver class prediction, OOPSLA, 1995 – Holzle et al. Optimizing dynamically-typed object-oriented languages with polymorphic inline caches, ECOOP, 1991 – Arnold et al. Thin Guards: A Simple and Effective Technique for Reducing the Penalty of Dynamic Class Loading, ECOOP, 2002. ▪ 型解析 – Chambers et al. Interactive type analysis and extended message splitting; optimizing dynamically-typed object- oriented programs, PLDI, 1990. – Palsberg et al. Object-Oriented Type Inference, OOPSLA, 1991. – Gagnon et al. Efficient Inference of Static Types for Java Bytecode, SAS, 2000. – Sundaresan et al. Practical Virtual Method Call Resolution for Java, OOSPLA, 2000. – Tip et al. Scalable propagation-based call graph construction algorithms, OOSPLA, 2000. ▪ クラス階層解析 – Dean et al. Optimization of object-oriented programs using static class hierarchy, ECOOP, 1995. – Bacon et al. Fast Static Analysis of C++ Virtual Function Calls, OOPSLA, 1996. – Ishizaki et al. A Study of Devirtualization Techniques for a Java Just-In-Time Compiler, OOPSLA, 2000. – Detlefs et al. Inlining of virtual methods, ECOOP, 1999. ▪ Spilitting – Chambers et al. Interactive type analysis and extended message splitting; optimizing dynamically-typed object- oriented programs, PLDI, 1990. ▪ インタフェースメソッド呼び出し – Alpern et al. Efficient Implementation of Java Interfaces: Invokeinterface Considered Harmless, OOPSLA, 2001. ▪ 適応最適化のサーベイ論文 – Arnold et al. A Survey of Adaptive Optimization in Virtual Machines. IBM Research Report RC23143, 2003.62
  • 63. © 2017 IBM Corporation IBM Research - Tokyo 参考文献 (2/2) ▪ On stack replacement / deoptimization – Holzle et al. Debugging Optimized Code with Dynamic Deoptimization, PLDI, 1992. – Paleczny et al. The Java HotSpot Server Compiler, JVM, 2001. – Fink et al. Design, Implementation and Evaluation of Adaptive Recompilation with On-Stack Replacement, CGO, 2003. – Soman et al. Efficient and general on-stack replacement for aggressive program specialization, PLC, 2006. – Adaptive inlining and on-stack replacement in the CACAO virtual machine, PPPJ, 2007. – Lameed et al. A Modular Approach to On-Stack Replacement in LLVM, VEE, 2013. – Kedlaya et al. Deoptimization for Dynamic Language JITs on Typed, Stack-based Virtual Machines, VEE, 2014. ▪ 石崎のこれまでのスライド – https://www.slideshare.com/ishizaki/ 63