SlideShare una empresa de Scribd logo
1 de 79
神經網路(智慧交通)
教師:陳志華博士
報告大綱-神經網路(智慧交通)
論文導讀
前言
研究背景
◦ 交通三元素
◦ 蜂巢流動車輛資料(Cellular Floating Vehicle Data, CFVD)
◦ 神經網路(Neural Network, NN)
研究方法
實驗結果與討論
結論與未來研究
2
論文導讀
Wei-Kuang Lai, Ting-Huan Kuo, Chi-Hua Chen, “Vehicle Speed
Estimation and Forecasting Methods Based on Cellular Floating
Vehicle Data,” Applied Sciences, vol. 6, no. 2, Article ID 47,
February 2016. (SCI, ISSN 2076-3417)
◦ DOI: 10.3390/app6020047
◦ Times Cited in Google Scholar: 3
◦ Impact Factor: 1.679
3
前言
常見的交通資訊收集方法
◦ 車輛偵測器(Vehicle Detector, VD)
◦ 電子標籤偵測器(eTag Detector, ETD)
◦ 探偵車(Probe Car, PC)
◦ 蜂巢流動車輛資料(Cellular Floating
Vehicle Data, CFVD)
蜂巢流動車輛資料優勢
◦ 平均人手一機以上(資料樣本多)
◦ 不用額外的部署成本(成本低)
◦ 可適用全台灣地區(資料全面)
4
Data Network
RNS
GPRS/GSM MS
UE
BTS
Node B
BSC
RNC
Um
Uu Iub
A-bis
BSS
MSC/VLR
SGSN GGSN
HLR
Gn
GcGrGs
A
IuPS
IuCS
Gb
Core Network
PSTN
Cellular Network Signal
Retriever
Traffic Information
Estimation Methods
Vehicle Speed Forecasting
Method
ITS
GSM: Global System for Mobile Communications
GPRS: General Packet Radio SerVice
MS: Mobile Station
BTS: Base Transceiver Station
BSC: Base Station Controller
MSC: Mobile Switching Center
SGSN: Serving GPRS Support Node
GGSN: Gateway GPRS Support Node
VLR: Visitor Location Register
HSS: Home Subscriber Server
HLR: Home Location Register
PSTN: Public Switched Telephone Network
UE: User Equipment
RNC: Radio Network Controller
ITS: Intelligent Transportation System
研究背景
研究背景
◦ 交通三元素
◦ 蜂巢流動車輛資料(Cellular Floating Vehicle Data, CFVD)
◦ 神經網路(Neural Network, NN)
◦ 神經網路在學什麼?
◦ 線性迴歸(梯度下降法)
◦ 邏輯迴歸(梯度下降法)
◦ 神經網路(梯度下降法)
5
研究背景-交通三元素
流量(Flow):
◦ 在時間單位內通過的車輛數
◦ Q (車輛數/小時)
時間平均車速(Time Mean Speed, TMS):
◦ 一個空間點一段時間內的平均車速
◦ Ut (公里/小時)
空間平均車速(Space Mean Speed, SMS):
◦ 一段空間距離內的平均車速
◦ Us (公里/小時)
密度(Density):
◦ 在空間單位內的車輛數
◦ K (車輛數/公里) = Q / Ut
旅行時間(Travel Time):
◦ 經過一段空間距離花費的時間差
◦ T (小時) = 距離 / Us 6
道路
Us
VD1
偵測得到Q和Ut
VD2
可用eTag偵測器得到
可用車輛偵測器(Vehicle Detector, VD)得到
空間平均車速(SMS)可直接與距離進行計算取得
「旅行時間」,旅行時間資訊對政府和用路人較重要
研究背景-交通三元素
流量與車速關係
◦ 橫向U型
密度與車速關係
◦ 呈反比
密度與流量關係
◦ 倒立U型
7
流量與車速關係
密度與流量關係密度與車速關係
流量2028輛/小時,
時速12公里/小時
前面路段塞車,故車流
進不來,車速也不快
1
2
3
32
1
道路順暢,正常車速
有點塞車,
流量增加,車速減慢
道路順暢,正常車速
道路上的車輛很多,
塞車狀態,車速下降
密度42輛/公里/車道,
流量2028輛/小時,
時速12公里/小時
此例為4個車道
研究背景-蜂巢流動車輛資料
常見蜂巢流動車輛資料方法
◦ 運用兩次交遞(handoff, HO)估計車速[1, 2]
◦ 運用位置更新(location update, LU)估計流量[3]
8
Cell1
HO1 at location L1
at time t1
HO2 at location L2
at time t2
Road
Cell2 Cell3
Call arrival
at time t0
MS
Call completion
at time t3
Accident
12
21
2,1
),(
tt
LLd
U


1. D. Gundlegård and J. M. Karlsson, "Handover location accuracy for travel time estimation in GSM and UMTS", Sweden, 2009.
2. H. Bar-Gera, "Evaluation of a cellular phone-based system for measurements of traffic speeds and travel times: A case study from Israel", Israel, 2007.
3. D. Valerio, T. Witek, F. Ricciato, R. Pilz, W. Wiedermann, "Road traffic estimation from cellular network monitoring: a hands-on investigation", IEEE 20th Personal Indoor Mobile Radio
Communication Symposium 2009, Tokyo, Japan, 2009.
運用兩次交遞估計車速 運用位置更新估計流量
研究背景-神經網路
神經網路(Neural Network, NN)
◦ 神經網路在學什麼?
◦ 線性迴歸(梯度下降法)
◦ 邏輯迴歸(梯度下降法)
◦ 神經網路(梯度下降法)
9
研究背景-神經網路在學什麼?
原始資料
結構化資料
機器學習結果
10
時間 平均股價
103年2月 90.77
103年3月 92.74
103年4月 93.98
103年5月 ?
輸入值(x) 輸出值(y)
1 90.77
2 92.74
3 93.98
  bxwxfy 
  287.89605.1  xxfy
  707.954  fy 線性迴歸結果
資料前處理
90
91
92
93
94
95
96
103-2 103-3 103-4 103-5
平均股價
年份-月份
中華電信103年2月-4月平均股價
f(x)為一條趨勢線
深度學習主要就是
在學習「趨勢」
95.707
資料來源:個股月成交資訊,臺灣證券交易所,網址:https://goo.gl/ykB3gA
趨勢線定義:
點到線的距離最小化
中華電信103年5月
平均股價多少?
(也就是x=4代入)
95.707
f(x) = f(4)
機器人圖片來源:
Eyebot Chat Room.
Url: https://goo.gl/gpMrK9
研究背景-神經網路在學什麼?
原始資料
結構化資料
機器學習結果
11
時間 平均股價
102年1月 105.71
102年2月 104.02
102年3月 102.86
102年4月 102.51
輸入值(x) 輸出值(y)
1 105.71
2 104.02
3 102.86
資料前處理
台灣大哥大102年4
月平均股價多少?
(也就是x=4代入)
101.35
f(x) = f(4)
機器人圖片來源:
Eyebot Chat Room.
Url: https://goo.gl/gpMrK9
  bxwxfy 
    05.107425.1  xxfy
  35.1014  fy 線性迴歸結果
101
102
103
104
105
106
107
102-1 102-2 102-3 102-4
平均股價
年份-月份
台灣大哥大102年1月-4月平均股價
101.35
資料來源:個股月成交資訊,臺灣證券交易所,網址:https://goo.gl/ykB3gA
學習出來的線性趨勢與
真實資料有很大的誤差
真實資料為
「非線性趨勢」
研究背景-神經網路在學什麼?
原始資料
結構化資料
機器學習結果
12
時間 平均股價
102年1月 105.71
102年2月 104.02
102年3月 102.86
102年4月 102.51
輸入值(x) 輸出值(y)
1 105.71
2 104.02
3 102.86
資料前處理
台灣大哥大102年4
月平均股價多少?
(也就是x=4代入)
期望可以
回答102.51
f(x) = f(4)
機器人圖片來源:
Eyebot Chat Room.
Url: https://goo.gl/gpMrK9
101
102
103
104
105
106
107
102-1 102-2 102-3 102-4
平均股價
年份-月份
台灣大哥大102年1月-4月平均股價
資料來源:個股月成交資訊,臺灣證券交易所,網址:https://goo.gl/ykB3gA
期望建立一條
非線性(曲線)趨勢線
真實資料為
「非線性趨勢」
  ? xfy
如何讓機器學習得到
非線性(曲線)趨勢線?
研究背景-神經網路在學什麼?
原始資料
結構化資料
機器學習結果
13
時間 平均股價
102年1月 105.71
102年2月 104.02
102年3月 102.86
102年4月 102.51
資料前處理
台灣大哥大102年4
月平均股價多少?
(也就是x=4代入)
預測值0.967
再乘上105.71
回答102.222
f(x) = f(4)
機器人圖片來源:
Eyebot Chat Room.
Url: https://goo.gl/gpMrK9
0.95
0.96
0.97
0.98
0.99
1
102-1 102-2 102-3 102-4
平均股價
年份-月份
台灣大哥大102年1月-4月平均股價
資料來源:個股月成交資訊,臺灣證券交易所,網址:https://goo.gl/ykB3gA
建立一條
非線性(曲線)趨勢線
真實資料為
「非線性趨勢」
正規化
同除以
105.71
輸入值(x) 輸出值(y)
1 1
2 0.984
3 0.973
4 0.970
    z
e
zsxfy
bxwz




1
1
 
    967.0
1
1
37.34
275.5476.0
37.3





e
sfy
xz
經由S型函式得到
非線性(曲線)結果
邏輯迴歸結果
研究背景-神經網路在學什麼?
線性迴歸 vs. 邏輯迴歸
線性迴歸和邏輯迴歸的限制
◦ 假設參數之間互相獨立
◦ 當參數有交互影響時將會不準
◦ 不適合的例子─XOR (互斥或)計算
14
線性迴歸 邏輯迴歸
輸入值 x X
輸出值
核心函式 線性函式 S型函式
  bxwxfy 
    z
e
zsxfy
bxwz




1
1
X1 X2 Y 估計值
0 0 0 0.5
0 1 1 0.5
1 0 1 0.5
1 1 0 0.5
w
機器學習無法學會
XOR,所以權重皆接
近為0,全部猜0.5
5.0
1
1
0




e
估計值
輸入層 輸出層
輸入層 輸出層
研究背景-神經網路在學什麼?
原始資料
15
月份 遠傳 台灣大 中華電
102年2月 跌 跌 跌
102年3月 跌 跌 跌
102年4月 漲 跌 漲
102年5月 漲 漲 漲
102年6月 漲 跌 跌
102年7月 漲 漲 漲
102年8月 跌 跌 跌
102年9月 跌 跌 漲
102年10月 跌 跌 跌
102年11月 跌 漲 跌
102年12月 跌 跌 漲
103年1月 跌 跌 跌
電信三雄的股價漲跌狀況
月份
遠傳
(當月)
(X1)
台灣大
( 當月)
(X2)
中華電
(次月)
(Y)
102年2月 0 0 0
102年3月 0 0 1
102年4月 1 0 1
102年5月 1 1 0
102年6月 1 0 1
102年7月 1 1 0
102年8月 0 0 1
102年9月 0 0 0
102年10月 0 0 0
102年11月 0 1 1
102年12月 0 0 0
103年1月 0 0 0
運用「遠傳和台灣大漲跌」預測「中華電漲跌」跌為0、漲為1
電信三雄股價是XOR現象
12個月份中有10個月份符合
XOR的現象
用線性迴歸或邏輯迴歸預
測會不準,必需要使用
「神經網路」
研究背景-神經網路在學什麼?
預測結果
16
月份
遠傳
(當月)
台灣大
( 當月)
中華電
(次月)
真實值
中華電
(次月)
估計值
102年2月 0 0 0 0
102年3月 0 0 1 0
102年4月 1 0 1 1
102年5月 1 1 0 0
102年6月 1 0 1 1
102年7月 1 1 0 0
102年8月 0 0 1 0
102年9月 0 0 0 0
102年10月 0 0 0 0
102年11月 0 1 1 1
102年12月 0 0 0 0
103年1月 0 0 0 0
預測準確度為 10/12 = 83%
兩筆誤判
其他正確
h1
h2
輸入層 隱藏層 輸出層
加入隱藏層
學「深」一點
分析因子相依性
神經網路
多層迴歸
 當參數有交互影響時,只有一層迴歸函式(即input直接對到
output)將會不準
 可以多加入一層隱藏層,隱藏層中有2個神經元,透過隱藏層
神經元來分析input參數之間的交互關係
 輸入層和隱藏層之間可採用邏輯迴歸計算,隱藏層和輸出層
之間可採用邏輯迴歸計算
研究背景-神經網路在學什麼?
深度學習定義
◦ 包含一層隱藏層以上的「神經網路」
深度學習目標
◦ 學習資料的「趨勢」
深度學習優勢
◦ 經由「隱藏層」分析因子間的相依性
適用情境
運算時間
◦ 線性迴歸 < 邏輯迴歸 < 神經網路
17
適用情境 線性迴歸 邏輯迴歸 神經網路
線性問題
非線性問題
因子間獨立
因子間相依
資 料 來 源 : Yann LeCun, Yoshua Bengio,
Geoffrey Hinton, “Deep learning,” Nature,
no. 521, pp. 436–444, 2015
加深一層來學習因子相依性
18
0
0.05
0.1
0.15
0.2
0.25
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
F
w
研究背景-線性迴歸(梯度下降法)
如何找曲線的相對低點?
如何讓w值向相對低點邁進?
   
25.0
5.0
2
2


ww
wwF
12 


w
w
F
目標函式
函式切線斜率
w=0.5時,
F函式相對低點
對w微分
F函式之一階導函數
Iteration w F
1 0.000 0.250 -0.100
2 0.100 0.160 -0.080
3 0.180 0.102 -0.064
4 0.244 0.066 -0.051
5 0.295 0.042 -0.041
6 0.336 0.027 -0.033
7 0.369 0.017 -0.026
8 0.395 0.011 -0.021
9 0.416 0.007 -0.017
10 0.433 0.005 -0.013
 12 w
0
0.05
0.1
0.15
0.2
0.25
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
F
w
當w=0時,斜率為-1
當w=1時,斜率為1
斜率絕對值越大,則
所需修正幅度越大
當w=0.25時,斜率為-0.5
所需修正幅度較小
 12 



ww
w
F
ww


為學習率
避免一次跳太遠

 
1.0
1021.00

w
 
18.0
11.021.01.0

w
Iteration 2的w值
Iteration 3的w值
1.0
當經過63個Interation
後,w值將修正為0.5,
並且不需再修正(收斂)
用前一個Iteration
的w值減去斜率為
新的w值
當w=0.5時,斜率為0
斜率為0時,代表為相
對低點,不需修正
研究背景-線性迴歸(梯度下降法)
學習率的作用?
19
Iteration w F
1 0.000 0.250 -1.000
2 1.000 0.250 1.000
3 0.000 0.250 -1.000
4 1.000 0.250 1.000
5 0.000 0.250 -1.000
6 1.000 0.250 1.000
7 0.000 0.250 -1.000
8 1.000 0.250 1.000
9 0.000 0.250 -1.000
10 1.000 0.250 1.000
Iteration w F
1 0.000 0.250 -0.900
2 0.900 0.160 0.720
3 0.180 0.102 -0.576
4 0.756 0.066 0.461
5 0.295 0.042 -0.369
6 0.664 0.027 0.295
7 0.369 0.017 -0.236
8 0.605 0.011 0.189
9 0.416 0.007 -0.151
10 0.567 0.005 0.121
學習率 為0.9
 12 w
 12 w

學習率 為1
0
0.05
0.1
0.15
0.2
0.25
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
F
w
 12  www
學習率過大,
w在0和1兩個值之
間擺盪,無法收斂
0
0.05
0.1
0.15
0.2
0.25
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
F
w
 129.0  www
學習率大時,擺盪
幅度較大
在複雜的情境中可
能錯過全域最佳解
經過63個Interation
後收斂
研究背景-線性迴歸(梯度下降法)
多個參數之目標函式
20
   
22
2
2
,
bwbw
bwbwF


目標函式 bw
w
F
22 


函式切線斜率(對w偏微分)
bw
b
F
22 


函式切線斜率(對b偏微分)
w修正方式 b修正方式
 bww
w
F
ww 22 


   bwb
b
F
bb 22 


 
w+b=0時,
F函式相對低點
0
0.5
1
1.5
2
2.5
3
3.5
4
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1F
w
 
 bwbb
bwww
221.0
221.0


經過17個Interation
後收斂
w=0且b=0
Iteration w b F
1 1.000 1.000 4.000 0.400
2 0.600 0.600 1.440 0.240
3 0.360 0.360 0.518 0.144
4 0.216 0.216 0.187 0.086
5 0.130 0.130 0.067 0.052
6 0.078 0.078 0.024 0.031
7 0.047 0.047 0.009 0.019
8 0.028 0.028 0.003 0.011
9 0.017 0.017 0.001 0.007
10 0.010 0.010 0.000 0.004
 bw 22 
學習率 為0.1
0
0.005
0.01
0.015
0.02
0.025
0.03
0.035
0.04
0.9 0.91 0.92 0.93 0.94 0.95 0.96 0.97 0.98 0.99 1F
w
 
 bwbb
bwww
221.0
221.0


經過13個Interation
後收斂
w=0.9且b=-0.9
研究背景-線性迴歸(梯度下降法)
多個參數之目標函式
21
   
22
2
2
,
bwbw
bwbwF


目標函式 bw
w
F
22 


函式切線斜率(對w偏微分)
bw
b
F
22 


函式切線斜率(對b偏微分)
w修正方式 b修正方式
 bww
w
F
ww 22 


   bwb
b
F
bb 22 


 
Iteration w b F
1 1.000 -0.800 0.040 0.040
2 0.960 -0.840 0.014 0.024
3 0.936 -0.864 0.005 0.014
4 0.922 -0.878 0.002 0.009
5 0.913 -0.887 0.001 0.005
6 0.908 -0.892 0.000 0.003
7 0.905 -0.895 0.000 0.002
8 0.903 -0.897 0.000 0.001
9 0.902 -0.898 0.000 0.001
10 0.901 -0.899 0.000 0.000
 bw 22 
 w+b=0有無限多組解:
• w = 0, b = 0
• w = 0.9, b = -0.9
• w = 1, b = -1
學習率 為0.1
研究背景-線性迴歸(梯度下降法)
梯度下降法應用於線性迴歸之權重和誤差項
22
bxwy 
線性迴歸函式
(真值)
bxwy ˆˆˆ 
   2
ˆˆ,ˆ yybwF 
  
   
      
 12
ˆ
ˆˆ
ˆ2
ˆ
ˆ
ˆ2
ˆ
ˆ
ˆ
2













b
bxwbxw
yy
b
yy
yy
b
yy
b
F
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
線性迴歸函式
(估計值)
目標函式
wˆ bˆ
修正方式 修正方式wˆ bˆ
  xw
w
F
ww 


  2ˆ
ˆ
ˆˆ   12ˆ
ˆ
ˆˆ 


  b
b
F
bb
令    yy ˆ 令    yy ˆ
  
   
      
 x
w
bxwbxw
yy
w
yy
yy
w
yy
w
F












2
ˆ
ˆˆ
ˆ2
ˆ
ˆ
ˆ2
ˆ
ˆ
ˆ
2
w
研究背景-線性迴歸(梯度下降法)
梯度下降法應用於線性迴歸之權重和誤差項
23
bxwy 
線性迴歸函式
(真值)
bxwy ˆˆˆ 
   
2
2
ˆˆ,ˆ

 yybwF
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
線性迴歸函式
(估計值)
目標函式
wˆ bˆ
修正方式 修正方式wˆ bˆ
  xw
w
F
ww 


  2ˆ
ˆ
ˆˆ   12ˆ
ˆ
ˆˆ 


  b
b
F
bb
     
 x
x
w
y
y
F
w
F

















2
12
ˆ
ˆ
ˆˆ
令    yy ˆ
     
 12
112
ˆ
ˆ
ˆˆ
















 b
y
y
F
b
F
w
研究背景-線性迴歸(梯度下降法)
梯度下降法應用於線性迴歸之權重和誤差項
24
Iteration x w b y F
1 0.10 1.00 0.00 0.10 0.50 0.50 0.55 0.20 0.06 0.63
2 0.20 1.00 0.00 0.20 0.44 -0.13 -0.04 0.06 -0.07 -0.34
3 0.30 1.00 0.00 0.30 0.50 0.21 0.36 0.00 0.03 0.09
4 0.40 1.00 0.00 0.40 0.48 0.12 0.32 0.01 -0.05 -0.12
5 0.50 1.00 0.00 0.50 0.53 0.24 0.51 0.00 0.00 0.01
6 0.10 1.00 0.00 0.10 0.52 0.23 0.29 0.03 0.03 0.26
7 0.20 1.00 0.00 0.20 0.50 -0.03 0.07 0.02 -0.04 -0.18
8 0.30 1.00 0.00 0.30 0.53 0.15 0.31 0.00 0.00 0.02
9 0.40 1.00 0.00 0.40 0.53 0.14 0.35 0.00 -0.03 -0.07
10 0.50 1.00 0.00 0.50 0.56 0.21 0.49 0.00 -0.01 -0.02
yˆwˆ bˆ
以 為例01  xy
0
0.05
0.1
0.15
0.2
0.25
0.4 0.5 0.6 0.7 0.8 0.9 1
F
wwˆ
學習率 為0.7
經過770個Interation
後收斂
  x 2   12 
w
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0 0.1 0.2 0.3 0.4 0.5
F
w
研究背景-線性迴歸(梯度下降法)
梯度下降法應用於線性迴歸之權重和誤差項,採用mini-batch計算方式
25
Iteration x w b y
1
0.10 1.00 0.00 0.10 0.50 0.50 0.55 -0.45
0.20 1.00 0.00 0.20 0.50 0.50 0.60 -0.40
0.30 1.00 0.00 0.30 0.50 0.50 0.65 -0.35
0.40 1.00 0.00 0.40 0.50 0.50 0.70 -0.30
0.50 1.00 0.00 0.50 0.50 0.50 0.75 -0.25 -0.35 0.25 0.49
2
0.10 1.00 0.00 0.10 0.26 0.01 0.04 0.06
0.20 1.00 0.00 0.20 0.26 0.01 0.06 0.14
0.30 1.00 0.00 0.30 0.26 0.01 0.09 0.21
0.40 1.00 0.00 0.40 0.26 0.01 0.11 0.29
0.50 1.00 0.00 0.50 0.26 0.01 0.14 0.36 0.21 -0.15 -0.30
yˆwˆ bˆ
以 為例01  xy
wˆ
學習率 為0.7
經過11個Interation後
收斂
  x 2   12 
經過11個Interation後,
為0.35, 為0.2wˆ bˆ
 
假設mini-batch為5
在此案例中,mini-batch可以加速
收斂,但卻陷入區域最佳解
採用mini-batch,則計算完每個batch後,再修正權重組合
w
研究背景-線性迴歸(梯度下降法)
梯度下降法應用於線性迴歸之權重和誤差項
26
bxwy 
線性迴歸函式
(真值)
bxwy ˆˆˆ 
   
2
2
2
1
ˆ
2
1ˆ,ˆ

 yybwF
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
線性迴歸函式
(估計值)
目標函式
wˆ bˆ
修正方式 修正方式wˆ bˆ
 xw
w
F
ww 


  ˆ
ˆ
ˆˆ   


 b
b
F
bb ˆ
ˆ
ˆˆ
     
x
x
w
y
y
F
w
F

















1
ˆ
ˆ
ˆˆ
改為    yyˆ
     

















11
ˆ
ˆ
ˆˆ b
y
y
F
b
F
除以1/2
簡化計算的巧思
w
研究背景-邏輯迴歸(梯度下降法)
梯度下降法應用於邏輯迴歸之權重和誤差項
27
bxwz 
邏輯迴歸函式
(真值)
bxwz ˆˆˆ 
   
2
2
2
1
ˆ
2
1ˆ,ˆ

 yybwF
邏輯迴歸函式
(估計值)
目標函式
  z
e
zsy 


1
1
  z
e
zsy ˆ
1
1
ˆˆ 


w
採用S型函式
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)wˆ bˆ
修正方式 修正方式wˆ bˆ
      
  xzsw
xzszsw
w
F
ww





ˆˆ
ˆ1ˆˆ
ˆ
ˆˆ



令    yyˆ
     
           
     
  xzs
xzszs
xzszs
x
z
y
w
z
z
y
y
F
w
F





















ˆ
ˆ1ˆ
ˆ1ˆ1
ˆ
ˆ
1
ˆ
ˆ
ˆ
ˆ
ˆˆ






      
  zsw
zszsw
w
F
ww
ˆˆ
ˆ1ˆˆ
ˆ
ˆˆ








     
         
     
 zs
zszs
zszs
z
y
w
z
z
y
y
F
w
F
ˆ
ˆ1ˆ
ˆ1ˆ1
1
ˆ
ˆ
1
ˆ
ˆ
ˆ
ˆ
ˆˆ



























研究背景-邏輯迴歸(梯度下降法)
S型函式微分
28
   
 
           
     
      zszs
ee
e
zs
e
e
zsezszs
ezszsee
z
s
z
s
zs
e
e
zs
zz
z
z
z
z
zzz
z
z
ˆ1ˆ
1
1
1
1
ˆ
1
ˆˆˆ
ˆˆ
ˆˆ
ˆ
1
1
1
ˆ
ˆˆ
ˆ
ˆ
ˆ
ˆ
ˆˆ11ˆ2
11ˆ
ˆ





































研究背景-神經網路(梯度下降法)
29
X
w2w1 Y
梯度下降法應用於神經網路之權重和誤差項 採用線性函式
 
212
2112
bzw
bbxwwy


神經網路函式
(真值)
    22
2
1
ˆ
2
1ˆ,ˆ  yybwF
神經網路函式
(估計值)
目標函式
 
111
212
2112
ˆˆˆ
ˆˆˆ
ˆˆˆˆˆ
bxwz
bzw
bbxwwy



函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)2
ˆw 2
ˆb
修正方式 修正方式2
ˆw 2
ˆb
 12
2
22 ˆˆ
ˆ
ˆˆ zw
w
F
ww 


    


 2
2
22
ˆ
ˆ
ˆˆ b
b
F
bb
     
1
1
22
ˆ
ˆ1
ˆ
ˆ
ˆˆ
z
z
w
y
y
F
w
F

















     

















11
ˆ
ˆ
ˆˆ
22 b
y
y
F
b
F
研究背景-神經網路(梯度下降法)
30
X
w2w1 Y
梯度下降法應用於神經網路之權重和誤差項 採用線性函式
 
212
2112
bzw
bbxwwy


神經網路函式
(真值)
    22
2
1
ˆ
2
1ˆ,ˆ  yybwF
神經網路函式
(估計值)
目標函式
 
111
212
2112
ˆˆˆ
ˆˆˆ
ˆˆˆˆˆ
bxwz
bzw
bbxwwy



函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)1
ˆw 1
ˆb
修正方式 修正方式1
ˆw 1
ˆb
 xww
w
F
ww 


 21
1
11
ˆˆ
ˆ
ˆˆ   22
1
11
ˆˆ
ˆ
ˆˆ wb
b
F
bb 


 
       
xw
xw
w
z
z
y
y
F
w
F
















2
2
1
1
11
ˆ
ˆ1
ˆ
ˆ
ˆ
ˆ
ˆˆ




       
2
2
1
1
11
ˆ
1ˆ1
ˆ
ˆ
ˆ
ˆ
ˆˆ
w
w
b
z
z
y
y
F
b
F




















研究背景-神經網路(梯度下降法)
31
X
w2w1 Y
梯度下降法應用於神經網路之權重和誤差項 採用S型函式
  
    
  z
e
zs
zsbzsws
bbxwswsy





1
1
2212
2112
神經網路函式
(真值)
    22
2
1
ˆ
2
1ˆ,ˆ  yybwF
神經網路函式
(估計值)
目標函式
  
    2212
2112
ˆˆˆˆ
ˆˆˆˆˆ
zsbzsws
bbxwswsy


函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)2
ˆw 2
ˆb
修正方式 修正方式2
ˆw 2
ˆb
       
    122
1222
2
22
ˆˆˆ
ˆˆ1ˆˆ
ˆ
ˆˆ
zszsw
zszszsw
w
F
ww








     
  22
222
2
22
ˆˆ
ˆ1ˆˆ
ˆ
ˆˆ
zsb
zszsb
b
F
bb








      
            
      
   12
122
122
1
2
2
2
22
ˆˆ
ˆˆ1ˆ
ˆˆ1ˆ1
ˆ
ˆ
ˆ
1
ˆ
ˆ
ˆ
ˆ
ˆˆ
zszs
zszszs
zszszs
zs
z
y
w
z
z
y
y
F
w
F



























     
           
    
 2
22
22
2
2
2
22
ˆ
ˆ1ˆ
1ˆ1ˆ1
1
ˆ
ˆ
1
ˆ
ˆ
ˆ
ˆ
ˆˆ
zs
zszs
zszs
z
y
b
z
z
y
y
F
b
F



























研究背景-神經網路(梯度下降法)
32
X
w2w1 Y
梯度下降法應用於神經網路之權重和誤差項 採用S型函式
  
    
  z
e
zs
zsbzsws
bbxwswsy





1
1
2212
2112
神經網路函式
(真值)
    22
2
1
ˆ
2
1ˆ,ˆ  yybwF
神經網路函式
(估計值)
目標函式
  
    2212
2112
ˆˆˆˆ
ˆˆˆˆˆ
zsbzsws
bbxwswsy


函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)1
ˆw 1
ˆb
修正方式 修正方式1
ˆw 1
ˆb
          
    xzswzsw
xzszswzszsw
w
F
ww





1221
112221
1
11
ˆˆˆˆ
ˆ1ˆˆˆ1ˆˆ
ˆ
ˆˆ



          
    1221
112221
1
11
ˆˆˆˆ
ˆ1ˆˆˆ1ˆˆ
ˆ
ˆˆ
zswzsb
zszswzszsb
b
F
bb








 
 
         
                   
         
    xzswzs
xzszswzszs
xzszswzszs
x
z
zs
w
z
y
w
z
z
zs
zs
z
z
y
y
F
w
F






























122
11222
11222
1
1
2
2
1
1
1
1
1
2
21
ˆˆˆ
ˆ1ˆˆˆ1ˆ
ˆ1ˆˆˆ1ˆ1
ˆ
ˆ
ˆ
ˆ
ˆ
1
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆˆ





  
 
         
                   
         
   122
11222
11222
1
1
2
2
1
1
1
1
1
2
21
ˆˆˆ
ˆ1ˆˆˆ1ˆ
1ˆ1ˆˆˆ1ˆ1
1
ˆ
ˆ
ˆ
ˆ
ˆ
1
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆˆ
zswzs
zszswzszs
zszswzszs
z
zs
w
z
y
b
z
z
zs
zs
z
z
y
y
F
b
F




































研究背景-神經網路(梯度下降法)
33
w1 Y
梯度下降法應用於神經網路之權重和誤差項 採用線性函式
bxwy
i
ii 





 
2
1
神經網路函式
(真值)
    22
2
1
ˆ
2
1ˆ,ˆ  yybwF
神經網路函式
(估計值)
目標函式
bz
bxwy
i
ii
ˆˆ
ˆˆˆ
2
1







 
函式切線斜率(對 偏微分)1
ˆw
修正方式1
ˆw
 11
1
11
ˆ
ˆ
ˆˆ xw
w
F
ww 


 
       
1
1
11
11
ˆ
ˆ
ˆ
ˆ
ˆˆ
x
x
w
z
z
y
y
F
w
F




















X2
X1
w2
函式切線斜率(對 偏微分)2
ˆw
       
2
2
22
11
ˆ
ˆ
ˆ
ˆ
ˆˆ
x
x
w
z
z
y
y
F
w
F




















函式切線斜率(對 偏微分)bˆ
       




















111
ˆ
ˆ
ˆ
ˆ
ˆˆ b
z
z
y
y
F
b
F
修正方式2
ˆw
 22
2
22
ˆ
ˆ
ˆˆ xw
w
F
ww 


 
修正方式bˆ
  


 b
b
F
bb ˆ
ˆ
ˆˆ
研究背景-神經網路(梯度下降法)
34
w1 Y
梯度下降法應用於神經網路之權重和誤差項 採用S型函式
  z
i
ii
e
zsy
bxwz










 
1
1
2
1
神經網路函式
(真值)
    22
2
1
ˆ
2
1ˆ,ˆ  yybwF
神經網路函式
(估計值)
目標函式
X2
X1
w2
  z
i
ii
e
zsy
bxwz
ˆ
2
1
1
1
ˆˆ
ˆˆˆˆ










 
函式切線斜率(對 偏微分)1
ˆw
修正方式1
ˆw
     
  11
11
1
11
ˆˆ
ˆ1ˆˆ
ˆ
ˆˆ
xzsw
xzszsw
w
F
ww








 
 
         
    
  1
1
1
11
ˆ
ˆ1ˆ
ˆ
ˆ
11
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆˆ
xzs
xzszs
x
z
zs
w
z
z
zs
zs
y
y
F
w
F




























函式切線斜率(對 偏微分)2
ˆw 函式切線斜率(對 偏微分)bˆ
修正方式2
ˆw 修正方式bˆ
 
 
         
    
  2
2
2
22
ˆ
ˆ1ˆ
ˆ
ˆ
11
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆˆ
xzs
xzszs
x
z
zs
w
z
z
zs
zs
y
y
F
w
F



























  
 
         
    
 zs
zszs
z
zs
b
z
z
zs
zs
y
y
F
b
F
ˆ
ˆ1ˆ
1
ˆ
ˆ
11
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
ˆˆ




























     
  22
22
2
22
ˆˆ
ˆ1ˆˆ
ˆ
ˆˆ
xzsw
xzszsw
w
F
ww








     
  zsb
zszsb
b
F
bb
ˆˆ
ˆ1ˆˆ
ˆ
ˆˆ








神經網路與神經元
研究背景-神經網路(梯度下降法)
35
‧
‧
‧
‧
‧
‧
‧
‧
‧
‧
‧
‧
 l
z1
 l
z2
 l
iz
 l
sl
z
1
+
 l
a1
 l
a2
 l
ia
 l
sl
a
 l
jw ,1
 l
jiw ,
 l
jw ,2
 l
jSl
w ,
 l
jb
 1l
jz  1l
ja
第l層 第l+1層
第l+1層zj值(加權總和後)
       l
i
s
i
l
i
l
ji
l
j bawz
l






 

1
,
1
第l+1層aj值(激活函式計算後)
       












 
 l
i
s
i
l
i
l
ji
l
j bawga
l
1
,
1
激活函式(activation function)可為
線性、S型函式、或其他
  xxg 
  x
e
xg 


1
1
 






0if,0
0if,
x
xx
xg
線性函式
S型函式
線性整流函數
(Rectified
Linear Unit,
ReLU)
換個表示方式
研究背景-神經網路(梯度下降法)
監督式學習目標為最小化估計值與真實值之間的誤差(損失)
◦ 假設損失函式(loss function)為
◦ 為真實值, 為估計值
◦ 最小化損失函式,計算方式為對損失函式微分
由於損失函式為多參數組成之函式,故分別對不同參數做偏微分
◦ 對 值計算偏微分,取得第l層最小誤差
◦ 對 值計算偏微分,取得第l層最小誤差之最佳 值
◦ 對 值計算偏微分,取得第l層最小誤差之最佳 值
對 值計算偏微分之數學證明
36
y yˆ
 l
iz
 l
jiw ,
 l
jb
 l
iz
 
 
 
 
 
   
 
   
     
 
 
     

 










































1
1
1
1
1
,
1
1,
1
1
1
l
l l
l
s
j
l
j
l
ji
l
i
s
j
l
j
l
j
s
k
l
k
l
jkl
i
l
i
l
i
s
j
l
j
l
i
l
j
l
i
l
i
l
i
l
i
wzg
z
F
baw
az
a
z
F
a
z
z
a
z
F


 l
jiw ,
 l
jb
 yyF ˆ,
損失函式示意圖
誤
差
或
損
失
全域最佳解
區域最佳解
 
 
 
  0and
otherwise,0
f,1
where 




 



l
i
l
j
l
i
l
k
a
bkii
a
a
研究背景-神經網路(梯度下降法)
對 值計算偏微分之數學證明
對 值計算偏微分之數學證明
37
 
 
   
 
     
 
   1
1,
,
1
,
1
,































l
j
l
i
l
j
l
j
s
k
l
k
l
jkl
ji
l
j
l
ji
l
j
l
ji
a
z
F
baw
w
z
F
w
z
w
F
l

 
 
 
  0and
otherwise,0
f,1
where
,,
,





 



l
ji
l
j
l
ji
l
jk
w
bkii
w
w
 
 
   
 
     
 
 1
1,
1
1































l
j
l
j
l
j
s
k
l
k
l
jkl
j
l
j
l
j
l
j
l
j
z
F
baw
b
z
F
b
z
b
F
l

 
  0where
,



l
i
l
jk
b
w
 l
jb
 l
jiw ,
   
 l
ji
l
ji
l
ji
w
F
ww
,
,,


 
權重值修正
   
 l
j
l
j
l
j
b
F
bb


 
誤差項值修正
為學習率
避免一次跳太遠,
而錯過全域最佳解

為學習率
避免一次跳太遠,
而錯過全域最佳解

研究方法
流量估計方法
◦ 運用一般位置更新(normal location update, NLU)
◦ 運用交遞(handoff, HO)
密度估計方法
◦ 運用通話到達(call arrival, CA)
◦ 運用週期位置更新(periodic location update, PLU)
車速估計方法
◦ 運用估計流量和估計密度
◦ 基於一般位置更新、通話到達
◦ 基於一般位置更新、週期位置更新
◦ 基於交遞、通話到達
◦ 基於交遞、週期位置更新
38
Data Network
RNS
GPRS/GSM MS
UE
BTS
Node B
BSC
RNC
Um
Uu Iub
A-bis
BSS
MSC/VLR
SGSN GGSN
HLR
Gn
GcGrGs
A
IuPS
IuCS
Gb
Core Network
PSTN
Cellular Network Signal
Retriever
Traffic Information
Estimation Methods
Vehicle Speed Forecasting
Method
ITS
K
Q
U
U
Q
K 
研究方法
訓練階段
◦ 收集一般位置更新、交遞、通話到達、週期位置
更新
◦ 運用流量估計方法、密度估計方法、車速估計方
法分別產生估計流量、估計密度、估計車速
◦ 訓練當下估計車速與未來車速之神經網路模型作
為預測未來車速使用
執行階段
◦ 收集一般位置更新、交遞、通話到達、週期位置
更新
◦ 運用流量估計方法、密度估計方法、車速估計方
法分別產生估計流量、估計密度、估計車速
◦ 將當下估計車速代入「當下估計車速與未來車速
線性迴歸模型」預測未來車速
39
‧
‧
‧
‧
‧
‧
InputsInputs Hidden LayerHidden Layer
OutputOutput

haiu ,

naiu ,

hpiu ,

npiu ,
'1
iU
研究方法
Assumptions
◦ The call arrivals to/from one MS per one car along the road can be evaluated. The call holding time t is
exponentially distributed with the mean 1/m.
◦ The real traffic flow Qi, real vehicle speed Ui , and real traffic density Ki along the road can be obtained
from the VD data on the road segment covered by Celli.
◦ The mileage x is the time difference traveled from the first call arrival location to entering the specific
cell.
◦ The mileage li is the distance of road segment covered by Celli.
Outputs
◦ hi: The amount of HOs on the road segment covered by the specific cell.
◦ ai: The amount of CAs on the road segment covered by the specific cell.
◦ pi: The amount of PLUs on the road segment covered by the specific cell.
40
研究方法
流量估計方法
◦ 運用一般位置更新(normal location update, NLU)
41
Cell1 Cell4
Normal Location
Update at time t1
1
21
Cell2
Normal Location
Update at location L1
Road
Cell3
a
BSC/RNC
LA1
2
LA2
b
ini Qq ,
研究方法
流量估計方法
◦ 運用交遞(handoff, HO)
42
 
m
m m i
x xt
t
i
x
ii
Q
dxdteQ
dxxtQh


 








0
0
Pr
Call Arrival Call Departure
t
li/Ui
enter Celli leave Celli
x
t0 t1 t2 t3
m ihi hq ,
研究方法
密度估計方法
◦ 運用通話到達(call arrival, CA)
43
1
1st
Call Arrival
at t0
Road
Celli
2nd
Call Arrival
at t2
Entering Cell
at t1
Leaving Cell
at t3
BSC/RNC
b
1
a
1st
Call Arrival 2nd
Call Arrival
t
li/Ui
Entering Celli Leaving Celli
x
t0 t1 t2 t3
研究方法
密度估計方法
◦ 運用通話到達(call arrival, CA)
44
 
i
U
U
i
i
i
l
i
i
i
i
U
U
i
l
i
i
U
l
i
i
U
l
i
i
U
l
i
x
U
l
x
x
i
x
i
i
i
ii
U
eK
U
Q
Q
a
Q
U
e
UQ
a
e
Q
a
e
Q
a
e
Q
dxdeQ
dx
U
l
xxQ
tttQa
i
i
i
i
i
i
i
i
i
i
i
i
i
i
1
1limwhere,11
1
1limwhere,
1
11
111
1
1
Pr
Pr
1
1
1
1
1
1
0
0
321


























































 






t
t





t
t
i
U
U
i
i
i
l
i
i
iai
U
e
K
U
Q
q
a
qk
i
i
i
1
1limherew
,-1-1
1
1
,






















1st
Call Arrival 2nd
Call Arrival
t
li/Ui
Entering Celli Leaving Celli
x
t0 t1 t2 t3
研究方法
密度估計方法
◦ 運用週期位置更新(periodic location update, PLU)
◦ Scenario (1): No Call between Two Consecutive PLU Events
◦ Scenario (2): Several Calls between Two Consecutive PLU Events
◦ Consider Scenarios (1) and (2)
45
1st
Location Update
at t0
Road
Cell
2nd
Location Update
at t2
enter Cell at t1 leave Cell at t3
研究方法
密度估計方法
◦ 運用週期位置更新(periodic location update, PLU)
◦ Scenario (1): No Call between Two Consecutive PLU Events
◦ Scenario (2): Several Calls between Two Consecutive PLU Events
◦ Consider Scenarios (1) and (2)
46
Ub
l
dx
b
dxxf
b
U
l
x
b
U
l
bx
b
U
l
bx














1
)(
Pr
)1ScenarioPr(
1st Location Update 2nd Location Update
b
l/U
enter Cell leave Cell
x
t0 t1 t2 t3
研究方法
密度估計方法
◦ 運用週期位置更新(periodic location update, PLU)
◦ Scenario (1): No Call between Two Consecutive PLU Events
◦ Scenario (2): Several Calls between Two Consecutive PLU Events
◦ Consider Scenarios (1) and (2)
47
1st
call arrival
at t1
Road
Cell
2nd
Location Update
at t3
Enter Cell
at t2
Leave Cell
at t4
1st
Location Update
at t0
2nd
call arrival
at t5
研究方法
密度估計方法
◦ 運用週期位置更新(periodic location update, PLU)
◦ Scenario (1): No Call between Two Consecutive PLU Events
◦ Scenario (2): Several Calls between Two Consecutive PLU Events
◦ Consider Scenarios (1) and (2)
48
 
 
Ub
l
e
Ub
l
de
dyyhdg
U
l
byb
b
U
l
yb
b
b
b
U
l
byb
2
2
)(
PrPr
Pr
)2ScenarioPr(

t
t
t
t
tt
t
t


























1st call arrival 2nd Location Update
b
l/U
enter Cell leave Cell
y
t1 t2 t3 t4
1st Location Update
t0
2nd call arrival
t5
t
研究方法
密度估計方法
◦ 運用週期位置更新(periodic location update, PLU)
◦ Scenario (1): No Call between Two Consecutive PLU Events
◦ Scenario (2): Several Calls between Two Consecutive PLU Events
◦ Consider Scenarios (1) and (2)
49
   
 
  
















Ub
l
ee
Ub
l
ee
Ub
l
e
bb
bb
bbb
2
3
2
1
)2SenarioPr(Pr)1SenarioPr(Pr)PLUPr(


tt
 
  
















bU
l
eeK
bU
l
eeQ
Qp
i
bb
i
i
bb
i
ii
2
3
2
3
)PLUPr(


  








b
l
ee
p
k
bb
i
pi
2
3
,

研究方法
車速估計方法
◦ 運用估計流量和估計密度
◦ 基於一般位置更新、通話到達
◦ 基於一般位置更新、週期位置更新
◦ 基於交遞、通話到達
◦ 基於交遞、週期位置更新
50
11
,,
,
-1-1




















il
ni
i
ai
ni
i
q
a
k
q
u


11
,
,
-1-1


















il
i
i
ai
hi
i
h
a
k
q
u

m

 
i
bb
ni
pi
ni
i
p
b
l
eeq
k
q
u









2
3,
,
,

 
i
bb
i
pi
hi
i
p
b
l
eeh
k
q
u









2
3
,
,

m
研究方法
預測未來車速
輸入參數
◦ 基於一般位置更新、通話到達之車速估計
◦ 基於一般位置更新、週期位置更新之車速估計
◦ 基於交遞、通話到達之車速估計
◦ 基於交遞、週期位置更新之車速估計
輸出參數
◦ 未來車速
51
‧
‧
‧
‧
‧
‧
InputsInputs Hidden LayerHidden Layer
OutputOutput

haiu ,

naiu ,

hpiu ,

npiu ,
'1
iU
研究方法
開啟「CFVD.xlsx」
欄位說明
◦ Current Speed:當下車速
◦ Future Speed:未來車速
◦ Est. Speed (NLU+CA):基於NLU和CA的
估計車速
◦ Est. Speed (NLU+PLU):基於NLU和PLU
的估計車速
◦ Est. Speed (HO+CA):基於HO和CA的估
計車速
◦ Est. Speed (HO+PLU):基於HO和PLU的
估計車速
52
研究方法
資料正規化
◦ 運用同除以最大值的方式
◦ 最大值設定為120 km/hr
◦ 讓所有車速同除以120
訓練神經網路之資料模型
◦ 輸入參數
◦ 基於一般位置更新、通話到達之車速估計
◦ 基於一般位置更新、週期位置更新之車速估計
◦ 基於交遞、通話到達之車速估計
◦ 基於交遞、週期位置更新之車速估計
◦ 輸出參數
◦ 未來車速
另存新檔為「CFVD.csv」
53
研究方法
連結Azure Machine Learning Studio
◦ 網址:https://studio.azureml.net/
點選「DATASETS」
點擊「NEW」,新增資料集
54
研究方法
點擊「FROM LOCAL FILE」上傳檔案
55
研究方法
點選「CFVD.csv」
點擊「V」,開始上傳檔案
56
研究方法
檔案上傳成功畫面
57
研究方法
點選「EXPERIMENTS」
點擊「NEW」,新增實驗
58
研究方法
點選「Blank Experiment」,空白實驗
環境
59
研究方法
拖曳「Saved Datasets  My Datasets 
CFVD.csv」至實驗環境中
60
研究方法
由於本研究採用線性迴歸,故運用
Linear Regression模型
拖曳「Machine Learning  Initialize
Model  Regression  Neural Network
Regression」至實驗環境中
61
研究方法
拖曳「Machine Learning  Train  Train
Model」至實驗環境中
將「 Neural Network Regression」連結
至「Train Model」左上方,設定機器學
習模型
將「CFVD.csv」連結至「Train Model」
右上方,設定訓練資料
點擊「Launch column selector」
62
研究方法
由於目標為估計密度,故輸入「Future
Speed」,設定輸出為密度值
點擊「V」,完成資料屬性設定
63
研究方法
拖曳「Machine Learning  Score  Score
Model」至實驗環境中
將「Train Model」連結至「Score Model」
左上方,設定訓練好線性迴歸模型
將「CFVD.csv」連結至「Score Model」
右上方,設定測試資料
64
研究方法
拖曳「Machine Learning  Evaluate 
Evaluate Model」至實驗環境中
將「Score Model」連結至「Evaluate
Model」左上方,設定測試結果
65
研究方法
點擊「Neural Network Regression」,並
設定相關參數
◦ Number of hidden nodes: 15
◦ Learning rate: 0.01
◦ Number of learning iteration: 1000000
點擊「Run」,開始執行實驗
66
研究方法
於「Score Model」點擊滑鼠右鍵,點選
「Visualize」,瀏覽測試結果
67
研究方法
「Scored Labels」為每一筆測試結果
68
研究方法
於「Evaluate Model」點擊滑鼠右鍵,
點選「Visualize」,瀏覽驗證結果
69
研究方法
可瀏覽平均誤差值
70
實驗結果與討論
實驗環境
◦ 運用VISSIM軟體產生車輛移動紀錄
◦ 運用亂數產生器產生通聯紀錄
◦ 分析車輛移動和通聯紀錄
71
Cell1 Cell2 Cell3 Cell4 Cell5 Cell6 Cell7 Cell8 Cell9 Cell10
LA1 LA2 LA3 LA4
r1 r2 r3 r4 r5 r6 r7 r8 r9 r10
Road
The amount of NLU
in LA1 q1=q2=q3
The amount of NLU
in LA2 q4=q5=q6
The amount of NLU
in LA3 q7=q8=q9
The amount of
NLU in LA4 q10
VD1 VD2 VD3 VD4 VD5 VD6 VD7 VD8 VD9 VD10
Road Conditions and
Vehicle Movement
Behaviors
Trace File
Vehicle Movement
Trace Generation
MS Communication
Behaviors
MS Communication
Trace Generation
Vehicle movement
and
MS communication
Trace Generation
Trace File Traffic Information
Estimation
實驗結果與討論
流量估計方法
◦ 運用一般位置更新(normal location update, NLU)
72
LA Cell Ui Ki Qi qi,n Traffic Flow Estimation Accuracy
1 1 94.4 38.17 3547 3547 100.00%
1 2 94.02 37.58 3520 3547 99.23%
1 3 93.66 37.44 3489 3547 98.34%
2 4 93.42 37.25 3449 3449 100.00%
2 5 93.5 36.92 3395 3449 98.41%
2 6 93.37 36.31 3353 3449 97.14%
3 7 93.3 35.91 3311 3311 100.00%
3 8 93.19 35.49 3269 3311 98.72%
3 9 93.22 35.08 3225 3311 97.33%
4 10 94.52 34.59 3196 3196 100.00%
Average 98.92%
實驗結果與討論
流量估計方法
◦ 運用交遞(handoff, HO)
73
Cell Ui Ki Qi The amount of HO qi,h Traffic Flow Estimation Accuracy
1 94.4 38.17 3547 66 3960 88.36%
2 94.02 37.58 3520 68 4080 84.09%
3 93.66 37.44 3489 56 3360 96.30%
4 93.42 37.25 3449 62 3720 92.14%
5 93.5 36.92 3395 70 4200 76.29%
6 93.37 36.31 3353 69 4140 76.53%
7 93.3 35.91 3311 52 3120 94.23%
8 93.19 35.49 3269 46 2760 84.43%
9 93.22 35.08 3225 49 2940 91.16%
10 94.52 34.59 3196 55 3300 96.75%
Average 88.03%
實驗結果與討論
密度估計方法
◦ 運用通話到達(call arrival, CA)
74
LA Cell Qi Ki qi ki,a Traffic Flow Estimation Accuracy
1 1 3547 38.17 3547 38 99.56%
1 2 3520 37.58 3547 37 98.47%
1 3 3489 37.44 3547 31 82.80%
2 4 3449 37.25 3449 35 93.95%
2 5 3395 36.92 3449 37 99.78%
2 6 3353 36.31 3449 38 95.34%
3 7 3311 35.91 3311 33 91.90%
3 8 3269 35.49 3311 30 84.54%
3 9 3225 35.08 3311 33 94.07%
4 10 3196 34.59 3196 35 98.83%
Average 93.92%
實驗結果與討論
密度估計方法
◦ 運用週期位置更新(periodic location update, PLU)
75
0
20
40
60
80
100
120
140
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Density(car/km)
Simulation Time (hr)
Actual Density Estimated Density by Using HO events Estimated Density by Using PLU events
0
10
20
30
40
50
60
70
80
90
100
0
1000
2000
3000
4000
5000
6000
7000
0 2 4 6 8 10 12 14 16 18 20 22 24
Density(car/km)
Speed(km/hr)
Flow(car/hr)
Simulation Time (hr)
Flow
Speed
Actual Density
實驗結果與討論
車速估計方法
◦ 運用估計流量和估計密度
◦ 基於一般位置更新、通話到達
76
LA Cell qi ki ui Ui Traffic Speed Estimation Accuracy
1 1 3547 38 93.34 94.40 98.88%
1 2 3547 37 95.86 94.02 98.04%
1 3 3547 31 114.42 93.66 77.84%
2 4 3449 35 98.54 93.42 94.52%
2 5 3449 37 93.22 93.50 99.70%
2 6 3449 38 90.76 93.37 97.21%
3 7 3311 33 100.33 93.30 92.46%
3 8 3311 30 110.37 93.19 81.57%
3 9 3311 33 100.33 93.22 92.37%
4 10 3196 35 91.31 94.52 96.61%
Average 92.92%
92.1635.9 2
9,05.0
2
 
實驗結果與討論
不同方法比較
77
HO-based FPA-based CP-based
Monitored Interfaces A and IuCS A-bis and Iub A and IuCS
The number of required servers < 100 > 10000 < 100
The error ratio of speed estimation 17.30% 3.39% 2.52%
實驗結果與討論
預測未來車速正確率
78
Cell The Accuracy of LR The Accuracy of BPNN
Cell1 94.82% 96.01%
Cell2 93.76% 96.29%
Cell3 93.42% 95.24%
Cell4 92.39% 94.03%
Cell5 93.25% 94.72%
Cell6 93.59% 97.35%
Cell7 92.26% 95.74%
Cell8 93.73% 95.19%
Cell9 93.84% 96.88%
Mean 93.45% 95.72%
結論與未來研究
本研究運用蜂巢流動車輛資料估計當下車速和預測未來車速
◦ 運用蜂巢流動車輛資料進行流量估計和密度估計
◦ 運用估計流量和估計密度進行當下車速估計
◦ 基於神經網路模型,運用當下估計車速,預測未來車速
有鑑於目標路段的交通資訊將受到相鄰路段影響,未來可考慮前後路段交通資訊,以提升
預測準確度
◦ 第i個路段第t個時間點的車速為ui,t
79
道路
u1,t u2,t u3,t u4,t u5,t
路段1 路段2 路段3 路段4 路段5
u1,t
u2,t
u3,t
u4,t
u5,t
f(u1,t , u2,t , u3,t , u4,t , u5,t) u3,t+1

Más contenido relacionado

La actualidad más candente

人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論Fuzhou University
 
人工智慧10_卷積神經網路
人工智慧10_卷積神經網路人工智慧10_卷積神經網路
人工智慧10_卷積神經網路Fuzhou University
 
神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)Fuzhou University
 
我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptxjames tong
 
多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層Fuzhou University
 

La actualidad más candente (6)

人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論
 
人工智慧10_卷積神經網路
人工智慧10_卷積神經網路人工智慧10_卷積神經網路
人工智慧10_卷積神經網路
 
深度學習方法與實作
深度學習方法與實作深度學習方法與實作
深度學習方法與實作
 
神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)
 
我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx
 
多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層
 

Similar a 論文導讀02_神經網路(智慧交通)

初探深度學習技術與應用
初探深度學習技術與應用初探深度學習技術與應用
初探深度學習技術與應用Fuzhou University
 
運用擴增實境技術建立數位學習環境
運用擴增實境技術建立數位學習環境運用擴增實境技術建立數位學習環境
運用擴增實境技術建立數位學習環境Tehuan Chung
 
Big Data : The Missing Puzzle of Mobile Computing
Big Data : The Missing Puzzle of Mobile ComputingBig Data : The Missing Puzzle of Mobile Computing
Big Data : The Missing Puzzle of Mobile ComputingJazz Yao-Tsung Wang
 
医学影像+人工智能的特点、技术与趋势.pdf
医学影像+人工智能的特点、技术与趋势.pdf医学影像+人工智能的特点、技术与趋势.pdf
医学影像+人工智能的特点、技术与趋势.pdftanmin14
 
教材摘要版 -Big data-海量資料的資料採礦方法-三星課程網陳景祥顧問-20130521
教材摘要版 -Big data-海量資料的資料採礦方法-三星課程網陳景祥顧問-20130521教材摘要版 -Big data-海量資料的資料採礦方法-三星課程網陳景祥顧問-20130521
教材摘要版 -Big data-海量資料的資料採礦方法-三星課程網陳景祥顧問-20130521Beckett Hsieh
 
Stock Analysis
Stock AnalysisStock Analysis
Stock Analysis佳蓉 倪
 
論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)Fuzhou University
 
Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16Zijian Zhao
 
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙Zih-Ming Yang
 
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙Zih-Ming Yang
 
Huang Chen Lee ' Research Introduction 實驗室介紹
Huang Chen Lee ' Research Introduction  實驗室介紹Huang Chen Lee ' Research Introduction  實驗室介紹
Huang Chen Lee ' Research Introduction 實驗室介紹Warren Huang-Chen Lee
 
公版教具元件感測器3-8x8LED點矩陣.pptx
公版教具元件感測器3-8x8LED點矩陣.pptx公版教具元件感測器3-8x8LED點矩陣.pptx
公版教具元件感測器3-8x8LED點矩陣.pptxssuser9dbe5c
 
保全機器人與居家防護系統實作
保全機器人與居家防護系統實作保全機器人與居家防護系統實作
保全機器人與居家防護系統實作艾鍗科技
 
去哪儿平台技术
去哪儿平台技术去哪儿平台技术
去哪儿平台技术d0nn9n
 
基于视频的疲劳驾驶检测系统
基于视频的疲劳驾驶检测系统基于视频的疲劳驾驶检测系统
基于视频的疲劳驾驶检测系统Ruofei Du
 

Similar a 論文導讀02_神經網路(智慧交通) (18)

初探深度學習技術與應用
初探深度學習技術與應用初探深度學習技術與應用
初探深度學習技術與應用
 
運用擴增實境技術建立數位學習環境
運用擴增實境技術建立數位學習環境運用擴增實境技術建立數位學習環境
運用擴增實境技術建立數位學習環境
 
Big Data : The Missing Puzzle of Mobile Computing
Big Data : The Missing Puzzle of Mobile ComputingBig Data : The Missing Puzzle of Mobile Computing
Big Data : The Missing Puzzle of Mobile Computing
 
医学影像+人工智能的特点、技术与趋势.pdf
医学影像+人工智能的特点、技术与趋势.pdf医学影像+人工智能的特点、技术与趋势.pdf
医学影像+人工智能的特点、技术与趋势.pdf
 
教材摘要版 -Big data-海量資料的資料採礦方法-三星課程網陳景祥顧問-20130521
教材摘要版 -Big data-海量資料的資料採礦方法-三星課程網陳景祥顧問-20130521教材摘要版 -Big data-海量資料的資料採礦方法-三星課程網陳景祥顧問-20130521
教材摘要版 -Big data-海量資料的資料採礦方法-三星課程網陳景祥顧問-20130521
 
Stock Analysis
Stock AnalysisStock Analysis
Stock Analysis
 
論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)
 
Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16
 
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
 
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
10.以wsn模組設計節能應用模組與智慧功率回報開關之研製 郭政謙
 
Huang Chen Lee ' Research Introduction 實驗室介紹
Huang Chen Lee ' Research Introduction  實驗室介紹Huang Chen Lee ' Research Introduction  實驗室介紹
Huang Chen Lee ' Research Introduction 實驗室介紹
 
公版教具元件感測器3-8x8LED點矩陣.pptx
公版教具元件感測器3-8x8LED點矩陣.pptx公版教具元件感測器3-8x8LED點矩陣.pptx
公版教具元件感測器3-8x8LED點矩陣.pptx
 
保全機器人與居家防護系統實作
保全機器人與居家防護系統實作保全機器人與居家防護系統實作
保全機器人與居家防護系統實作
 
Foodie warroom
Foodie warroomFoodie warroom
Foodie warroom
 
資料科學於預防醫學之應用
資料科學於預防醫學之應用資料科學於預防醫學之應用
資料科學於預防醫學之應用
 
MCCC Lab
MCCC LabMCCC Lab
MCCC Lab
 
去哪儿平台技术
去哪儿平台技术去哪儿平台技术
去哪儿平台技术
 
基于视频的疲劳驾驶检测系统
基于视频的疲劳驾驶检测系统基于视频的疲劳驾驶检测系统
基于视频的疲劳驾驶检测系统
 

Más de Fuzhou University

多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體Blender多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體BlenderFuzhou University
 
多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境Fuzhou University
 
機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning Studio機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning StudioFuzhou University
 
多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術Fuzhou University
 
多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境Fuzhou University
 
多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie Maker多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie MakerFuzhou University
 
多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件Fuzhou University
 
多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫Fuzhou University
 
多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用Fuzhou University
 
多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境Fuzhou University
 
人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路Fuzhou University
 
人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境Fuzhou University
 

Más de Fuzhou University (14)

多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體Blender多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體Blender
 
多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境
 
機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning Studio機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning Studio
 
多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術
 
多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境
 
多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie Maker多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie Maker
 
多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件
 
多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫
 
多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用
 
多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境
 
人工智慧06_決策樹
人工智慧06_決策樹人工智慧06_決策樹
人工智慧06_決策樹
 
人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路
 
人工智慧03_關聯規則
人工智慧03_關聯規則人工智慧03_關聯規則
人工智慧03_關聯規則
 
人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境
 

論文導讀02_神經網路(智慧交通)

  • 2. 報告大綱-神經網路(智慧交通) 論文導讀 前言 研究背景 ◦ 交通三元素 ◦ 蜂巢流動車輛資料(Cellular Floating Vehicle Data, CFVD) ◦ 神經網路(Neural Network, NN) 研究方法 實驗結果與討論 結論與未來研究 2
  • 3. 論文導讀 Wei-Kuang Lai, Ting-Huan Kuo, Chi-Hua Chen, “Vehicle Speed Estimation and Forecasting Methods Based on Cellular Floating Vehicle Data,” Applied Sciences, vol. 6, no. 2, Article ID 47, February 2016. (SCI, ISSN 2076-3417) ◦ DOI: 10.3390/app6020047 ◦ Times Cited in Google Scholar: 3 ◦ Impact Factor: 1.679 3
  • 4. 前言 常見的交通資訊收集方法 ◦ 車輛偵測器(Vehicle Detector, VD) ◦ 電子標籤偵測器(eTag Detector, ETD) ◦ 探偵車(Probe Car, PC) ◦ 蜂巢流動車輛資料(Cellular Floating Vehicle Data, CFVD) 蜂巢流動車輛資料優勢 ◦ 平均人手一機以上(資料樣本多) ◦ 不用額外的部署成本(成本低) ◦ 可適用全台灣地區(資料全面) 4 Data Network RNS GPRS/GSM MS UE BTS Node B BSC RNC Um Uu Iub A-bis BSS MSC/VLR SGSN GGSN HLR Gn GcGrGs A IuPS IuCS Gb Core Network PSTN Cellular Network Signal Retriever Traffic Information Estimation Methods Vehicle Speed Forecasting Method ITS GSM: Global System for Mobile Communications GPRS: General Packet Radio SerVice MS: Mobile Station BTS: Base Transceiver Station BSC: Base Station Controller MSC: Mobile Switching Center SGSN: Serving GPRS Support Node GGSN: Gateway GPRS Support Node VLR: Visitor Location Register HSS: Home Subscriber Server HLR: Home Location Register PSTN: Public Switched Telephone Network UE: User Equipment RNC: Radio Network Controller ITS: Intelligent Transportation System
  • 5. 研究背景 研究背景 ◦ 交通三元素 ◦ 蜂巢流動車輛資料(Cellular Floating Vehicle Data, CFVD) ◦ 神經網路(Neural Network, NN) ◦ 神經網路在學什麼? ◦ 線性迴歸(梯度下降法) ◦ 邏輯迴歸(梯度下降法) ◦ 神經網路(梯度下降法) 5
  • 6. 研究背景-交通三元素 流量(Flow): ◦ 在時間單位內通過的車輛數 ◦ Q (車輛數/小時) 時間平均車速(Time Mean Speed, TMS): ◦ 一個空間點一段時間內的平均車速 ◦ Ut (公里/小時) 空間平均車速(Space Mean Speed, SMS): ◦ 一段空間距離內的平均車速 ◦ Us (公里/小時) 密度(Density): ◦ 在空間單位內的車輛數 ◦ K (車輛數/公里) = Q / Ut 旅行時間(Travel Time): ◦ 經過一段空間距離花費的時間差 ◦ T (小時) = 距離 / Us 6 道路 Us VD1 偵測得到Q和Ut VD2 可用eTag偵測器得到 可用車輛偵測器(Vehicle Detector, VD)得到 空間平均車速(SMS)可直接與距離進行計算取得 「旅行時間」,旅行時間資訊對政府和用路人較重要
  • 7. 研究背景-交通三元素 流量與車速關係 ◦ 橫向U型 密度與車速關係 ◦ 呈反比 密度與流量關係 ◦ 倒立U型 7 流量與車速關係 密度與流量關係密度與車速關係 流量2028輛/小時, 時速12公里/小時 前面路段塞車,故車流 進不來,車速也不快 1 2 3 32 1 道路順暢,正常車速 有點塞車, 流量增加,車速減慢 道路順暢,正常車速 道路上的車輛很多, 塞車狀態,車速下降 密度42輛/公里/車道, 流量2028輛/小時, 時速12公里/小時 此例為4個車道
  • 8. 研究背景-蜂巢流動車輛資料 常見蜂巢流動車輛資料方法 ◦ 運用兩次交遞(handoff, HO)估計車速[1, 2] ◦ 運用位置更新(location update, LU)估計流量[3] 8 Cell1 HO1 at location L1 at time t1 HO2 at location L2 at time t2 Road Cell2 Cell3 Call arrival at time t0 MS Call completion at time t3 Accident 12 21 2,1 ),( tt LLd U   1. D. Gundlegård and J. M. Karlsson, "Handover location accuracy for travel time estimation in GSM and UMTS", Sweden, 2009. 2. H. Bar-Gera, "Evaluation of a cellular phone-based system for measurements of traffic speeds and travel times: A case study from Israel", Israel, 2007. 3. D. Valerio, T. Witek, F. Ricciato, R. Pilz, W. Wiedermann, "Road traffic estimation from cellular network monitoring: a hands-on investigation", IEEE 20th Personal Indoor Mobile Radio Communication Symposium 2009, Tokyo, Japan, 2009. 運用兩次交遞估計車速 運用位置更新估計流量
  • 9. 研究背景-神經網路 神經網路(Neural Network, NN) ◦ 神經網路在學什麼? ◦ 線性迴歸(梯度下降法) ◦ 邏輯迴歸(梯度下降法) ◦ 神經網路(梯度下降法) 9
  • 10. 研究背景-神經網路在學什麼? 原始資料 結構化資料 機器學習結果 10 時間 平均股價 103年2月 90.77 103年3月 92.74 103年4月 93.98 103年5月 ? 輸入值(x) 輸出值(y) 1 90.77 2 92.74 3 93.98   bxwxfy    287.89605.1  xxfy   707.954  fy 線性迴歸結果 資料前處理 90 91 92 93 94 95 96 103-2 103-3 103-4 103-5 平均股價 年份-月份 中華電信103年2月-4月平均股價 f(x)為一條趨勢線 深度學習主要就是 在學習「趨勢」 95.707 資料來源:個股月成交資訊,臺灣證券交易所,網址:https://goo.gl/ykB3gA 趨勢線定義: 點到線的距離最小化 中華電信103年5月 平均股價多少? (也就是x=4代入) 95.707 f(x) = f(4) 機器人圖片來源: Eyebot Chat Room. Url: https://goo.gl/gpMrK9
  • 11. 研究背景-神經網路在學什麼? 原始資料 結構化資料 機器學習結果 11 時間 平均股價 102年1月 105.71 102年2月 104.02 102年3月 102.86 102年4月 102.51 輸入值(x) 輸出值(y) 1 105.71 2 104.02 3 102.86 資料前處理 台灣大哥大102年4 月平均股價多少? (也就是x=4代入) 101.35 f(x) = f(4) 機器人圖片來源: Eyebot Chat Room. Url: https://goo.gl/gpMrK9   bxwxfy      05.107425.1  xxfy   35.1014  fy 線性迴歸結果 101 102 103 104 105 106 107 102-1 102-2 102-3 102-4 平均股價 年份-月份 台灣大哥大102年1月-4月平均股價 101.35 資料來源:個股月成交資訊,臺灣證券交易所,網址:https://goo.gl/ykB3gA 學習出來的線性趨勢與 真實資料有很大的誤差 真實資料為 「非線性趨勢」
  • 12. 研究背景-神經網路在學什麼? 原始資料 結構化資料 機器學習結果 12 時間 平均股價 102年1月 105.71 102年2月 104.02 102年3月 102.86 102年4月 102.51 輸入值(x) 輸出值(y) 1 105.71 2 104.02 3 102.86 資料前處理 台灣大哥大102年4 月平均股價多少? (也就是x=4代入) 期望可以 回答102.51 f(x) = f(4) 機器人圖片來源: Eyebot Chat Room. Url: https://goo.gl/gpMrK9 101 102 103 104 105 106 107 102-1 102-2 102-3 102-4 平均股價 年份-月份 台灣大哥大102年1月-4月平均股價 資料來源:個股月成交資訊,臺灣證券交易所,網址:https://goo.gl/ykB3gA 期望建立一條 非線性(曲線)趨勢線 真實資料為 「非線性趨勢」   ? xfy 如何讓機器學習得到 非線性(曲線)趨勢線?
  • 13. 研究背景-神經網路在學什麼? 原始資料 結構化資料 機器學習結果 13 時間 平均股價 102年1月 105.71 102年2月 104.02 102年3月 102.86 102年4月 102.51 資料前處理 台灣大哥大102年4 月平均股價多少? (也就是x=4代入) 預測值0.967 再乘上105.71 回答102.222 f(x) = f(4) 機器人圖片來源: Eyebot Chat Room. Url: https://goo.gl/gpMrK9 0.95 0.96 0.97 0.98 0.99 1 102-1 102-2 102-3 102-4 平均股價 年份-月份 台灣大哥大102年1月-4月平均股價 資料來源:個股月成交資訊,臺灣證券交易所,網址:https://goo.gl/ykB3gA 建立一條 非線性(曲線)趨勢線 真實資料為 「非線性趨勢」 正規化 同除以 105.71 輸入值(x) 輸出值(y) 1 1 2 0.984 3 0.973 4 0.970     z e zsxfy bxwz     1 1       967.0 1 1 37.34 275.5476.0 37.3      e sfy xz 經由S型函式得到 非線性(曲線)結果 邏輯迴歸結果
  • 14. 研究背景-神經網路在學什麼? 線性迴歸 vs. 邏輯迴歸 線性迴歸和邏輯迴歸的限制 ◦ 假設參數之間互相獨立 ◦ 當參數有交互影響時將會不準 ◦ 不適合的例子─XOR (互斥或)計算 14 線性迴歸 邏輯迴歸 輸入值 x X 輸出值 核心函式 線性函式 S型函式   bxwxfy      z e zsxfy bxwz     1 1 X1 X2 Y 估計值 0 0 0 0.5 0 1 1 0.5 1 0 1 0.5 1 1 0 0.5 w 機器學習無法學會 XOR,所以權重皆接 近為0,全部猜0.5 5.0 1 1 0     e 估計值 輸入層 輸出層 輸入層 輸出層
  • 15. 研究背景-神經網路在學什麼? 原始資料 15 月份 遠傳 台灣大 中華電 102年2月 跌 跌 跌 102年3月 跌 跌 跌 102年4月 漲 跌 漲 102年5月 漲 漲 漲 102年6月 漲 跌 跌 102年7月 漲 漲 漲 102年8月 跌 跌 跌 102年9月 跌 跌 漲 102年10月 跌 跌 跌 102年11月 跌 漲 跌 102年12月 跌 跌 漲 103年1月 跌 跌 跌 電信三雄的股價漲跌狀況 月份 遠傳 (當月) (X1) 台灣大 ( 當月) (X2) 中華電 (次月) (Y) 102年2月 0 0 0 102年3月 0 0 1 102年4月 1 0 1 102年5月 1 1 0 102年6月 1 0 1 102年7月 1 1 0 102年8月 0 0 1 102年9月 0 0 0 102年10月 0 0 0 102年11月 0 1 1 102年12月 0 0 0 103年1月 0 0 0 運用「遠傳和台灣大漲跌」預測「中華電漲跌」跌為0、漲為1 電信三雄股價是XOR現象 12個月份中有10個月份符合 XOR的現象 用線性迴歸或邏輯迴歸預 測會不準,必需要使用 「神經網路」
  • 16. 研究背景-神經網路在學什麼? 預測結果 16 月份 遠傳 (當月) 台灣大 ( 當月) 中華電 (次月) 真實值 中華電 (次月) 估計值 102年2月 0 0 0 0 102年3月 0 0 1 0 102年4月 1 0 1 1 102年5月 1 1 0 0 102年6月 1 0 1 1 102年7月 1 1 0 0 102年8月 0 0 1 0 102年9月 0 0 0 0 102年10月 0 0 0 0 102年11月 0 1 1 1 102年12月 0 0 0 0 103年1月 0 0 0 0 預測準確度為 10/12 = 83% 兩筆誤判 其他正確 h1 h2 輸入層 隱藏層 輸出層 加入隱藏層 學「深」一點 分析因子相依性 神經網路 多層迴歸  當參數有交互影響時,只有一層迴歸函式(即input直接對到 output)將會不準  可以多加入一層隱藏層,隱藏層中有2個神經元,透過隱藏層 神經元來分析input參數之間的交互關係  輸入層和隱藏層之間可採用邏輯迴歸計算,隱藏層和輸出層 之間可採用邏輯迴歸計算
  • 17. 研究背景-神經網路在學什麼? 深度學習定義 ◦ 包含一層隱藏層以上的「神經網路」 深度學習目標 ◦ 學習資料的「趨勢」 深度學習優勢 ◦ 經由「隱藏層」分析因子間的相依性 適用情境 運算時間 ◦ 線性迴歸 < 邏輯迴歸 < 神經網路 17 適用情境 線性迴歸 邏輯迴歸 神經網路 線性問題 非線性問題 因子間獨立 因子間相依 資 料 來 源 : Yann LeCun, Yoshua Bengio, Geoffrey Hinton, “Deep learning,” Nature, no. 521, pp. 436–444, 2015 加深一層來學習因子相依性
  • 18. 18 0 0.05 0.1 0.15 0.2 0.25 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 F w 研究背景-線性迴歸(梯度下降法) 如何找曲線的相對低點? 如何讓w值向相對低點邁進?     25.0 5.0 2 2   ww wwF 12    w w F 目標函式 函式切線斜率 w=0.5時, F函式相對低點 對w微分 F函式之一階導函數 Iteration w F 1 0.000 0.250 -0.100 2 0.100 0.160 -0.080 3 0.180 0.102 -0.064 4 0.244 0.066 -0.051 5 0.295 0.042 -0.041 6 0.336 0.027 -0.033 7 0.369 0.017 -0.026 8 0.395 0.011 -0.021 9 0.416 0.007 -0.017 10 0.433 0.005 -0.013  12 w 0 0.05 0.1 0.15 0.2 0.25 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 F w 當w=0時,斜率為-1 當w=1時,斜率為1 斜率絕對值越大,則 所需修正幅度越大 當w=0.25時,斜率為-0.5 所需修正幅度較小  12     ww w F ww   為學習率 避免一次跳太遠    1.0 1021.00  w   18.0 11.021.01.0  w Iteration 2的w值 Iteration 3的w值 1.0 當經過63個Interation 後,w值將修正為0.5, 並且不需再修正(收斂) 用前一個Iteration 的w值減去斜率為 新的w值 當w=0.5時,斜率為0 斜率為0時,代表為相 對低點,不需修正
  • 19. 研究背景-線性迴歸(梯度下降法) 學習率的作用? 19 Iteration w F 1 0.000 0.250 -1.000 2 1.000 0.250 1.000 3 0.000 0.250 -1.000 4 1.000 0.250 1.000 5 0.000 0.250 -1.000 6 1.000 0.250 1.000 7 0.000 0.250 -1.000 8 1.000 0.250 1.000 9 0.000 0.250 -1.000 10 1.000 0.250 1.000 Iteration w F 1 0.000 0.250 -0.900 2 0.900 0.160 0.720 3 0.180 0.102 -0.576 4 0.756 0.066 0.461 5 0.295 0.042 -0.369 6 0.664 0.027 0.295 7 0.369 0.017 -0.236 8 0.605 0.011 0.189 9 0.416 0.007 -0.151 10 0.567 0.005 0.121 學習率 為0.9  12 w  12 w  學習率 為1 0 0.05 0.1 0.15 0.2 0.25 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 F w  12  www 學習率過大, w在0和1兩個值之 間擺盪,無法收斂 0 0.05 0.1 0.15 0.2 0.25 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 F w  129.0  www 學習率大時,擺盪 幅度較大 在複雜的情境中可 能錯過全域最佳解 經過63個Interation 後收斂
  • 20. 研究背景-線性迴歸(梯度下降法) 多個參數之目標函式 20     22 2 2 , bwbw bwbwF   目標函式 bw w F 22    函式切線斜率(對w偏微分) bw b F 22    函式切線斜率(對b偏微分) w修正方式 b修正方式  bww w F ww 22       bwb b F bb 22      w+b=0時, F函式相對低點 0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1F w    bwbb bwww 221.0 221.0   經過17個Interation 後收斂 w=0且b=0 Iteration w b F 1 1.000 1.000 4.000 0.400 2 0.600 0.600 1.440 0.240 3 0.360 0.360 0.518 0.144 4 0.216 0.216 0.187 0.086 5 0.130 0.130 0.067 0.052 6 0.078 0.078 0.024 0.031 7 0.047 0.047 0.009 0.019 8 0.028 0.028 0.003 0.011 9 0.017 0.017 0.001 0.007 10 0.010 0.010 0.000 0.004  bw 22  學習率 為0.1
  • 21. 0 0.005 0.01 0.015 0.02 0.025 0.03 0.035 0.04 0.9 0.91 0.92 0.93 0.94 0.95 0.96 0.97 0.98 0.99 1F w    bwbb bwww 221.0 221.0   經過13個Interation 後收斂 w=0.9且b=-0.9 研究背景-線性迴歸(梯度下降法) 多個參數之目標函式 21     22 2 2 , bwbw bwbwF   目標函式 bw w F 22    函式切線斜率(對w偏微分) bw b F 22    函式切線斜率(對b偏微分) w修正方式 b修正方式  bww w F ww 22       bwb b F bb 22      Iteration w b F 1 1.000 -0.800 0.040 0.040 2 0.960 -0.840 0.014 0.024 3 0.936 -0.864 0.005 0.014 4 0.922 -0.878 0.002 0.009 5 0.913 -0.887 0.001 0.005 6 0.908 -0.892 0.000 0.003 7 0.905 -0.895 0.000 0.002 8 0.903 -0.897 0.000 0.001 9 0.902 -0.898 0.000 0.001 10 0.901 -0.899 0.000 0.000  bw 22   w+b=0有無限多組解: • w = 0, b = 0 • w = 0.9, b = -0.9 • w = 1, b = -1 學習率 為0.1
  • 22. 研究背景-線性迴歸(梯度下降法) 梯度下降法應用於線性迴歸之權重和誤差項 22 bxwy  線性迴歸函式 (真值) bxwy ˆˆˆ     2 ˆˆ,ˆ yybwF                 12 ˆ ˆˆ ˆ2 ˆ ˆ ˆ2 ˆ ˆ ˆ 2              b bxwbxw yy b yy yy b yy b F 函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分) 線性迴歸函式 (估計值) 目標函式 wˆ bˆ 修正方式 修正方式wˆ bˆ   xw w F ww      2ˆ ˆ ˆˆ   12ˆ ˆ ˆˆ      b b F bb 令    yy ˆ 令    yy ˆ                x w bxwbxw yy w yy yy w yy w F             2 ˆ ˆˆ ˆ2 ˆ ˆ ˆ2 ˆ ˆ ˆ 2 w
  • 23. 研究背景-線性迴歸(梯度下降法) 梯度下降法應用於線性迴歸之權重和誤差項 23 bxwy  線性迴歸函式 (真值) bxwy ˆˆˆ      2 2 ˆˆ,ˆ   yybwF 函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分) 線性迴歸函式 (估計值) 目標函式 wˆ bˆ 修正方式 修正方式wˆ bˆ   xw w F ww      2ˆ ˆ ˆˆ   12ˆ ˆ ˆˆ      b b F bb        x x w y y F w F                  2 12 ˆ ˆ ˆˆ 令    yy ˆ        12 112 ˆ ˆ ˆˆ                  b y y F b F w
  • 24. 研究背景-線性迴歸(梯度下降法) 梯度下降法應用於線性迴歸之權重和誤差項 24 Iteration x w b y F 1 0.10 1.00 0.00 0.10 0.50 0.50 0.55 0.20 0.06 0.63 2 0.20 1.00 0.00 0.20 0.44 -0.13 -0.04 0.06 -0.07 -0.34 3 0.30 1.00 0.00 0.30 0.50 0.21 0.36 0.00 0.03 0.09 4 0.40 1.00 0.00 0.40 0.48 0.12 0.32 0.01 -0.05 -0.12 5 0.50 1.00 0.00 0.50 0.53 0.24 0.51 0.00 0.00 0.01 6 0.10 1.00 0.00 0.10 0.52 0.23 0.29 0.03 0.03 0.26 7 0.20 1.00 0.00 0.20 0.50 -0.03 0.07 0.02 -0.04 -0.18 8 0.30 1.00 0.00 0.30 0.53 0.15 0.31 0.00 0.00 0.02 9 0.40 1.00 0.00 0.40 0.53 0.14 0.35 0.00 -0.03 -0.07 10 0.50 1.00 0.00 0.50 0.56 0.21 0.49 0.00 -0.01 -0.02 yˆwˆ bˆ 以 為例01  xy 0 0.05 0.1 0.15 0.2 0.25 0.4 0.5 0.6 0.7 0.8 0.9 1 F wwˆ 學習率 為0.7 經過770個Interation 後收斂   x 2   12  w
  • 25. 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0 0.1 0.2 0.3 0.4 0.5 F w 研究背景-線性迴歸(梯度下降法) 梯度下降法應用於線性迴歸之權重和誤差項,採用mini-batch計算方式 25 Iteration x w b y 1 0.10 1.00 0.00 0.10 0.50 0.50 0.55 -0.45 0.20 1.00 0.00 0.20 0.50 0.50 0.60 -0.40 0.30 1.00 0.00 0.30 0.50 0.50 0.65 -0.35 0.40 1.00 0.00 0.40 0.50 0.50 0.70 -0.30 0.50 1.00 0.00 0.50 0.50 0.50 0.75 -0.25 -0.35 0.25 0.49 2 0.10 1.00 0.00 0.10 0.26 0.01 0.04 0.06 0.20 1.00 0.00 0.20 0.26 0.01 0.06 0.14 0.30 1.00 0.00 0.30 0.26 0.01 0.09 0.21 0.40 1.00 0.00 0.40 0.26 0.01 0.11 0.29 0.50 1.00 0.00 0.50 0.26 0.01 0.14 0.36 0.21 -0.15 -0.30 yˆwˆ bˆ 以 為例01  xy wˆ 學習率 為0.7 經過11個Interation後 收斂   x 2   12  經過11個Interation後, 為0.35, 為0.2wˆ bˆ   假設mini-batch為5 在此案例中,mini-batch可以加速 收斂,但卻陷入區域最佳解 採用mini-batch,則計算完每個batch後,再修正權重組合 w
  • 26. 研究背景-線性迴歸(梯度下降法) 梯度下降法應用於線性迴歸之權重和誤差項 26 bxwy  線性迴歸函式 (真值) bxwy ˆˆˆ      2 2 2 1 ˆ 2 1ˆ,ˆ   yybwF 函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分) 線性迴歸函式 (估計值) 目標函式 wˆ bˆ 修正方式 修正方式wˆ bˆ  xw w F ww      ˆ ˆ ˆˆ       b b F bb ˆ ˆ ˆˆ       x x w y y F w F                  1 ˆ ˆ ˆˆ 改為    yyˆ                        11 ˆ ˆ ˆˆ b y y F b F 除以1/2 簡化計算的巧思 w
  • 27. 研究背景-邏輯迴歸(梯度下降法) 梯度下降法應用於邏輯迴歸之權重和誤差項 27 bxwz  邏輯迴歸函式 (真值) bxwz ˆˆˆ      2 2 2 1 ˆ 2 1ˆ,ˆ   yybwF 邏輯迴歸函式 (估計值) 目標函式   z e zsy    1 1   z e zsy ˆ 1 1 ˆˆ    w 採用S型函式 函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)wˆ bˆ 修正方式 修正方式wˆ bˆ          xzsw xzszsw w F ww      ˆˆ ˆ1ˆˆ ˆ ˆˆ    令    yyˆ                           xzs xzszs xzszs x z y w z z y y F w F                      ˆ ˆ1ˆ ˆ1ˆ1 ˆ ˆ 1 ˆ ˆ ˆ ˆ ˆˆ                zsw zszsw w F ww ˆˆ ˆ1ˆˆ ˆ ˆˆ                                zs zszs zszs z y w z z y y F w F ˆ ˆ1ˆ ˆ1ˆ1 1 ˆ ˆ 1 ˆ ˆ ˆ ˆ ˆˆ                           
  • 28. 研究背景-邏輯迴歸(梯度下降法) S型函式微分 28                               zszs ee e zs e e zsezszs ezszsee z s z s zs e e zs zz z z z z zzz z z ˆ1ˆ 1 1 1 1 ˆ 1 ˆˆˆ ˆˆ ˆˆ ˆ 1 1 1 ˆ ˆˆ ˆ ˆ ˆ ˆ ˆˆ11ˆ2 11ˆ ˆ                                     
  • 29. 研究背景-神經網路(梯度下降法) 29 X w2w1 Y 梯度下降法應用於神經網路之權重和誤差項 採用線性函式   212 2112 bzw bbxwwy   神經網路函式 (真值)     22 2 1 ˆ 2 1ˆ,ˆ  yybwF 神經網路函式 (估計值) 目標函式   111 212 2112 ˆˆˆ ˆˆˆ ˆˆˆˆˆ bxwz bzw bbxwwy    函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)2 ˆw 2 ˆb 修正方式 修正方式2 ˆw 2 ˆb  12 2 22 ˆˆ ˆ ˆˆ zw w F ww            2 2 22 ˆ ˆ ˆˆ b b F bb       1 1 22 ˆ ˆ1 ˆ ˆ ˆˆ z z w y y F w F                                         11 ˆ ˆ ˆˆ 22 b y y F b F
  • 30. 研究背景-神經網路(梯度下降法) 30 X w2w1 Y 梯度下降法應用於神經網路之權重和誤差項 採用線性函式   212 2112 bzw bbxwwy   神經網路函式 (真值)     22 2 1 ˆ 2 1ˆ,ˆ  yybwF 神經網路函式 (估計值) 目標函式   111 212 2112 ˆˆˆ ˆˆˆ ˆˆˆˆˆ bxwz bzw bbxwwy    函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)1 ˆw 1 ˆb 修正方式 修正方式1 ˆw 1 ˆb  xww w F ww     21 1 11 ˆˆ ˆ ˆˆ   22 1 11 ˆˆ ˆ ˆˆ wb b F bb              xw xw w z z y y F w F                 2 2 1 1 11 ˆ ˆ1 ˆ ˆ ˆ ˆ ˆˆ             2 2 1 1 11 ˆ 1ˆ1 ˆ ˆ ˆ ˆ ˆˆ w w b z z y y F b F                    
  • 31. 研究背景-神經網路(梯度下降法) 31 X w2w1 Y 梯度下降法應用於神經網路之權重和誤差項 採用S型函式           z e zs zsbzsws bbxwswsy      1 1 2212 2112 神經網路函式 (真值)     22 2 1 ˆ 2 1ˆ,ˆ  yybwF 神經網路函式 (估計值) 目標函式        2212 2112 ˆˆˆˆ ˆˆˆˆˆ zsbzsws bbxwswsy   函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)2 ˆw 2 ˆb 修正方式 修正方式2 ˆw 2 ˆb             122 1222 2 22 ˆˆˆ ˆˆ1ˆˆ ˆ ˆˆ zszsw zszszsw w F ww                 22 222 2 22 ˆˆ ˆ1ˆˆ ˆ ˆˆ zsb zszsb b F bb                                       12 122 122 1 2 2 2 22 ˆˆ ˆˆ1ˆ ˆˆ1ˆ1 ˆ ˆ ˆ 1 ˆ ˆ ˆ ˆ ˆˆ zszs zszszs zszszs zs z y w z z y y F w F                                                    2 22 22 2 2 2 22 ˆ ˆ1ˆ 1ˆ1ˆ1 1 ˆ ˆ 1 ˆ ˆ ˆ ˆ ˆˆ zs zszs zszs z y b z z y y F b F                           
  • 32. 研究背景-神經網路(梯度下降法) 32 X w2w1 Y 梯度下降法應用於神經網路之權重和誤差項 採用S型函式           z e zs zsbzsws bbxwswsy      1 1 2212 2112 神經網路函式 (真值)     22 2 1 ˆ 2 1ˆ,ˆ  yybwF 神經網路函式 (估計值) 目標函式        2212 2112 ˆˆˆˆ ˆˆˆˆˆ zsbzsws bbxwswsy   函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)1 ˆw 1 ˆb 修正方式 修正方式1 ˆw 1 ˆb                xzswzsw xzszswzszsw w F ww      1221 112221 1 11 ˆˆˆˆ ˆ1ˆˆˆ1ˆˆ ˆ ˆˆ                   1221 112221 1 11 ˆˆˆˆ ˆ1ˆˆˆ1ˆˆ ˆ ˆˆ zswzsb zszswzszsb b F bb                                                         xzswzs xzszswzszs xzszswzszs x z zs w z y w z z zs zs z z y y F w F                               122 11222 11222 1 1 2 2 1 1 1 1 1 2 21 ˆˆˆ ˆ1ˆˆˆ1ˆ ˆ1ˆˆˆ1ˆ1 ˆ ˆ ˆ ˆ ˆ 1 ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆˆ                                                      122 11222 11222 1 1 2 2 1 1 1 1 1 2 21 ˆˆˆ ˆ1ˆˆˆ1ˆ 1ˆ1ˆˆˆ1ˆ1 1 ˆ ˆ ˆ ˆ ˆ 1 ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆˆ zswzs zszswzszs zszswzszs z zs w z y b z z zs zs z z y y F b F                                    
  • 33. 研究背景-神經網路(梯度下降法) 33 w1 Y 梯度下降法應用於神經網路之權重和誤差項 採用線性函式 bxwy i ii         2 1 神經網路函式 (真值)     22 2 1 ˆ 2 1ˆ,ˆ  yybwF 神經網路函式 (估計值) 目標函式 bz bxwy i ii ˆˆ ˆˆˆ 2 1          函式切線斜率(對 偏微分)1 ˆw 修正方式1 ˆw  11 1 11 ˆ ˆ ˆˆ xw w F ww              1 1 11 11 ˆ ˆ ˆ ˆ ˆˆ x x w z z y y F w F                     X2 X1 w2 函式切線斜率(對 偏微分)2 ˆw         2 2 22 11 ˆ ˆ ˆ ˆ ˆˆ x x w z z y y F w F                     函式切線斜率(對 偏微分)bˆ                             111 ˆ ˆ ˆ ˆ ˆˆ b z z y y F b F 修正方式2 ˆw  22 2 22 ˆ ˆ ˆˆ xw w F ww      修正方式bˆ       b b F bb ˆ ˆ ˆˆ
  • 34. 研究背景-神經網路(梯度下降法) 34 w1 Y 梯度下降法應用於神經網路之權重和誤差項 採用S型函式   z i ii e zsy bxwz             1 1 2 1 神經網路函式 (真值)     22 2 1 ˆ 2 1ˆ,ˆ  yybwF 神經網路函式 (估計值) 目標函式 X2 X1 w2   z i ii e zsy bxwz ˆ 2 1 1 1 ˆˆ ˆˆˆˆ             函式切線斜率(對 偏微分)1 ˆw 修正方式1 ˆw         11 11 1 11 ˆˆ ˆ1ˆˆ ˆ ˆˆ xzsw xzszsw w F ww                              1 1 1 11 ˆ ˆ1ˆ ˆ ˆ 11 ˆ ˆ ˆ ˆ ˆ ˆ ˆˆ xzs xzszs x z zs w z z zs zs y y F w F                             函式切線斜率(對 偏微分)2 ˆw 函式切線斜率(對 偏微分)bˆ 修正方式2 ˆw 修正方式bˆ                      2 2 2 22 ˆ ˆ1ˆ ˆ ˆ 11 ˆ ˆ ˆ ˆ ˆ ˆ ˆˆ xzs xzszs x z zs w z z zs zs y y F w F                                                 zs zszs z zs b z z zs zs y y F b F ˆ ˆ1ˆ 1 ˆ ˆ 11 ˆ ˆ ˆ ˆ ˆ ˆ ˆˆ                                     22 22 2 22 ˆˆ ˆ1ˆˆ ˆ ˆˆ xzsw xzszsw w F ww                 zsb zszsb b F bb ˆˆ ˆ1ˆˆ ˆ ˆˆ        
  • 35. 神經網路與神經元 研究背景-神經網路(梯度下降法) 35 ‧ ‧ ‧ ‧ ‧ ‧ ‧ ‧ ‧ ‧ ‧ ‧  l z1  l z2  l iz  l sl z 1 +  l a1  l a2  l ia  l sl a  l jw ,1  l jiw ,  l jw ,2  l jSl w ,  l jb  1l jz  1l ja 第l層 第l+1層 第l+1層zj值(加權總和後)        l i s i l i l ji l j bawz l          1 , 1 第l+1層aj值(激活函式計算後)                        l i s i l i l ji l j bawga l 1 , 1 激活函式(activation function)可為 線性、S型函式、或其他   xxg    x e xg    1 1         0if,0 0if, x xx xg 線性函式 S型函式 線性整流函數 (Rectified Linear Unit, ReLU) 換個表示方式
  • 36. 研究背景-神經網路(梯度下降法) 監督式學習目標為最小化估計值與真實值之間的誤差(損失) ◦ 假設損失函式(loss function)為 ◦ 為真實值, 為估計值 ◦ 最小化損失函式,計算方式為對損失函式微分 由於損失函式為多參數組成之函式,故分別對不同參數做偏微分 ◦ 對 值計算偏微分,取得第l層最小誤差 ◦ 對 值計算偏微分,取得第l層最小誤差之最佳 值 ◦ 對 值計算偏微分,取得第l層最小誤差之最佳 值 對 值計算偏微分之數學證明 36 y yˆ  l iz  l jiw ,  l jb  l iz                                                                                  1 1 1 1 1 , 1 1, 1 1 1 l l l l s j l j l ji l i s j l j l j s k l k l jkl i l i l i s j l j l i l j l i l i l i l i wzg z F baw az a z F a z z a z F    l jiw ,  l jb  yyF ˆ, 損失函式示意圖 誤 差 或 損 失 全域最佳解 區域最佳解         0and otherwise,0 f,1 where           l i l j l i l k a bkii a a
  • 37. 研究背景-神經網路(梯度下降法) 對 值計算偏微分之數學證明 對 值計算偏微分之數學證明 37                      1 1, , 1 , 1 ,                                l j l i l j l j s k l k l jkl ji l j l ji l j l ji a z F baw w z F w z w F l          0and otherwise,0 f,1 where ,, ,           l ji l j l ji l jk w bkii w w                    1 1, 1 1                                l j l j l j s k l k l jkl j l j l j l j l j z F baw b z F b z b F l      0where ,    l i l jk b w  l jb  l jiw ,      l ji l ji l ji w F ww , ,,     權重值修正      l j l j l j b F bb     誤差項值修正 為學習率 避免一次跳太遠, 而錯過全域最佳解  為學習率 避免一次跳太遠, 而錯過全域最佳解 
  • 38. 研究方法 流量估計方法 ◦ 運用一般位置更新(normal location update, NLU) ◦ 運用交遞(handoff, HO) 密度估計方法 ◦ 運用通話到達(call arrival, CA) ◦ 運用週期位置更新(periodic location update, PLU) 車速估計方法 ◦ 運用估計流量和估計密度 ◦ 基於一般位置更新、通話到達 ◦ 基於一般位置更新、週期位置更新 ◦ 基於交遞、通話到達 ◦ 基於交遞、週期位置更新 38 Data Network RNS GPRS/GSM MS UE BTS Node B BSC RNC Um Uu Iub A-bis BSS MSC/VLR SGSN GGSN HLR Gn GcGrGs A IuPS IuCS Gb Core Network PSTN Cellular Network Signal Retriever Traffic Information Estimation Methods Vehicle Speed Forecasting Method ITS K Q U U Q K 
  • 39. 研究方法 訓練階段 ◦ 收集一般位置更新、交遞、通話到達、週期位置 更新 ◦ 運用流量估計方法、密度估計方法、車速估計方 法分別產生估計流量、估計密度、估計車速 ◦ 訓練當下估計車速與未來車速之神經網路模型作 為預測未來車速使用 執行階段 ◦ 收集一般位置更新、交遞、通話到達、週期位置 更新 ◦ 運用流量估計方法、密度估計方法、車速估計方 法分別產生估計流量、估計密度、估計車速 ◦ 將當下估計車速代入「當下估計車速與未來車速 線性迴歸模型」預測未來車速 39 ‧ ‧ ‧ ‧ ‧ ‧ InputsInputs Hidden LayerHidden Layer OutputOutput  haiu ,  naiu ,  hpiu ,  npiu , '1 iU
  • 40. 研究方法 Assumptions ◦ The call arrivals to/from one MS per one car along the road can be evaluated. The call holding time t is exponentially distributed with the mean 1/m. ◦ The real traffic flow Qi, real vehicle speed Ui , and real traffic density Ki along the road can be obtained from the VD data on the road segment covered by Celli. ◦ The mileage x is the time difference traveled from the first call arrival location to entering the specific cell. ◦ The mileage li is the distance of road segment covered by Celli. Outputs ◦ hi: The amount of HOs on the road segment covered by the specific cell. ◦ ai: The amount of CAs on the road segment covered by the specific cell. ◦ pi: The amount of PLUs on the road segment covered by the specific cell. 40
  • 41. 研究方法 流量估計方法 ◦ 運用一般位置更新(normal location update, NLU) 41 Cell1 Cell4 Normal Location Update at time t1 1 21 Cell2 Normal Location Update at location L1 Road Cell3 a BSC/RNC LA1 2 LA2 b ini Qq ,
  • 42. 研究方法 流量估計方法 ◦ 運用交遞(handoff, HO) 42   m m m i x xt t i x ii Q dxdteQ dxxtQh             0 0 Pr Call Arrival Call Departure t li/Ui enter Celli leave Celli x t0 t1 t2 t3 m ihi hq ,
  • 43. 研究方法 密度估計方法 ◦ 運用通話到達(call arrival, CA) 43 1 1st Call Arrival at t0 Road Celli 2nd Call Arrival at t2 Entering Cell at t1 Leaving Cell at t3 BSC/RNC b 1 a 1st Call Arrival 2nd Call Arrival t li/Ui Entering Celli Leaving Celli x t0 t1 t2 t3
  • 44. 研究方法 密度估計方法 ◦ 運用通話到達(call arrival, CA) 44   i U U i i i l i i i i U U i l i i U l i i U l i i U l i x U l x x i x i i i ii U eK U Q Q a Q U e UQ a e Q a e Q a e Q dxdeQ dx U l xxQ tttQa i i i i i i i i i i i i i i 1 1limwhere,11 1 1limwhere, 1 11 111 1 1 Pr Pr 1 1 1 1 1 1 0 0 321                                                                   t t      t t i U U i i i l i i iai U e K U Q q a qk i i i 1 1limherew ,-1-1 1 1 ,                       1st Call Arrival 2nd Call Arrival t li/Ui Entering Celli Leaving Celli x t0 t1 t2 t3
  • 45. 研究方法 密度估計方法 ◦ 運用週期位置更新(periodic location update, PLU) ◦ Scenario (1): No Call between Two Consecutive PLU Events ◦ Scenario (2): Several Calls between Two Consecutive PLU Events ◦ Consider Scenarios (1) and (2) 45 1st Location Update at t0 Road Cell 2nd Location Update at t2 enter Cell at t1 leave Cell at t3
  • 46. 研究方法 密度估計方法 ◦ 運用週期位置更新(periodic location update, PLU) ◦ Scenario (1): No Call between Two Consecutive PLU Events ◦ Scenario (2): Several Calls between Two Consecutive PLU Events ◦ Consider Scenarios (1) and (2) 46 Ub l dx b dxxf b U l x b U l bx b U l bx               1 )( Pr )1ScenarioPr( 1st Location Update 2nd Location Update b l/U enter Cell leave Cell x t0 t1 t2 t3
  • 47. 研究方法 密度估計方法 ◦ 運用週期位置更新(periodic location update, PLU) ◦ Scenario (1): No Call between Two Consecutive PLU Events ◦ Scenario (2): Several Calls between Two Consecutive PLU Events ◦ Consider Scenarios (1) and (2) 47 1st call arrival at t1 Road Cell 2nd Location Update at t3 Enter Cell at t2 Leave Cell at t4 1st Location Update at t0 2nd call arrival at t5
  • 48. 研究方法 密度估計方法 ◦ 運用週期位置更新(periodic location update, PLU) ◦ Scenario (1): No Call between Two Consecutive PLU Events ◦ Scenario (2): Several Calls between Two Consecutive PLU Events ◦ Consider Scenarios (1) and (2) 48     Ub l e Ub l de dyyhdg U l byb b U l yb b b b U l byb 2 2 )( PrPr Pr )2ScenarioPr(  t t t t tt t t                           1st call arrival 2nd Location Update b l/U enter Cell leave Cell y t1 t2 t3 t4 1st Location Update t0 2nd call arrival t5 t
  • 49. 研究方法 密度估計方法 ◦ 運用週期位置更新(periodic location update, PLU) ◦ Scenario (1): No Call between Two Consecutive PLU Events ◦ Scenario (2): Several Calls between Two Consecutive PLU Events ◦ Consider Scenarios (1) and (2) 49                          Ub l ee Ub l ee Ub l e bb bb bbb 2 3 2 1 )2SenarioPr(Pr)1SenarioPr(Pr)PLUPr(   tt                      bU l eeK bU l eeQ Qp i bb i i bb i ii 2 3 2 3 )PLUPr(              b l ee p k bb i pi 2 3 , 
  • 50. 研究方法 車速估計方法 ◦ 運用估計流量和估計密度 ◦ 基於一般位置更新、通話到達 ◦ 基於一般位置更新、週期位置更新 ◦ 基於交遞、通話到達 ◦ 基於交遞、週期位置更新 50 11 ,, , -1-1                     il ni i ai ni i q a k q u   11 , , -1-1                   il i i ai hi i h a k q u  m    i bb ni pi ni i p b l eeq k q u          2 3, , ,    i bb i pi hi i p b l eeh k q u          2 3 , ,  m
  • 51. 研究方法 預測未來車速 輸入參數 ◦ 基於一般位置更新、通話到達之車速估計 ◦ 基於一般位置更新、週期位置更新之車速估計 ◦ 基於交遞、通話到達之車速估計 ◦ 基於交遞、週期位置更新之車速估計 輸出參數 ◦ 未來車速 51 ‧ ‧ ‧ ‧ ‧ ‧ InputsInputs Hidden LayerHidden Layer OutputOutput  haiu ,  naiu ,  hpiu ,  npiu , '1 iU
  • 52. 研究方法 開啟「CFVD.xlsx」 欄位說明 ◦ Current Speed:當下車速 ◦ Future Speed:未來車速 ◦ Est. Speed (NLU+CA):基於NLU和CA的 估計車速 ◦ Est. Speed (NLU+PLU):基於NLU和PLU 的估計車速 ◦ Est. Speed (HO+CA):基於HO和CA的估 計車速 ◦ Est. Speed (HO+PLU):基於HO和PLU的 估計車速 52
  • 53. 研究方法 資料正規化 ◦ 運用同除以最大值的方式 ◦ 最大值設定為120 km/hr ◦ 讓所有車速同除以120 訓練神經網路之資料模型 ◦ 輸入參數 ◦ 基於一般位置更新、通話到達之車速估計 ◦ 基於一般位置更新、週期位置更新之車速估計 ◦ 基於交遞、通話到達之車速估計 ◦ 基於交遞、週期位置更新之車速估計 ◦ 輸出參數 ◦ 未來車速 另存新檔為「CFVD.csv」 53
  • 54. 研究方法 連結Azure Machine Learning Studio ◦ 網址:https://studio.azureml.net/ 點選「DATASETS」 點擊「NEW」,新增資料集 54
  • 60. 研究方法 拖曳「Saved Datasets My Datasets CFVD.csv」至實驗環境中 60
  • 61. 研究方法 由於本研究採用線性迴歸,故運用 Linear Regression模型 拖曳「Machine Learning Initialize Model Regression Neural Network Regression」至實驗環境中 61
  • 62. 研究方法 拖曳「Machine Learning Train Train Model」至實驗環境中 將「 Neural Network Regression」連結 至「Train Model」左上方,設定機器學 習模型 將「CFVD.csv」連結至「Train Model」 右上方,設定訓練資料 點擊「Launch column selector」 62
  • 64. 研究方法 拖曳「Machine Learning Score Score Model」至實驗環境中 將「Train Model」連結至「Score Model」 左上方,設定訓練好線性迴歸模型 將「CFVD.csv」連結至「Score Model」 右上方,設定測試資料 64
  • 65. 研究方法 拖曳「Machine Learning Evaluate Evaluate Model」至實驗環境中 將「Score Model」連結至「Evaluate Model」左上方,設定測試結果 65
  • 66. 研究方法 點擊「Neural Network Regression」,並 設定相關參數 ◦ Number of hidden nodes: 15 ◦ Learning rate: 0.01 ◦ Number of learning iteration: 1000000 點擊「Run」,開始執行實驗 66
  • 71. 實驗結果與討論 實驗環境 ◦ 運用VISSIM軟體產生車輛移動紀錄 ◦ 運用亂數產生器產生通聯紀錄 ◦ 分析車輛移動和通聯紀錄 71 Cell1 Cell2 Cell3 Cell4 Cell5 Cell6 Cell7 Cell8 Cell9 Cell10 LA1 LA2 LA3 LA4 r1 r2 r3 r4 r5 r6 r7 r8 r9 r10 Road The amount of NLU in LA1 q1=q2=q3 The amount of NLU in LA2 q4=q5=q6 The amount of NLU in LA3 q7=q8=q9 The amount of NLU in LA4 q10 VD1 VD2 VD3 VD4 VD5 VD6 VD7 VD8 VD9 VD10 Road Conditions and Vehicle Movement Behaviors Trace File Vehicle Movement Trace Generation MS Communication Behaviors MS Communication Trace Generation Vehicle movement and MS communication Trace Generation Trace File Traffic Information Estimation
  • 72. 實驗結果與討論 流量估計方法 ◦ 運用一般位置更新(normal location update, NLU) 72 LA Cell Ui Ki Qi qi,n Traffic Flow Estimation Accuracy 1 1 94.4 38.17 3547 3547 100.00% 1 2 94.02 37.58 3520 3547 99.23% 1 3 93.66 37.44 3489 3547 98.34% 2 4 93.42 37.25 3449 3449 100.00% 2 5 93.5 36.92 3395 3449 98.41% 2 6 93.37 36.31 3353 3449 97.14% 3 7 93.3 35.91 3311 3311 100.00% 3 8 93.19 35.49 3269 3311 98.72% 3 9 93.22 35.08 3225 3311 97.33% 4 10 94.52 34.59 3196 3196 100.00% Average 98.92%
  • 73. 實驗結果與討論 流量估計方法 ◦ 運用交遞(handoff, HO) 73 Cell Ui Ki Qi The amount of HO qi,h Traffic Flow Estimation Accuracy 1 94.4 38.17 3547 66 3960 88.36% 2 94.02 37.58 3520 68 4080 84.09% 3 93.66 37.44 3489 56 3360 96.30% 4 93.42 37.25 3449 62 3720 92.14% 5 93.5 36.92 3395 70 4200 76.29% 6 93.37 36.31 3353 69 4140 76.53% 7 93.3 35.91 3311 52 3120 94.23% 8 93.19 35.49 3269 46 2760 84.43% 9 93.22 35.08 3225 49 2940 91.16% 10 94.52 34.59 3196 55 3300 96.75% Average 88.03%
  • 74. 實驗結果與討論 密度估計方法 ◦ 運用通話到達(call arrival, CA) 74 LA Cell Qi Ki qi ki,a Traffic Flow Estimation Accuracy 1 1 3547 38.17 3547 38 99.56% 1 2 3520 37.58 3547 37 98.47% 1 3 3489 37.44 3547 31 82.80% 2 4 3449 37.25 3449 35 93.95% 2 5 3395 36.92 3449 37 99.78% 2 6 3353 36.31 3449 38 95.34% 3 7 3311 35.91 3311 33 91.90% 3 8 3269 35.49 3311 30 84.54% 3 9 3225 35.08 3311 33 94.07% 4 10 3196 34.59 3196 35 98.83% Average 93.92%
  • 75. 實驗結果與討論 密度估計方法 ◦ 運用週期位置更新(periodic location update, PLU) 75 0 20 40 60 80 100 120 140 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Density(car/km) Simulation Time (hr) Actual Density Estimated Density by Using HO events Estimated Density by Using PLU events 0 10 20 30 40 50 60 70 80 90 100 0 1000 2000 3000 4000 5000 6000 7000 0 2 4 6 8 10 12 14 16 18 20 22 24 Density(car/km) Speed(km/hr) Flow(car/hr) Simulation Time (hr) Flow Speed Actual Density
  • 76. 實驗結果與討論 車速估計方法 ◦ 運用估計流量和估計密度 ◦ 基於一般位置更新、通話到達 76 LA Cell qi ki ui Ui Traffic Speed Estimation Accuracy 1 1 3547 38 93.34 94.40 98.88% 1 2 3547 37 95.86 94.02 98.04% 1 3 3547 31 114.42 93.66 77.84% 2 4 3449 35 98.54 93.42 94.52% 2 5 3449 37 93.22 93.50 99.70% 2 6 3449 38 90.76 93.37 97.21% 3 7 3311 33 100.33 93.30 92.46% 3 8 3311 30 110.37 93.19 81.57% 3 9 3311 33 100.33 93.22 92.37% 4 10 3196 35 91.31 94.52 96.61% Average 92.92% 92.1635.9 2 9,05.0 2  
  • 77. 實驗結果與討論 不同方法比較 77 HO-based FPA-based CP-based Monitored Interfaces A and IuCS A-bis and Iub A and IuCS The number of required servers < 100 > 10000 < 100 The error ratio of speed estimation 17.30% 3.39% 2.52%
  • 78. 實驗結果與討論 預測未來車速正確率 78 Cell The Accuracy of LR The Accuracy of BPNN Cell1 94.82% 96.01% Cell2 93.76% 96.29% Cell3 93.42% 95.24% Cell4 92.39% 94.03% Cell5 93.25% 94.72% Cell6 93.59% 97.35% Cell7 92.26% 95.74% Cell8 93.73% 95.19% Cell9 93.84% 96.88% Mean 93.45% 95.72%
  • 79. 結論與未來研究 本研究運用蜂巢流動車輛資料估計當下車速和預測未來車速 ◦ 運用蜂巢流動車輛資料進行流量估計和密度估計 ◦ 運用估計流量和估計密度進行當下車速估計 ◦ 基於神經網路模型,運用當下估計車速,預測未來車速 有鑑於目標路段的交通資訊將受到相鄰路段影響,未來可考慮前後路段交通資訊,以提升 預測準確度 ◦ 第i個路段第t個時間點的車速為ui,t 79 道路 u1,t u2,t u3,t u4,t u5,t 路段1 路段2 路段3 路段4 路段5 u1,t u2,t u3,t u4,t u5,t f(u1,t , u2,t , u3,t , u4,t , u5,t) u3,t+1