SlideShare una empresa de Scribd logo
1 de 108
Descargar para leer sin conexión
Neural Network
yBigTa 9기 김현우 a.k.a 순록킴
약간의 심리학
어렸을 적 추억이 마음 속에 남아있다
기억이 저장되는 장소?
Hippocampus 해마
기억은 연결 속에 있다
James L. McGaugh, 2000
James L. McGaugh, 2000
시간을 거슬러…
Warren McCulloch, 1943
with Walter Pitts
Donald Hebb, 1949
Hebbian Learning, 1949
Cells that fire together, wire together
두 개의 뉴런이 반복적이고 지속적으로
연달아 점화한다면,
두 뉴런 사이의 연결성은 강화된다
Threshold & Long-Term Potentiation, 20c
Connectionism 연결주의의 시작
Frank Rosenblatt, 1957
심리학자,
Perceptron의 아버지
The First Perceptron, 1957
Single Layer Perceptron, 1957
출처: untitledtblog
Mark 1 Perceptron
Mark 1, 신경망을 이용해 학습이 가능한 첫 컴퓨터
Perceptron의 개념
YCA1004-01-00
나는 오늘 채플에 결석하기로 했다
내가 밀린 과제가 있는가𝑥" :
𝑥# :
𝑥$ :
𝑡ℎ𝑟𝑒𝑠ℎ𝑜𝑙𝑑 : 나는 채플에 가는 성실한 학생이다
내 결석 횟수가 4번을 안 넘었겠지
나는 혹시 지금 늦잠을 잤는가
- 내가 밀린 과제가 있는가 : Yes
- 결석 횟수가 4번을 안 넘었겠지 : No
- 나는 혹시 지금 늦잠을 잤는가 : Yes
𝑥" = 1
𝑥# = 0
𝑥$ = 1
중요도 (=가중치, Weight)
핑계들 0 중요도 > 나는 성실한 학생이라는 양심
높은 중요도일수록 높은 가중치
내가 밀린 과제가 있는가
결석 횟수가 4번을 안 넘었겠지
나는 혹시 지금 늦잠을 잤는가
𝑥" :
𝑥# :
𝑥$ :
Weight : [	𝑤", 𝑤#, 𝑤$	]
Input vector:
Weight vector: [	𝑤", 𝑤#, 𝑤$	]
[	𝑥", 𝑥#, 𝑥$	]
Input 벡터와 가중치 벡터의 내적
The First Perceptron, 1957
출처: untitledtblog
Activation function
Sign function
- 밀린 과제가 있는가 : No
- 결석 횟수가 4번을 안 넘었겠지 : Yes
- 나는 혹시 지금 늦잠을 잤는가 : No
𝑥" = 0
𝑥# = 1
𝑥$ = 0
현우의 양심으로는 역부족이었다0.45 > 0
하지만 잘못된 결과값
제대로 된 현우의 채플 결석 perceptron이라면
내적값이 0 이하가 되어
결석을 하지 않는다(=-1)는 결론이 나와야 한다.
Weight vector를 조정해야 한다
Weight vector의 조정
: learning rate
: 정답 값
: 지금 나온 값
: learning rate
: -1
: +1
정답값과 결과값이 다른 경우
조정이 일어난다
정답값과 결과값이 같은 경우
0이 되어 조정되지 않는다
따지고 보면
새로운 weight vector는
기존 weight vector에 input vector를 더하는 꼴
Multi-class perceptron
Single Class Perceptron
출처: untitledtblog
Multi-class perceptron
MIRA & SVM
신경망 대박 조짐
Marvin Minsky , 인공지능의 아버지
초기 Artificial Intelligence
발전을 주도한 장본인
Symbolicism 기호주의
Artificial Intelligence 라는 말을
처음 만들어 낸 장본인
Alan
Turing
JohnVon
Neumann
Marvin Minsky & Symbolic A.I.
Artificial Intelligence 라는 말을
처음 만들어 낸 장본인
Frank Rosenblatt, 1957
심리학자,
Perceptron의 아버지
사실은 고등학교 동기
The Bronx High School of Science
두 명의 기둥
인공지능에 대한 학계와 사회의 기대
인공지능에 쏟아지는 어마어마한 투자와 관심
하지만 기대가 크면 실망도 큰 법
말라가는 물 웅덩이
Perceptrons
Marvin Minsky & Seymour Papert, 1969
“ XOR문제는
Perceptron으로 풀 수 없다
내가 수학적으로 증명했다
그러니깐 연구 이제 그만해라 ”
Single Layer Perceptron
& the XOR problem
A or B A and B A xor B
신경망 바로 암흑기
그리고 1971, Rosenblatt의 의문사
AI Winter
XOR problem 돌파, 부활의 신호탄
David Rumelhart & John Hopfield
Back propagation
& Multi Layer Perceptron, 1984
MLP의 치명적 한계:
3층 이상 쌓으면 오히려 효율이 떨어진다
신경망 또다시 침체기
하지만 언제나 구원자가 있다
집념의 제프리 힌튼, RBM
Geoffrey
Hinton
2006, Deep Learning의 가능성
2012 ILSVRC, Imagenet Large ScaleVisual Recognition Challenge
Deep Learning의 승리
2012, Deep Learning의 압도적 승리
2013, Google에 합류
2014, Google의 DeepMind 인수
그리고 대망의 2016년
그리고 대망의 2016년
Demis Hassabis
Yann Lecun
Andrew Ng: 응Andrew Ng
1992, One algorithm hypothesis
Visual Cortex & Auditory Cortex
with Ferrets 담비
Switching
Visual inputs to A1
볼 때 들을까?
들을 때 볼까?
청각피질이 보는 법을 배웠다
영역 별로 기능이 고정되어 있다기보다
각 영역에 주어지는 input 값에 의해
weight 값이 조정되며 학습하는 알고리즘
The Next AI
Seymour
Papert
Artificial
Natural
감사합니다

Más contenido relacionado

La actualidad más candente

ZDD入門-お姉さんを救う方法
ZDD入門-お姉さんを救う方法ZDD入門-お姉さんを救う方法
ZDD入門-お姉さんを救う方法
nishio
 

La actualidad más candente (20)

Normalization 방법
Normalization 방법 Normalization 방법
Normalization 방법
 
딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전
 
Distilling the knowledge in a neural network
Distilling the knowledge in a neural networkDistilling the knowledge in a neural network
Distilling the knowledge in a neural network
 
Pythonによる機械学習
Pythonによる機械学習Pythonによる機械学習
Pythonによる機械学習
 
敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
Introduction to Spiking Neural Networks: From a Computational Neuroscience pe...
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝
 
딥러닝의 기본
딥러닝의 기본딥러닝의 기본
딥러닝의 기본
 
Introduction to Deep Compression
Introduction to Deep CompressionIntroduction to Deep Compression
Introduction to Deep Compression
 
[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝
 
ZDD入門-お姉さんを救う方法
ZDD入門-お姉さんを救う方法ZDD入門-お姉さんを救う方法
ZDD入門-お姉さんを救う方法
 
오토인코더의 모든 것
오토인코더의 모든 것오토인코더의 모든 것
오토인코더의 모든 것
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
 
adversarial training.pptx
adversarial training.pptxadversarial training.pptx
adversarial training.pptx
 
순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요
 
統計的学習の基礎輪読会資料 (7章後半 7.9〜)
統計的学習の基礎輪読会資料 (7章後半 7.9〜)統計的学習の基礎輪読会資料 (7章後半 7.9〜)
統計的学習の基礎輪読会資料 (7章後半 7.9〜)
 
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
 
Rnn & Lstm
Rnn & LstmRnn & Lstm
Rnn & Lstm
 

Destacado

Destacado (7)

Sherry baltscheit -human body systems power point
Sherry baltscheit -human body systems power pointSherry baltscheit -human body systems power point
Sherry baltscheit -human body systems power point
 
20171109 [ai times] 'ai' 인공지능의-과거와-미래 x-v1.0-ssm- 근대 통계학의 아버지 케틀레
20171109 [ai times] 'ai'   인공지능의-과거와-미래 x-v1.0-ssm- 근대 통계학의 아버지 케틀레20171109 [ai times] 'ai'   인공지능의-과거와-미래 x-v1.0-ssm- 근대 통계학의 아버지 케틀레
20171109 [ai times] 'ai' 인공지능의-과거와-미래 x-v1.0-ssm- 근대 통계학의 아버지 케틀레
 
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도 인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
 
Capstone Design(1) 최종 발표
Capstone Design(1) 최종 발표Capstone Design(1) 최종 발표
Capstone Design(1) 최종 발표
 
AI - 인공지능-인문학적-접근-I-vl1.03-ssm
AI - 인공지능-인문학적-접근-I-vl1.03-ssmAI - 인공지능-인문학적-접근-I-vl1.03-ssm
AI - 인공지능-인문학적-접근-I-vl1.03-ssm
 
Harry Surden - Artificial Intelligence and Law Overview
Harry Surden - Artificial Intelligence and Law OverviewHarry Surden - Artificial Intelligence and Law Overview
Harry Surden - Artificial Intelligence and Law Overview
 
Inside Google's Numbers in 2017
Inside Google's Numbers in 2017Inside Google's Numbers in 2017
Inside Google's Numbers in 2017
 

Más de Hyunwoo Kim

Más de Hyunwoo Kim (15)

서울대학교 IAB 강의 Pytorch(파이토치) CNN 실습 수업
서울대학교 IAB 강의 Pytorch(파이토치) CNN 실습 수업서울대학교 IAB 강의 Pytorch(파이토치) CNN 실습 수업
서울대학교 IAB 강의 Pytorch(파이토치) CNN 실습 수업
 
Curiosity-Bottleneck: Exploration by Distilling Task-Specific Novelty
Curiosity-Bottleneck: Exploration by Distilling Task-Specific NoveltyCuriosity-Bottleneck: Exploration by Distilling Task-Specific Novelty
Curiosity-Bottleneck: Exploration by Distilling Task-Specific Novelty
 
Abstractive Summarization of Reddit Posts with Multi-level Memory Networks
Abstractive Summarization of Reddit Posts with Multi-level Memory NetworksAbstractive Summarization of Reddit Posts with Multi-level Memory Networks
Abstractive Summarization of Reddit Posts with Multi-level Memory Networks
 
Genetic Algorithm Project 2
Genetic Algorithm Project 2Genetic Algorithm Project 2
Genetic Algorithm Project 2
 
Sentiment Analysis Intro
Sentiment Analysis IntroSentiment Analysis Intro
Sentiment Analysis Intro
 
Universal Adversarial Perturbation
Universal Adversarial PerturbationUniversal Adversarial Perturbation
Universal Adversarial Perturbation
 
Two VWM representations simultaneously control attention
Two VWM representations simultaneously control attentionTwo VWM representations simultaneously control attention
Two VWM representations simultaneously control attention
 
Capstone Design(2) 최종 발표
Capstone Design(2) 최종 발표Capstone Design(2) 최종 발표
Capstone Design(2) 최종 발표
 
Neural Networks Basics with PyTorch
Neural Networks Basics with PyTorchNeural Networks Basics with PyTorch
Neural Networks Basics with PyTorch
 
Capstone Design(2) 중간 발표
Capstone Design(2) 중간 발표Capstone Design(2) 중간 발표
Capstone Design(2) 중간 발표
 
Capstone Design(2) 연구제안 발표
Capstone Design(2) 연구제안 발표Capstone Design(2) 연구제안 발표
Capstone Design(2) 연구제안 발표
 
Capstone Design(1) 중간 발표
Capstone Design(1) 중간 발표Capstone Design(1) 중간 발표
Capstone Design(1) 중간 발표
 
Capstone Design(1) 연구제안 발표
Capstone Design(1) 연구제안 발표Capstone Design(1) 연구제안 발표
Capstone Design(1) 연구제안 발표
 
Random Forest Intro [랜덤포레스트 설명]
Random Forest Intro [랜덤포레스트 설명]Random Forest Intro [랜덤포레스트 설명]
Random Forest Intro [랜덤포레스트 설명]
 
Decision Tree Intro [의사결정나무]
Decision Tree Intro [의사결정나무]Decision Tree Intro [의사결정나무]
Decision Tree Intro [의사결정나무]
 

Último

Último (8)

JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!
 
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
 
데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법
 
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
 
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
 
공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화
 
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
 
JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례
 

Neural Network Intro [인공신경망 설명]