SlideShare una empresa de Scribd logo
1 de 38
빅데이터 처리 시스템 개관

         한기용
 keeyonghan@hotmail.com
목차
•   빅데이터의 정의
•   빅데이터의 예
•   빅데이터 처리방식의 변천
•   빅데이터 시스템의 구성
•   성공스토리들
•   문제점
•   관련회사들
Is Big Data a marketing buzzword?

빅데이터의 정의
정의 1
• “ 서버 한대로 처리할 수 없는 규모의 데이터”

• 2012 년 4 월 아마존 클라우드 컨퍼런스에서
  아마존의 data scientist 인 존 라우저가 내린
  정의
 – 분산 환경이 필요하느냐에 포커스
정의 2
• “ 기존의 소프트웨어로는 처리할 수 없는 규
  모의 데이터”

• 대표적인 기존 소프트웨어
 – 오라클이나 MySQL 과 같은 관계형 데이터베이
   스.
 – 많은 경우 분산환경을 염두에 두지 않음 . Scale-
   up 접근방식 (vs. Scale-out)
정의 3
• 4V (Volume,Velocity,Variety,Variability)
  – Volume: 데이터의 크기가 대용량 ?
  – Velocity: 데이터 처리 속도가 중요 ?
  – Variety: 구조화 / 비구조화 데이터 둘다 ?
  – Variability: 데이터의 형태가 급변 ?


• 이것 역시 상대적인 개념
빅데이터의 예
검색엔진 데이터
• 수백억개에서 수조개의 웹페이지 크롤 , 인
  덱싱 , 그래프 분석 , ...
• 사용자 검색어와 클릭로그를 기반으로 한
  각종 마이닝
 – 동의어 찾기
 – 통계기반 번역 (statistical translation)
 – Epidemic prediction
   (http://www.google.org/flutrends/)
디바이스 데이터
• 모바일 디바이스
 – 위치정보
• 스마트 TV
• 각종 센서 데이터
 – 스마트 그리드
• 네트워킹 디바이스
•…
야후 웹 검색팀에서의 경험한

빅데이터 처리방식의 변천
야후 검색팀의 예 ( 하둡 사용
       전)
• 크롤 , 색인 , 그래프 생성을 위해서 조금씩 다른 자체
  개발 소프트웨어들을 사용 .
 – 중복투자 및 유지보수의 문제 .
   • 세가지 모두 일종의 분산처리시스템으로 자기가 하는 일에 최적화
     되었지만 많은 부분에 공통점들이 존재 .
 – 야후밖에서 전혀 쓸모가 없음
   • 개인의 스킬셋 제약 및 Hiring 관점에서도 문제 .
• 검색로그의 경우 용량 문제로 데이터의 전수조사 불가
  .
 – 마이닝시 샘플링에 의존 .
 – 데이터 액세스 자체가 쉽지 않았음 .
    • 이것 역시 복잡한 승인 프로세스로 시간이 걸렸음 .
하둡이란 ?
• Doug Cutting 이 구글랩에서 발표한 두개의 논문에 기반
  해 2005 년 만든 오픈소스 프로젝트
 – 2003 년 The Google File System.
 – 2004 년 MapReduce: Simplified Data Processing on Large
   Cluster.
• 처음 시작은 Nutch 라는 오픈소스 검색엔진의 하부 프로
  젝트 .
 – 하둡은 Doug Cutting 의 아들의 코끼리 인형의 이름 .
 – 2006 년에 아파치 톱레벨 별개 프로젝트로 떨어져나옴 .
• 크게 분산파일시스템인 HDFS 와 분산처리시스템인
  MapReduce 두개의 컴포넌트로 구성됨 .
야후 검색팀의 예 ( 하둡도입초
        반)
• 2006 년초 Doug Cutting 을 영입하여 하둡 도입
  을 실험 . 20 노드 하둡 클러스터 셋업 .
• 2008 년 1000+ 노드 하둡 클러스터를 셋업
  – 웹페이지 그래프 계산을 하둡으로 포팅
• 2009 년 30 여개 마켓의 모든 검색어를 하둡에
  저장하고 처리 .
• 웹페이지 classification 이나 Machine Learned
  Ranking 등의 모델 빌딩에 하둡 클러스터 사용
야후 검색팀의 예 ( 하둡성숙기 )
• 몇개의 하둡 성공 스토리 이후 하둡팀이 전
  사적인 조직으로 확대 (Platform 그룹 ).
 – 2011 년 HortonWorks 라는 회사로 스핀오프 .
• 미디어 팀들을 포함한 거의 모든 팀들이 사
  용하기 시작
 – 하둡이 일종의 corporate-wide 데이터 저장소
   로 변신 -> Web Of Object 프로젝트 .
 – 4 개의 하둡 클러스터 존재 .
   • 조직별 , 리서치용 vs. 프로덕션용
몇 가지 교훈들
• 대용량 데이터 중앙수집의 어려움
  – 빅데이터 처리를 위해서는 그 빅데이터를 한군데로 모으는 것이 시작인데
    여러가지 어려움이 존재 .
  – 소프트웨어 변경이 필요하며 여러 유관팀의 도움이 필요 .
• 성공스토리의 필요성
  – 성공스토리가 있어야 보다 더 많은 팀의 adoption 이나 매니지먼트의 지원
    을 끌어낼 수 있음 .
• ROI 를 고려
  – 데이터가 있다고 무작정 그걸 처리하려고 하기 보다는 무엇을 할 것인지
    그게 리턴이 있을지 먼저 고려 . 빅 데이터 처리 시스템을 만드는 것은 많
    은 시간과 비용이 들어간다는 점을 명심 .
• 데이터 접근 민주화의 중요성
  – 그전에는 샘플조차 얻기 힘들던 데이터들이 접근도 되고 그걸 쉽게 처리할
    수 있는 시스템까지 제공되자 크고 작은 이노베이션들이 쏟아져 나옴 .
오픈소스가 대세 ?

빅데이터 시스템의 구성
데이터 수집
• 빅데이터의 시작은 데이터를 수집하여 처리할 수 있는 장소로
  올리는 것 !
• 데이터의 용량이 큰 경우 데이터의 수집자체가 큰 문제 .
 – 네트웍을 타고 업로드하는 자체가 오랜 시간이 걸림 . 많은 경우 데이
   터발생소스와 하둡을 같은 데이터센터에서 고속네트웍으로 연결
• 몇가지 오픈소스 솔루션이 많이 쓰임
 – Flume: Cloudera 에서 만들어서 지금 Apache 오픈소스 .
 – Chukwa: Apache 오픈소스
 – 기본적으로 분산환경을 기반으로 여러대의 데이터소스로부터 데이터
   를 받아다가 계층구조 형태로 머징하는 형태의 구조를 갖고 있으며 데
   이터 푸시보다는 데이터 풀링을 많이 사용 .
데이터 저장과 처리
• 대부분의 빅 데이터 시스템에서 이 역할을 하는 것은 바
  로 하둡 .
 – 데이터의 저장소이자 프로세싱 브레인 .
 – 이 강의의 핵심 .
• 프로세싱을 위해서 여러가지 언어가 만들어짐
 – Java MapReduce, Hive, Pig, Streaming, Pipe, ...
• 하둡을 기반으로한 생태계가 만들어지고 있으며 많은
  회사들이 관련 소프트웨어 / 서비스를 만들고 있음
 – IBM, EMC/Greenplum, EMC/VMWare, Amazon, Microsoft,
   SAS, SAP, Cloudera, HortonWorks, MapR, ...
웍플로우 실행 및 관리
• 계속적으로 발생하는 데이터의 처리를 위해 처
  리작업들의 실행이 자동화되어야함
  – 복잡한 ETL 작업의 경우 수십개의 job 들
    의 chaining 이 필요 .
 – 주기적으로 혹은 데이터가 특정 위치에 생기면 특
   정 Job 을 시작하게 하는 메커니즘이 필요 . 즉 ,
   웍플로우 관리가 필요 .
• 몇개의 오픈소스 프로젝트가 널리쓰임 .
 – Oozie, Cascading, Azkaban, Hamake, ...
결과 데이터의 액세스
• 하둡으로 처리된 데이터는 어떤 형태로건 바깥에서 액
  세스가 필요
• 3 가지 정도의 패턴 존재
 – RDBMS 에 저장 .
   • 작은 크기 데이터에 적합 . 예를 들면 리포트 .
 – NoSQL 에 저장
   • HBase, Cassandra, MongoDB 등등 .
   • 이 경우 데이터크기에 관계없이 액세스가능 . Ad-hoc 분석을 위한 방
     법도 제공 .
 – Search Engine 에 저장
   • Lucene, Solr, ElasticSearch 등등 .
데이터 시각화 (Visualization)
• 어떤 데이터를 분석할때 처음 시작은 다양
  한 형태로 그 데이터를 그려보는 것 .
• 패턴 혹은 아웃라이어의 발견 .
• 올바른 데이터가 수집되고 있는지 수집상에
  오류는 없는지 검증하는데 유용
• 가공된 정보를 어떻게 보기쉽고 이해하기
  쉽고 멋있게 보여줄 수 있을까 ?
  InfoGraphics
데이터 마이닝 – Data Scientist
• 일단 시스템이 구성되고 나면 누군가 데이
  터에서 새로운 가치와 의미를 찾아야함 .
• Data Scientist 의 몫
 – 수학 / 통계 지식 ( 모델링 )
 – 프로그래밍 스킬
 – 데이터분석에 대한 열정과 비지니스 도메인에
   대한 이해 .
• Mahout, R 등이 널리 쓰임
성공 스토리들
Fraud Detection
• Bank of America, Chase 등의 은행은 과거 신용
  카드의 과거 트랜잭션 데이터들을 바탕으로
  fraud detection 모델을 빌딩 .
• 모든 트랜잭션은 fraud detection 모델을 거침 .
• 모델 빌딩은 빅데이터 시스템의 도움없이는 불
  가능 .
 – 충분한 데이터의 수집 .
 – 주기적인 모델의 빌드를 가능 .
 – 빠른 실험과 테스트가 가능 ( 개발기간의 단축 )
Netflix 영화 추천
• 25M+ subscriber, 30M movie play per day, 4M
  rating per day, 3M searches a day, 2B hours
  streamed in Q4 2011
  – 75% 영화감상이 영화 추천에 기반함 .


• Markov chain 기반의 알고리즘
  –   거대 NxN 행렬 계산 .
  –   처음에는 RDBMS 기반으로 일주일에 한번 주말에 실행 .
  –   Hadoop 도입이후 지금은 매일 한번씩 계산 .
  –   성능상의 이유로 Netflix Prize 우승 알고리즘은 사용못함
      .
Bioinformatics - DNA 분석
• 인간의 유전체는 총 30 억쌍 . 1 인당 DNA
  정보는 대략 120GB.
• 하둡을 기반으로 DNA 분석과 비교를 해주
  는 회사들이 등장하기 시작
 – Cloudburst, Crossbow, Hadoop-BAM, ...
 – 한국에서는 얼마전에 SDS 에서도 서비스를 발
   표.
Trulia
• 부동산 가격 및 예측 사이트 . 2006 년 설립된
  샌프란시스코 기반의 스타트업 (2013 년 IPO
  추진중 )
• 부동산세 정보와 부동산 판매가격을 계속적으
  로 수집 / 조인하여 가격을 예측 .
 – 처음에는 이 프로세스를 MySQL 로 구현 . 미국전
   체 데이터를 돌리는데 일주일 걸림 .
 – Hadoop 으로 포팅후 7 시간으로 단축 . 다양한 실
   험이 가능해짐 .
Yahoo


• 검색어 자동완성 데이터베이스가 하둡을 이용해 빌딩됨 .
 – 3 년치의 로그 데이터
 – 20 여개의 MapReduce job 들이 데이터베이스를 빌딩 .

               Before Hadoop   After Hadoop

 시간            26 일            20 분

 개발언어          C++             Python

 개발시간          2-3 주           2-3 일
문제점 ( 혹은 유념사항 )
프라이버시 이슈
• 빅데이터 시스템의 등장은 그 전까지는 불가능
  했던 레벨의 데이터 수집과 조인을 가능케함 ->
  디지털 빅브라더의 탄생이 가능 .
• EU 의 경우 선도적으로 많은 부분에서 규제장치
  를 도입
 – 검색엔진 쿼리의 경우 개인관련 정보 (IP 주소 , 브
   라우저 쿠키 정보 ) 를 6 개월 이상 저장하지 않도
   록 권고 .
• 예 ) 개인화된 검색어 자동완성의 문제점 .
ROI
• MySQL 한대로 충분한지 먼저 생각 . 하둡
  을 기반으로한 빅데이터시스템은 시간 , 돈 ,
  노력이 모두 많이 들어간다는 점을 명심 .
• 정말로 스케일이 문제가 될 경우에만 고려 .
• 고려시에도 처음부터 하드웨어부터 다 준비
  하지말고 클라우드 서비스를 이용해서 가능
  성 타진 .
오픈소스로 구성된 시스템
• 요즘 빅데이터시스템들은 대부분 오픈소스 프
  로젝트들을 여러개 모아서 만들어지고 있음 .
• 이는 문제와 함께 기회를 제공 .
 – 보안 문제 가능성 ( 완전 공개된 소스 ).
 – 오픈소스는 굉장히 빠르게 진화하며 없어지기도함
   ( 호환성 이슈 , 버전간 충돌 이슈 등등 ).
 – 많은 스타트업들이 버전관리와 서포트를 해주는 배
   포판제공 .
누가 빅데이터시장에서 알아야할 플레이어들인가 ?

관련 회사들
아파치 소프트웨어 재단
• 비영리재단으로 빅데이터 시스템의 거의 모
  든 프로젝트들이 아파치재단의 오픈소스 프
  로젝트들 . 기업스폰서십이나 개인들의 기
  부 , 컨퍼런스 주최등으로 유지 .
 – 현재 100 개의 톱레벨 프로젝트가 존재 .
• 아파치 라이센스는 상업적인 목적으로 사용
  하기에 제약이 거의 없는 라이센스 .
• www.apache.org
Cloudera
• 2008 년 설립된 하둡기반 빅데이터 스타트업 .
  가장 활발하고 유명하며 많은 수의 하둡관련
  오픈소스 프로젝트에 참여 .
• 여기서 만든 하둡 배포판이 가장 많이 사용됨
  (CDH 라 부름 )
• Hadoop World 라는 연례 컨퍼런스 주최 .
• 하둡관련 교육과 컨설팅으로 주매출 달성 .
• 하둡의 창시자 Doug Cutting 도 2009 년 조인
HortonWorks
• 2011 년 야후내의 하둡플랫폼이 분사하여
  설립됨 . 2006 년부터 야후내에서 하둡관련
  일을 해온 EricBaldeschwieler 가 CTO 로
  재직 .
• 하둡의 초기 발전에 많은 공헌을 함 .
• 하는 일이나 성격은 Cloudera 와 굉장히 흡
  사 . Hadoop Summit 이란 연례 컨퍼런스
  주최 .
기타 플레이어들
• MapR: Cloudera 나 HortonWorks 와 비슷한
  스타트업 . 상업용 자체하둡배포판이 있음 .
• IBM, EMC/Greenplum, SAS, SAP: 기존의
  RDBMS 나 DW 솔루션에 하둡기반의 빅데
  이터 시스템을 추가하는 케이스들 .
• EMC/VMWare: 빅데이터 시스템들의 가상화
  라는 측면에서 접근 .
• ....

Más contenido relacionado

La actualidad más candente

3 빅데이터기반비정형데이터의실시간처리방법 원종석
3 빅데이터기반비정형데이터의실시간처리방법 원종석3 빅데이터기반비정형데이터의실시간처리방법 원종석
3 빅데이터기반비정형데이터의실시간처리방법 원종석
Saltlux Inc.
 
Hadoop설명
Hadoop설명Hadoop설명
Hadoop설명
Ji Hoon Lee
 
[SSA] 01.bigdata database technology (2014.02.05)
[SSA] 01.bigdata database technology (2014.02.05)[SSA] 01.bigdata database technology (2014.02.05)
[SSA] 01.bigdata database technology (2014.02.05)
Steve Min
 
Best practice instagram
Best practice   instagramBest practice   instagram
Best practice instagram
Wooseung Kim
 
Daum’s Business Analytics Use-cases based on Bigdata technology (2012)
Daum’s Business Analytics Use-cases based on Bigdata technology (2012)Daum’s Business Analytics Use-cases based on Bigdata technology (2012)
Daum’s Business Analytics Use-cases based on Bigdata technology (2012)
Channy Yun
 

La actualidad más candente (20)

Introduction to Hadoop, Big Data, Training, Use Cases
Introduction to Hadoop, Big Data, Training, Use CasesIntroduction to Hadoop, Big Data, Training, Use Cases
Introduction to Hadoop, Big Data, Training, Use Cases
 
3 빅데이터기반비정형데이터의실시간처리방법 원종석
3 빅데이터기반비정형데이터의실시간처리방법 원종석3 빅데이터기반비정형데이터의실시간처리방법 원종석
3 빅데이터기반비정형데이터의실시간처리방법 원종석
 
DeView2013 Big Data Platform Architecture with Hadoop - Hyeong-jun Kim
DeView2013 Big Data Platform Architecture with Hadoop - Hyeong-jun KimDeView2013 Big Data Platform Architecture with Hadoop - Hyeong-jun Kim
DeView2013 Big Data Platform Architecture with Hadoop - Hyeong-jun Kim
 
GRUTER가 들려주는 Big Data Platform 구축 전략과 적용 사례: GRUTER의 빅데이터 플랫폼 및 전략 소개
GRUTER가 들려주는 Big Data Platform 구축 전략과 적용 사례: GRUTER의 빅데이터 플랫폼 및 전략 소개GRUTER가 들려주는 Big Data Platform 구축 전략과 적용 사례: GRUTER의 빅데이터 플랫폼 및 전략 소개
GRUTER가 들려주는 Big Data Platform 구축 전략과 적용 사례: GRUTER의 빅데이터 플랫폼 및 전략 소개
 
Hadoop설명
Hadoop설명Hadoop설명
Hadoop설명
 
Big data application architecture 요약2
Big data application architecture 요약2Big data application architecture 요약2
Big data application architecture 요약2
 
빅데이터 구축 사례
빅데이터 구축 사례빅데이터 구축 사례
빅데이터 구축 사례
 
Big data infra core technology 빅데이터 전문인력-양성사업_분석과정-특강
Big data infra core technology 빅데이터 전문인력-양성사업_분석과정-특강Big data infra core technology 빅데이터 전문인력-양성사업_분석과정-특강
Big data infra core technology 빅데이터 전문인력-양성사업_분석과정-특강
 
Gruter TECHDAY 2014 MelOn BigData
Gruter TECHDAY 2014 MelOn BigDataGruter TECHDAY 2014 MelOn BigData
Gruter TECHDAY 2014 MelOn BigData
 
[경북] I'mcloud information
[경북] I'mcloud information[경북] I'mcloud information
[경북] I'mcloud information
 
201210 그루터 빅데이터_플랫폼_아키텍쳐_및_솔루션_소개
201210 그루터 빅데이터_플랫폼_아키텍쳐_및_솔루션_소개201210 그루터 빅데이터_플랫폼_아키텍쳐_및_솔루션_소개
201210 그루터 빅데이터_플랫폼_아키텍쳐_및_솔루션_소개
 
Io t에서 big data를 통합하는 통합 빅데이터 플랫폼 flamingo_클라우다인_김병곤 대표이사
Io t에서 big data를 통합하는 통합 빅데이터 플랫폼 flamingo_클라우다인_김병곤 대표이사Io t에서 big data를 통합하는 통합 빅데이터 플랫폼 flamingo_클라우다인_김병곤 대표이사
Io t에서 big data를 통합하는 통합 빅데이터 플랫폼 flamingo_클라우다인_김병곤 대표이사
 
[SSA] 01.bigdata database technology (2014.02.05)
[SSA] 01.bigdata database technology (2014.02.05)[SSA] 01.bigdata database technology (2014.02.05)
[SSA] 01.bigdata database technology (2014.02.05)
 
3회 서울 Hadoop 사용자 모임 / 아파치 피닉스
3회 서울 Hadoop 사용자 모임 / 아파치 피닉스3회 서울 Hadoop 사용자 모임 / 아파치 피닉스
3회 서울 Hadoop 사용자 모임 / 아파치 피닉스
 
Expanding Your Data Warehouse with Tajo
Expanding Your Data Warehouse with TajoExpanding Your Data Warehouse with Tajo
Expanding Your Data Warehouse with Tajo
 
서울 하둡 사용자 모임 발표자료
서울 하둡 사용자 모임 발표자료서울 하둡 사용자 모임 발표자료
서울 하둡 사용자 모임 발표자료
 
Best practice instagram
Best practice   instagramBest practice   instagram
Best practice instagram
 
하둡 알아보기(Learn about Hadoop basic), NetApp FAS NFS Connector for Hadoop
하둡 알아보기(Learn about Hadoop basic), NetApp FAS NFS Connector for Hadoop하둡 알아보기(Learn about Hadoop basic), NetApp FAS NFS Connector for Hadoop
하둡 알아보기(Learn about Hadoop basic), NetApp FAS NFS Connector for Hadoop
 
Daum’s Business Analytics Use-cases based on Bigdata technology (2012)
Daum’s Business Analytics Use-cases based on Bigdata technology (2012)Daum’s Business Analytics Use-cases based on Bigdata technology (2012)
Daum’s Business Analytics Use-cases based on Bigdata technology (2012)
 
Big data 20111203_배포판
Big data 20111203_배포판Big data 20111203_배포판
Big data 20111203_배포판
 

Destacado

[메조미디어] 2017년 미디어트렌드리포트
[메조미디어] 2017년 미디어트렌드리포트[메조미디어] 2017년 미디어트렌드리포트
[메조미디어] 2017년 미디어트렌드리포트
MezzoMedia
 
클라우드 컴퓨팅 장점&단점
클라우드 컴퓨팅 장점&단점클라우드 컴퓨팅 장점&단점
클라우드 컴퓨팅 장점&단점
Yihyun Jang
 

Destacado (15)

빅데이터의 개념과 이해 그리고 활용사례 (Introduction to big data and use cases)
빅데이터의 개념과 이해 그리고 활용사례 (Introduction to big data and use cases)빅데이터의 개념과 이해 그리고 활용사례 (Introduction to big data and use cases)
빅데이터의 개념과 이해 그리고 활용사례 (Introduction to big data and use cases)
 
Big data presentation
Big data presentationBig data presentation
Big data presentation
 
빅데이터와 프라이버시 강장묵 130619_ver1
빅데이터와 프라이버시 강장묵 130619_ver1빅데이터와 프라이버시 강장묵 130619_ver1
빅데이터와 프라이버시 강장묵 130619_ver1
 
2015 경영과 정보기술 - 빅데이터(Big Data)
2015 경영과 정보기술 - 빅데이터(Big Data)2015 경영과 정보기술 - 빅데이터(Big Data)
2015 경영과 정보기술 - 빅데이터(Big Data)
 
iris solution_overview_for_bigdata
iris solution_overview_for_bigdatairis solution_overview_for_bigdata
iris solution_overview_for_bigdata
 
빅데이터_ISP수업
빅데이터_ISP수업빅데이터_ISP수업
빅데이터_ISP수업
 
Big Data Analytics - It is here and now!
Big Data Analytics - It is here and now!Big Data Analytics - It is here and now!
Big Data Analytics - It is here and now!
 
[Mezzomedia] mobile 2015 상반기 분석 및 하반기 전망
[Mezzomedia] mobile 2015 상반기 분석 및 하반기 전망[Mezzomedia] mobile 2015 상반기 분석 및 하반기 전망
[Mezzomedia] mobile 2015 상반기 분석 및 하반기 전망
 
빅데이터
빅데이터빅데이터
빅데이터
 
오픈소스의 이해(교육자료)
오픈소스의 이해(교육자료) 오픈소스의 이해(교육자료)
오픈소스의 이해(교육자료)
 
빅데이터의 이해
빅데이터의 이해빅데이터의 이해
빅데이터의 이해
 
2017전망보고서 미디어이슈 1215
2017전망보고서 미디어이슈 12152017전망보고서 미디어이슈 1215
2017전망보고서 미디어이슈 1215
 
[메조미디어] 2017년 미디어트렌드리포트
[메조미디어] 2017년 미디어트렌드리포트[메조미디어] 2017년 미디어트렌드리포트
[메조미디어] 2017년 미디어트렌드리포트
 
클라우드 컴퓨팅 장점&단점
클라우드 컴퓨팅 장점&단점클라우드 컴퓨팅 장점&단점
클라우드 컴퓨팅 장점&단점
 
Big data ppt
Big  data pptBig  data ppt
Big data ppt
 

Similar a Big Data Overview

AWS Partner Techshift - (SaaS) 사업을 위한 데이터 기반 세일즈/마케팅 전략과 노하우 (트레져데이터 고영혁 수석)
AWS Partner Techshift - (SaaS) 사업을 위한 데이터 기반 세일즈/마케팅 전략과 노하우 (트레져데이터 고영혁 수석)AWS Partner Techshift - (SaaS) 사업을 위한 데이터 기반 세일즈/마케팅 전략과 노하우 (트레져데이터 고영혁 수석)
AWS Partner Techshift - (SaaS) 사업을 위한 데이터 기반 세일즈/마케팅 전략과 노하우 (트레져데이터 고영혁 수석)
Amazon Web Services Korea
 

Similar a Big Data Overview (20)

2017 주요 기술 흐름 및 개요
2017 주요 기술 흐름 및 개요2017 주요 기술 흐름 및 개요
2017 주요 기술 흐름 및 개요
 
2012.04.11 미래사회와 빅 데이터(big data) 기술 nipa
2012.04.11 미래사회와 빅 데이터(big data) 기술 nipa2012.04.11 미래사회와 빅 데이터(big data) 기술 nipa
2012.04.11 미래사회와 빅 데이터(big data) 기술 nipa
 
Jco 소셜 빅데이터_20120218
Jco 소셜 빅데이터_20120218Jco 소셜 빅데이터_20120218
Jco 소셜 빅데이터_20120218
 
클라우드 컴퓨팅과 Daum의 사례- 윤석찬 (KREN 연구 협력 포럼, 2013)
클라우드 컴퓨팅과 Daum의 사례- 윤석찬 (KREN 연구 협력 포럼, 2013) 클라우드 컴퓨팅과 Daum의 사례- 윤석찬 (KREN 연구 협력 포럼, 2013)
클라우드 컴퓨팅과 Daum의 사례- 윤석찬 (KREN 연구 협력 포럼, 2013)
 
클라우드 이야기1 2 20160823-신인철_slideshare
클라우드 이야기1 2 20160823-신인철_slideshare클라우드 이야기1 2 20160823-신인철_slideshare
클라우드 이야기1 2 20160823-신인철_slideshare
 
How to Make Money from Data - Global Cases
How to Make Money from Data - Global CasesHow to Make Money from Data - Global Cases
How to Make Money from Data - Global Cases
 
AWS Partner Techshift - (SaaS) 사업을 위한 데이터 기반 세일즈/마케팅 전략과 노하우 (트레져데이터 고영혁 수석)
AWS Partner Techshift - (SaaS) 사업을 위한 데이터 기반 세일즈/마케팅 전략과 노하우 (트레져데이터 고영혁 수석)AWS Partner Techshift - (SaaS) 사업을 위한 데이터 기반 세일즈/마케팅 전략과 노하우 (트레져데이터 고영혁 수석)
AWS Partner Techshift - (SaaS) 사업을 위한 데이터 기반 세일즈/마케팅 전략과 노하우 (트레져데이터 고영혁 수석)
 
Introduction to ankus(data mining and machine learning open source)
Introduction to ankus(data mining and machine learning open source)Introduction to ankus(data mining and machine learning open source)
Introduction to ankus(data mining and machine learning open source)
 
DB관점에서 본 빅데이터 (2019년 8월)
DB관점에서 본 빅데이터 (2019년 8월)DB관점에서 본 빅데이터 (2019년 8월)
DB관점에서 본 빅데이터 (2019년 8월)
 
글로벌 사례로 보는 데이터로 돈 버는 법 - 트레저데이터 (Treasure Data)
글로벌 사례로 보는 데이터로 돈 버는 법 - 트레저데이터 (Treasure Data)글로벌 사례로 보는 데이터로 돈 버는 법 - 트레저데이터 (Treasure Data)
글로벌 사례로 보는 데이터로 돈 버는 법 - 트레저데이터 (Treasure Data)
 
추천시스템 구축을 위한 빅데이터 분석기법과 사례
추천시스템 구축을 위한 빅데이터 분석기법과 사례추천시스템 구축을 위한 빅데이터 분석기법과 사례
추천시스템 구축을 위한 빅데이터 분석기법과 사례
 
[중소기업형 인공지능/빅데이터 기술 심포지엄] 대용량 거래데이터 분석을 위한 서버인프라 활용 사례
[중소기업형 인공지능/빅데이터 기술 심포지엄] 대용량 거래데이터 분석을 위한 서버인프라 활용 사례[중소기업형 인공지능/빅데이터 기술 심포지엄] 대용량 거래데이터 분석을 위한 서버인프라 활용 사례
[중소기업형 인공지능/빅데이터 기술 심포지엄] 대용량 거래데이터 분석을 위한 서버인프라 활용 사례
 
Case Study를 통해 본 데이터사이언스 협업 플랫폼의 필요성 (옥주영 컨설턴트, Hancom MDS) :: AWS Techforum ...
Case Study를 통해 본 데이터사이언스 협업 플랫폼의 필요성 (옥주영 컨설턴트, Hancom MDS) :: AWS Techforum ...Case Study를 통해 본 데이터사이언스 협업 플랫폼의 필요성 (옥주영 컨설턴트, Hancom MDS) :: AWS Techforum ...
Case Study를 통해 본 데이터사이언스 협업 플랫폼의 필요성 (옥주영 컨설턴트, Hancom MDS) :: AWS Techforum ...
 
100% Serverless big data scale production Deep Learning System
100% Serverless big data scale production Deep Learning System100% Serverless big data scale production Deep Learning System
100% Serverless big data scale production Deep Learning System
 
[E-commerce & Retail Day] Data Freedom을 위한 Database 최적화 전략
[E-commerce & Retail Day] Data Freedom을 위한 Database 최적화 전략[E-commerce & Retail Day] Data Freedom을 위한 Database 최적화 전략
[E-commerce & Retail Day] Data Freedom을 위한 Database 최적화 전략
 
[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScience[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScience
 
빅데이터윈윈 컨퍼런스_대용량 데이터 분석 시스템 구축사례
빅데이터윈윈 컨퍼런스_대용량 데이터 분석 시스템 구축사례 빅데이터윈윈 컨퍼런스_대용량 데이터 분석 시스템 구축사례
빅데이터윈윈 컨퍼런스_대용량 데이터 분석 시스템 구축사례
 
Expanding Your Data Warehouse with Tajo
Expanding Your Data Warehouse with TajoExpanding Your Data Warehouse with Tajo
Expanding Your Data Warehouse with Tajo
 
데이터드리븐 DX 추진방안_202306.pdf
데이터드리븐 DX 추진방안_202306.pdf데이터드리븐 DX 추진방안_202306.pdf
데이터드리븐 DX 추진방안_202306.pdf
 
[웨비나] 우리가 데이터 메시에 주목해야 할 이유
[웨비나] 우리가 데이터 메시에 주목해야 할 이유[웨비나] 우리가 데이터 메시에 주목해야 할 이유
[웨비나] 우리가 데이터 메시에 주목해야 할 이유
 

Último

Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)
Wonjun Hwang
 

Último (7)

Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)
 
캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차
 
[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and Adoption[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and Adoption
 
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionMOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
 
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
 
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
 
A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)
 

Big Data Overview

  • 1. 빅데이터 처리 시스템 개관 한기용 keeyonghan@hotmail.com
  • 2. 목차 • 빅데이터의 정의 • 빅데이터의 예 • 빅데이터 처리방식의 변천 • 빅데이터 시스템의 구성 • 성공스토리들 • 문제점 • 관련회사들
  • 3. Is Big Data a marketing buzzword? 빅데이터의 정의
  • 4. 정의 1 • “ 서버 한대로 처리할 수 없는 규모의 데이터” • 2012 년 4 월 아마존 클라우드 컨퍼런스에서 아마존의 data scientist 인 존 라우저가 내린 정의 – 분산 환경이 필요하느냐에 포커스
  • 5. 정의 2 • “ 기존의 소프트웨어로는 처리할 수 없는 규 모의 데이터” • 대표적인 기존 소프트웨어 – 오라클이나 MySQL 과 같은 관계형 데이터베이 스. – 많은 경우 분산환경을 염두에 두지 않음 . Scale- up 접근방식 (vs. Scale-out)
  • 6. 정의 3 • 4V (Volume,Velocity,Variety,Variability) – Volume: 데이터의 크기가 대용량 ? – Velocity: 데이터 처리 속도가 중요 ? – Variety: 구조화 / 비구조화 데이터 둘다 ? – Variability: 데이터의 형태가 급변 ? • 이것 역시 상대적인 개념
  • 8. 검색엔진 데이터 • 수백억개에서 수조개의 웹페이지 크롤 , 인 덱싱 , 그래프 분석 , ... • 사용자 검색어와 클릭로그를 기반으로 한 각종 마이닝 – 동의어 찾기 – 통계기반 번역 (statistical translation) – Epidemic prediction (http://www.google.org/flutrends/)
  • 9. 디바이스 데이터 • 모바일 디바이스 – 위치정보 • 스마트 TV • 각종 센서 데이터 – 스마트 그리드 • 네트워킹 디바이스 •…
  • 10. 야후 웹 검색팀에서의 경험한 빅데이터 처리방식의 변천
  • 11. 야후 검색팀의 예 ( 하둡 사용 전) • 크롤 , 색인 , 그래프 생성을 위해서 조금씩 다른 자체 개발 소프트웨어들을 사용 . – 중복투자 및 유지보수의 문제 . • 세가지 모두 일종의 분산처리시스템으로 자기가 하는 일에 최적화 되었지만 많은 부분에 공통점들이 존재 . – 야후밖에서 전혀 쓸모가 없음 • 개인의 스킬셋 제약 및 Hiring 관점에서도 문제 . • 검색로그의 경우 용량 문제로 데이터의 전수조사 불가 . – 마이닝시 샘플링에 의존 . – 데이터 액세스 자체가 쉽지 않았음 . • 이것 역시 복잡한 승인 프로세스로 시간이 걸렸음 .
  • 12. 하둡이란 ? • Doug Cutting 이 구글랩에서 발표한 두개의 논문에 기반 해 2005 년 만든 오픈소스 프로젝트 – 2003 년 The Google File System. – 2004 년 MapReduce: Simplified Data Processing on Large Cluster. • 처음 시작은 Nutch 라는 오픈소스 검색엔진의 하부 프로 젝트 . – 하둡은 Doug Cutting 의 아들의 코끼리 인형의 이름 . – 2006 년에 아파치 톱레벨 별개 프로젝트로 떨어져나옴 . • 크게 분산파일시스템인 HDFS 와 분산처리시스템인 MapReduce 두개의 컴포넌트로 구성됨 .
  • 13. 야후 검색팀의 예 ( 하둡도입초 반) • 2006 년초 Doug Cutting 을 영입하여 하둡 도입 을 실험 . 20 노드 하둡 클러스터 셋업 . • 2008 년 1000+ 노드 하둡 클러스터를 셋업 – 웹페이지 그래프 계산을 하둡으로 포팅 • 2009 년 30 여개 마켓의 모든 검색어를 하둡에 저장하고 처리 . • 웹페이지 classification 이나 Machine Learned Ranking 등의 모델 빌딩에 하둡 클러스터 사용
  • 14. 야후 검색팀의 예 ( 하둡성숙기 ) • 몇개의 하둡 성공 스토리 이후 하둡팀이 전 사적인 조직으로 확대 (Platform 그룹 ). – 2011 년 HortonWorks 라는 회사로 스핀오프 . • 미디어 팀들을 포함한 거의 모든 팀들이 사 용하기 시작 – 하둡이 일종의 corporate-wide 데이터 저장소 로 변신 -> Web Of Object 프로젝트 . – 4 개의 하둡 클러스터 존재 . • 조직별 , 리서치용 vs. 프로덕션용
  • 15. 몇 가지 교훈들 • 대용량 데이터 중앙수집의 어려움 – 빅데이터 처리를 위해서는 그 빅데이터를 한군데로 모으는 것이 시작인데 여러가지 어려움이 존재 . – 소프트웨어 변경이 필요하며 여러 유관팀의 도움이 필요 . • 성공스토리의 필요성 – 성공스토리가 있어야 보다 더 많은 팀의 adoption 이나 매니지먼트의 지원 을 끌어낼 수 있음 . • ROI 를 고려 – 데이터가 있다고 무작정 그걸 처리하려고 하기 보다는 무엇을 할 것인지 그게 리턴이 있을지 먼저 고려 . 빅 데이터 처리 시스템을 만드는 것은 많 은 시간과 비용이 들어간다는 점을 명심 . • 데이터 접근 민주화의 중요성 – 그전에는 샘플조차 얻기 힘들던 데이터들이 접근도 되고 그걸 쉽게 처리할 수 있는 시스템까지 제공되자 크고 작은 이노베이션들이 쏟아져 나옴 .
  • 17.
  • 18. 데이터 수집 • 빅데이터의 시작은 데이터를 수집하여 처리할 수 있는 장소로 올리는 것 ! • 데이터의 용량이 큰 경우 데이터의 수집자체가 큰 문제 . – 네트웍을 타고 업로드하는 자체가 오랜 시간이 걸림 . 많은 경우 데이 터발생소스와 하둡을 같은 데이터센터에서 고속네트웍으로 연결 • 몇가지 오픈소스 솔루션이 많이 쓰임 – Flume: Cloudera 에서 만들어서 지금 Apache 오픈소스 . – Chukwa: Apache 오픈소스 – 기본적으로 분산환경을 기반으로 여러대의 데이터소스로부터 데이터 를 받아다가 계층구조 형태로 머징하는 형태의 구조를 갖고 있으며 데 이터 푸시보다는 데이터 풀링을 많이 사용 .
  • 19. 데이터 저장과 처리 • 대부분의 빅 데이터 시스템에서 이 역할을 하는 것은 바 로 하둡 . – 데이터의 저장소이자 프로세싱 브레인 . – 이 강의의 핵심 . • 프로세싱을 위해서 여러가지 언어가 만들어짐 – Java MapReduce, Hive, Pig, Streaming, Pipe, ... • 하둡을 기반으로한 생태계가 만들어지고 있으며 많은 회사들이 관련 소프트웨어 / 서비스를 만들고 있음 – IBM, EMC/Greenplum, EMC/VMWare, Amazon, Microsoft, SAS, SAP, Cloudera, HortonWorks, MapR, ...
  • 20. 웍플로우 실행 및 관리 • 계속적으로 발생하는 데이터의 처리를 위해 처 리작업들의 실행이 자동화되어야함 – 복잡한 ETL 작업의 경우 수십개의 job 들 의 chaining 이 필요 . – 주기적으로 혹은 데이터가 특정 위치에 생기면 특 정 Job 을 시작하게 하는 메커니즘이 필요 . 즉 , 웍플로우 관리가 필요 . • 몇개의 오픈소스 프로젝트가 널리쓰임 . – Oozie, Cascading, Azkaban, Hamake, ...
  • 21. 결과 데이터의 액세스 • 하둡으로 처리된 데이터는 어떤 형태로건 바깥에서 액 세스가 필요 • 3 가지 정도의 패턴 존재 – RDBMS 에 저장 . • 작은 크기 데이터에 적합 . 예를 들면 리포트 . – NoSQL 에 저장 • HBase, Cassandra, MongoDB 등등 . • 이 경우 데이터크기에 관계없이 액세스가능 . Ad-hoc 분석을 위한 방 법도 제공 . – Search Engine 에 저장 • Lucene, Solr, ElasticSearch 등등 .
  • 22. 데이터 시각화 (Visualization) • 어떤 데이터를 분석할때 처음 시작은 다양 한 형태로 그 데이터를 그려보는 것 . • 패턴 혹은 아웃라이어의 발견 . • 올바른 데이터가 수집되고 있는지 수집상에 오류는 없는지 검증하는데 유용 • 가공된 정보를 어떻게 보기쉽고 이해하기 쉽고 멋있게 보여줄 수 있을까 ? InfoGraphics
  • 23. 데이터 마이닝 – Data Scientist • 일단 시스템이 구성되고 나면 누군가 데이 터에서 새로운 가치와 의미를 찾아야함 . • Data Scientist 의 몫 – 수학 / 통계 지식 ( 모델링 ) – 프로그래밍 스킬 – 데이터분석에 대한 열정과 비지니스 도메인에 대한 이해 . • Mahout, R 등이 널리 쓰임
  • 25. Fraud Detection • Bank of America, Chase 등의 은행은 과거 신용 카드의 과거 트랜잭션 데이터들을 바탕으로 fraud detection 모델을 빌딩 . • 모든 트랜잭션은 fraud detection 모델을 거침 . • 모델 빌딩은 빅데이터 시스템의 도움없이는 불 가능 . – 충분한 데이터의 수집 . – 주기적인 모델의 빌드를 가능 . – 빠른 실험과 테스트가 가능 ( 개발기간의 단축 )
  • 26. Netflix 영화 추천 • 25M+ subscriber, 30M movie play per day, 4M rating per day, 3M searches a day, 2B hours streamed in Q4 2011 – 75% 영화감상이 영화 추천에 기반함 . • Markov chain 기반의 알고리즘 – 거대 NxN 행렬 계산 . – 처음에는 RDBMS 기반으로 일주일에 한번 주말에 실행 . – Hadoop 도입이후 지금은 매일 한번씩 계산 . – 성능상의 이유로 Netflix Prize 우승 알고리즘은 사용못함 .
  • 27. Bioinformatics - DNA 분석 • 인간의 유전체는 총 30 억쌍 . 1 인당 DNA 정보는 대략 120GB. • 하둡을 기반으로 DNA 분석과 비교를 해주 는 회사들이 등장하기 시작 – Cloudburst, Crossbow, Hadoop-BAM, ... – 한국에서는 얼마전에 SDS 에서도 서비스를 발 표.
  • 28. Trulia • 부동산 가격 및 예측 사이트 . 2006 년 설립된 샌프란시스코 기반의 스타트업 (2013 년 IPO 추진중 ) • 부동산세 정보와 부동산 판매가격을 계속적으 로 수집 / 조인하여 가격을 예측 . – 처음에는 이 프로세스를 MySQL 로 구현 . 미국전 체 데이터를 돌리는데 일주일 걸림 . – Hadoop 으로 포팅후 7 시간으로 단축 . 다양한 실 험이 가능해짐 .
  • 29. Yahoo • 검색어 자동완성 데이터베이스가 하둡을 이용해 빌딩됨 . – 3 년치의 로그 데이터 – 20 여개의 MapReduce job 들이 데이터베이스를 빌딩 . Before Hadoop After Hadoop 시간 26 일 20 분 개발언어 C++ Python 개발시간 2-3 주 2-3 일
  • 30. 문제점 ( 혹은 유념사항 )
  • 31. 프라이버시 이슈 • 빅데이터 시스템의 등장은 그 전까지는 불가능 했던 레벨의 데이터 수집과 조인을 가능케함 -> 디지털 빅브라더의 탄생이 가능 . • EU 의 경우 선도적으로 많은 부분에서 규제장치 를 도입 – 검색엔진 쿼리의 경우 개인관련 정보 (IP 주소 , 브 라우저 쿠키 정보 ) 를 6 개월 이상 저장하지 않도 록 권고 . • 예 ) 개인화된 검색어 자동완성의 문제점 .
  • 32. ROI • MySQL 한대로 충분한지 먼저 생각 . 하둡 을 기반으로한 빅데이터시스템은 시간 , 돈 , 노력이 모두 많이 들어간다는 점을 명심 . • 정말로 스케일이 문제가 될 경우에만 고려 . • 고려시에도 처음부터 하드웨어부터 다 준비 하지말고 클라우드 서비스를 이용해서 가능 성 타진 .
  • 33. 오픈소스로 구성된 시스템 • 요즘 빅데이터시스템들은 대부분 오픈소스 프 로젝트들을 여러개 모아서 만들어지고 있음 . • 이는 문제와 함께 기회를 제공 . – 보안 문제 가능성 ( 완전 공개된 소스 ). – 오픈소스는 굉장히 빠르게 진화하며 없어지기도함 ( 호환성 이슈 , 버전간 충돌 이슈 등등 ). – 많은 스타트업들이 버전관리와 서포트를 해주는 배 포판제공 .
  • 34. 누가 빅데이터시장에서 알아야할 플레이어들인가 ? 관련 회사들
  • 35. 아파치 소프트웨어 재단 • 비영리재단으로 빅데이터 시스템의 거의 모 든 프로젝트들이 아파치재단의 오픈소스 프 로젝트들 . 기업스폰서십이나 개인들의 기 부 , 컨퍼런스 주최등으로 유지 . – 현재 100 개의 톱레벨 프로젝트가 존재 . • 아파치 라이센스는 상업적인 목적으로 사용 하기에 제약이 거의 없는 라이센스 . • www.apache.org
  • 36. Cloudera • 2008 년 설립된 하둡기반 빅데이터 스타트업 . 가장 활발하고 유명하며 많은 수의 하둡관련 오픈소스 프로젝트에 참여 . • 여기서 만든 하둡 배포판이 가장 많이 사용됨 (CDH 라 부름 ) • Hadoop World 라는 연례 컨퍼런스 주최 . • 하둡관련 교육과 컨설팅으로 주매출 달성 . • 하둡의 창시자 Doug Cutting 도 2009 년 조인
  • 37. HortonWorks • 2011 년 야후내의 하둡플랫폼이 분사하여 설립됨 . 2006 년부터 야후내에서 하둡관련 일을 해온 EricBaldeschwieler 가 CTO 로 재직 . • 하둡의 초기 발전에 많은 공헌을 함 . • 하는 일이나 성격은 Cloudera 와 굉장히 흡 사 . Hadoop Summit 이란 연례 컨퍼런스 주최 .
  • 38. 기타 플레이어들 • MapR: Cloudera 나 HortonWorks 와 비슷한 스타트업 . 상업용 자체하둡배포판이 있음 . • IBM, EMC/Greenplum, SAS, SAP: 기존의 RDBMS 나 DW 솔루션에 하둡기반의 빅데 이터 시스템을 추가하는 케이스들 . • EMC/VMWare: 빅데이터 시스템들의 가상화 라는 측면에서 접근 . • ....

Notas del editor

  1. 보잉 제트 엔진 , 스마트 미터
  2. 보잉 제트 엔진 , 스마트 미터
  3. 보잉 제트 엔진 , 스마트 미터
  4. 보잉 제트 엔진 , 스마트 미터
  5. 보잉 제트 엔진 , 스마트 미터
  6. 보잉 제트 엔진 , 스마트 미터
  7. 보잉 제트 엔진 , 스마트 미터
  8. 보잉 제트 엔진 , 스마트 미터
  9. 보잉 제트 엔진 , 스마트 미터
  10. 보잉 제트 엔진 , 스마트 미터
  11. 보잉 제트 엔진 , 스마트 미터
  12. 보잉 제트 엔진 , 스마트 미터
  13. 보잉 제트 엔진 , 스마트 미터
  14. 보잉 제트 엔진 , 스마트 미터
  15. 보잉 제트 엔진 , 스마트 미터
  16. 보잉 제트 엔진 , 스마트 미터
  17. 보잉 제트 엔진 , 스마트 미터
  18. 보잉 제트 엔진 , 스마트 미터
  19. 보잉 제트 엔진 , 스마트 미터
  20. 보잉 제트 엔진 , 스마트 미터
  21. 보잉 제트 엔진 , 스마트 미터
  22. 보잉 제트 엔진 , 스마트 미터
  23. 보잉 제트 엔진 , 스마트 미터
  24. 보잉 제트 엔진 , 스마트 미터
  25. 보잉 제트 엔진 , 스마트 미터