SlideShare una empresa de Scribd logo
1 de 21
Descargar para leer sin conexión
Presentation for "Neuromarketing: Graph Transformer-based Consumer Preference Prediction"
Presentation for "Neuromarketing: Graph Transformer-based Consumer Preference Prediction"
뉴로마케팅이란?
뉴로마케팅은 뇌과학적인 방법을 통해 소비자의 무의식 중 심리를 파악하는 것 이
다.
주로 사용자에게 자극(ex. 상품, 서비스)을 제시하고 이와 동시에 뇌파 혹은 뇌영
상을 촬영해 뇌에서 발생하는 반응을 분석하는 방식이다.
뉴로마케팅 사례
뉴로마케팅의 주요 성공사례로는 펩시가 있다.
코카콜라와 펩시콜라를 블라인드 테스트를 했을 때 펩시콜라를 소비자들이 더 선호했지만
시장 선호도는 코카콜라가 높았는데 이 원인을 파악하기 위해 펩시에서 뉴로마케팅을 적용
시켰다.
브랜드를 인지하고 콜라를 마시는 경우와 브랜드를 인지하지 않고 콜라를 마시는 경우를 각
각 fMRI를 활용해 뇌영상을 촬영한 뒤 분석했다.
뉴로마케팅 사례
브랜드를 인지하고 코카콜라를 마셨을 때 기억을 담당하는 뇌의 부분인 중뇌, 해마 등이 활성
화되는 것을 볼 수 있었고, 브랜드를 인지하지 않은 경우에는 뇌의 전두엽 부분이 활성화되는
것을 볼 수 있었다.
이러한 실험을 통해 마케팅에 소비자의 무의식이 미치는 영향이 크다는 것을 밝혀낼 수 있었
다.
뉴로마케팅의 중요성
따라서, 뉴로마케팅은 단순히 소비자의 주관적인 선호도를 보는 것이 아닌 생물학
적인 반응을 보는 것으로 소비자의 무의식에 잠재된 선호도를 볼 수 있어 뇌과학적
뿐만 아니라 상업적으로 매우 중요하다.
과거 연구 소개
Brain-computer Interface란 뇌의 활동을 바탕으로 사물을 제어하는 것을 말하며,
현재는 머신러닝 또는 딥러닝 방법론을 적용해 뇌파 또는 뇌영상을 학습시켜 예측
하는 여러 연구가 진행되고 있다.
과거 연구 소개
이러한 Brain-computer Interface와 뉴로 마케팅을 결합해 기계학습 방법론을 적
용시켜 어떠한 대상에 대한 사용자의 선호도를 예측하는 다양한 연구들 진행되고
있다.
과거 연구 소개
EEG를 활용한 과거 연구에서는 피험자에게 42개의 제품을 4초 동안 보여
주고 그 제품을 좋아하는지 좋아하지 않는지를 기록함과 동시에 뇌파를 측정했다.
이렇게 수집한 뇌파 데이터를 활용해 Wavelet Decomposition으로 Feature를 추
출해 Hidden Markov Model로 학습시켜 70.33%의 정확도를 달성했다.
기존의 한계
기존에는 Feature engineering 기반의 전통적인 머신러닝 방법론은 매우 많은 수
의 Feature를 추출해야 하며, Raw EEG Signal 만을 Feature로 사용한 딥러닝 기
반 예측은 성능이 낮다는 한계점이 존재하며 해석가능성이 떨어진다.
제안할 방법론
한계점을 보완하기 위해 모델에 해석가능성을 추가해주는 Attention
Mechanism 기반의 Graph Transformer를 적용해 Raw EEG Singal만으로도 예
측 성능이 떨어지지 않으며 해석가능성이 있는 딥러닝 기반 소비자 선호 예측 모델
인 NmGT(Neuromarketing Graph Transformer)를 제안한다.
Attention Mechanism
Attention Mechanism의 Motivation은 사람이 정보의 중요한 부분에 집중한다는
것에서 출발했다. 이 방법론은 모델이 데이터에서 중요한 부분을 집중하여 학습할 수
있게 하고 이 과정에서 계산되는 Attention score를 활용해 모델이 데이터의 어느
부분에 집중하는지를 알 수 있어 해석가능성을 높이는 동시에 성능 향상도 이뤄낼 수
있는 방법론이다.
Graph Neural Networks
Graph Neural Networks(GNN)은 Graph 구조의 데이터를 입력값으로 활용하
는 신경망을 말한다. 현재 GNN은 EEG를 활용하는 다양한 연구에 활용되고 있고,
EEG 데이터를 그래프로 구조화시켜서 활용함으로서 우수한 성능을 보여주고 있
다.
Graph Transformer
Graph Transformer는 기존 multi-head attention mechanism을 GNN에 적합
하게 변형한 모델로 GNN에 Attention Mechanism을 적용시킨 모델 중 가장 높은
성능을 보이는 모델이다. 이러한 Attention Mechanism 기반의 GNN은 노드간의
연결을 End-to-End로 학습시킬 수 있기 때문에 Feature Engineering을 통해 추
출한 Feature로 노드간의 연결을 정의하지 않아도 됨으로 Raw EEG Signal만으로
모델을 학습시킬 수 있다.
Neuromarketing Graph Transformer
우리가 제안한 NmGT 모델은 Input으로 Raw EEG 데이터를 활용해 2개의 Graph
Transformer layer를 거쳐 학습된 그래프를 Flatten해서 2개의 fully connected
layer를 거쳐 데이터가 Like인지 Dislike인지 예측한다.
Dataset Description
Product Choice 데이터셋을 활용했으며 Emotiv epoc+ 14 channel 장비를 활용
해 21~38세 25명의 참가자에게 보여준 상품에 대해 호인지 불호인지 자가보고 시
켜 그 결과를 레이블로 사용했다.
우리는 이 데이터를 4초씩 분할해서 추가적인 데이터 전처리 없이 활용했으며, 그래
프의 연결은 Fully-connected하게 활용했다.
Experiment Setting
모델의 하이퍼파라미터 세팅은 Tabel 1과 같이 설정했으며, Train, Validation, Test
를 위해 데이터셋을 8:1:1의 비율로 분할했다. Optimizer는 Adam을, Loss는
Binary Cross Entropy를 사용했다.
Results
Presentation for "Neuromarketing: Graph Transformer-based Consumer Preference Prediction"
• 우리가 고안한 NmGT는 Raw EEG 데이터만을 활용해 기존 Feature
Engineering 기반의 방법론과 비교했을 때 뒤떨어지지 않는 성능을 보여준다.
• 또한, 기존의 딥러닝 기반 방법론과 비교했을 때 성능이 개선되었으며 해석가능
성을 추가했다.
• 따라서, 우리의 방법론은 뇌과학적인 해석이 중요한 뉴로마케팅에서 기존 방법
론보다 신뢰성있고 정확한 예측을 제공해줌을 보여준다.
Presentation for "Neuromarketing: Graph Transformer-based Consumer Preference Prediction"
Presentation for "Neuromarketing: Graph Transformer-based Consumer Preference Prediction"

Más contenido relacionado

Más de Network Science Lab, The Catholic University of Korea

Más de Network Science Lab, The Catholic University of Korea (20)

1강 - pytorch와 tensor.pptx
1강 - pytorch와 tensor.pptx1강 - pytorch와 tensor.pptx
1강 - pytorch와 tensor.pptx
 
Technical Report on "Lecture Quality Prediction using Graph Neural Networks"
Technical Report on "Lecture Quality Prediction using Graph Neural Networks"Technical Report on "Lecture Quality Prediction using Graph Neural Networks"
Technical Report on "Lecture Quality Prediction using Graph Neural Networks"
 
Presentation for "Lecture Quality Prediction using Graph Neural Networks"
Presentation for "Lecture Quality Prediction using Graph Neural Networks"Presentation for "Lecture Quality Prediction using Graph Neural Networks"
Presentation for "Lecture Quality Prediction using Graph Neural Networks"
 
NS-CUK Seminar: J.H.Lee, Review on "Graph Neural Networks with convolutional ...
NS-CUK Seminar: J.H.Lee, Review on "Graph Neural Networks with convolutional ...NS-CUK Seminar: J.H.Lee, Review on "Graph Neural Networks with convolutional ...
NS-CUK Seminar: J.H.Lee, Review on "Graph Neural Networks with convolutional ...
 
NS-CUK Seminar: V.T.Hoang, Review on "Are More Layers Beneficial to Graph Tra...
NS-CUK Seminar: V.T.Hoang, Review on "Are More Layers Beneficial to Graph Tra...NS-CUK Seminar: V.T.Hoang, Review on "Are More Layers Beneficial to Graph Tra...
NS-CUK Seminar: V.T.Hoang, Review on "Are More Layers Beneficial to Graph Tra...
 
NS-CUK Seminar: S.T.Nguyen Review on "Accurate learning of graph representati...
NS-CUK Seminar: S.T.Nguyen Review on "Accurate learning of graph representati...NS-CUK Seminar: S.T.Nguyen Review on "Accurate learning of graph representati...
NS-CUK Seminar: S.T.Nguyen Review on "Accurate learning of graph representati...
 
Joo-Ho Lee: Topographic-aware wind forecasting system using multi-modal spati...
Joo-Ho Lee: Topographic-aware wind forecasting system using multi-modal spati...Joo-Ho Lee: Topographic-aware wind forecasting system using multi-modal spati...
Joo-Ho Lee: Topographic-aware wind forecasting system using multi-modal spati...
 
Ho-Beom Kim: Detection of Influential Unethical Expressions through Construct...
Ho-Beom Kim: Detection of Influential Unethical Expressions through Construct...Ho-Beom Kim: Detection of Influential Unethical Expressions through Construct...
Ho-Beom Kim: Detection of Influential Unethical Expressions through Construct...
 
NS-CUK Seminar: J.H.Lee, Review on "Hyperbolic graph convolutional neural net...
NS-CUK Seminar: J.H.Lee, Review on "Hyperbolic graph convolutional neural net...NS-CUK Seminar: J.H.Lee, Review on "Hyperbolic graph convolutional neural net...
NS-CUK Seminar: J.H.Lee, Review on "Hyperbolic graph convolutional neural net...
 
Sang_Graphormer.pdf
Sang_Graphormer.pdfSang_Graphormer.pdf
Sang_Graphormer.pdf
 
NS-CUK Seminar: S.T.Nguyen, Review on "Do Transformers Really Perform Bad for...
NS-CUK Seminar: S.T.Nguyen, Review on "Do Transformers Really Perform Bad for...NS-CUK Seminar: S.T.Nguyen, Review on "Do Transformers Really Perform Bad for...
NS-CUK Seminar: S.T.Nguyen, Review on "Do Transformers Really Perform Bad for...
 
NS-CUK Seminar: S.T.Nguyen, Review on "DeeperGCN: All You Need to Train Deepe...
NS-CUK Seminar: S.T.Nguyen, Review on "DeeperGCN: All You Need to Train Deepe...NS-CUK Seminar: S.T.Nguyen, Review on "DeeperGCN: All You Need to Train Deepe...
NS-CUK Seminar: S.T.Nguyen, Review on "DeeperGCN: All You Need to Train Deepe...
 
NS-CUK Seminar: V.T.Hoang, Review on "Everything is Connected: Graph Neural N...
NS-CUK Seminar: V.T.Hoang, Review on "Everything is Connected: Graph Neural N...NS-CUK Seminar: V.T.Hoang, Review on "Everything is Connected: Graph Neural N...
NS-CUK Seminar: V.T.Hoang, Review on "Everything is Connected: Graph Neural N...
 
AI-CUK Joint Journal Club: V.T.Hoang, Review on "Global self-attention as a r...
AI-CUK Joint Journal Club: V.T.Hoang, Review on "Global self-attention as a r...AI-CUK Joint Journal Club: V.T.Hoang, Review on "Global self-attention as a r...
AI-CUK Joint Journal Club: V.T.Hoang, Review on "Global self-attention as a r...
 
NS-CUK Seminar: S.T.Nguyen, Review on "On Generalized Degree Fairness in Grap...
NS-CUK Seminar: S.T.Nguyen, Review on "On Generalized Degree Fairness in Grap...NS-CUK Seminar: S.T.Nguyen, Review on "On Generalized Degree Fairness in Grap...
NS-CUK Seminar: S.T.Nguyen, Review on "On Generalized Degree Fairness in Grap...
 
NS-CUK Seminar: V.T.Hoang, Review on "Graph Neural Networks Go Forward-Forwar...
NS-CUK Seminar: V.T.Hoang, Review on "Graph Neural Networks Go Forward-Forwar...NS-CUK Seminar: V.T.Hoang, Review on "Graph Neural Networks Go Forward-Forwar...
NS-CUK Seminar: V.T.Hoang, Review on "Graph Neural Networks Go Forward-Forwar...
 
NS-CUK WS on AI Ethics 2022: Lecture 16 - Methodologies for making decisions ...
NS-CUK WS on AI Ethics 2022: Lecture 16 - Methodologies for making decisions ...NS-CUK WS on AI Ethics 2022: Lecture 16 - Methodologies for making decisions ...
NS-CUK WS on AI Ethics 2022: Lecture 16 - Methodologies for making decisions ...
 
NS-CUK WS on AI Ethics 2022: Lecture 14 - What kinds of application domains r...
NS-CUK WS on AI Ethics 2022: Lecture 14 - What kinds of application domains r...NS-CUK WS on AI Ethics 2022: Lecture 14 - What kinds of application domains r...
NS-CUK WS on AI Ethics 2022: Lecture 14 - What kinds of application domains r...
 
NS-CUK WS on AI Ethics 2022: Lecture 09 - Ethical issues caused by AI and robots
NS-CUK WS on AI Ethics 2022: Lecture 09 - Ethical issues caused by AI and robotsNS-CUK WS on AI Ethics 2022: Lecture 09 - Ethical issues caused by AI and robots
NS-CUK WS on AI Ethics 2022: Lecture 09 - Ethical issues caused by AI and robots
 
NS-CUK WS on AI Ethics 2022: Lecture 04 - A case study for AI and robots util...
NS-CUK WS on AI Ethics 2022: Lecture 04 - A case study for AI and robots util...NS-CUK WS on AI Ethics 2022: Lecture 04 - A case study for AI and robots util...
NS-CUK WS on AI Ethics 2022: Lecture 04 - A case study for AI and robots util...
 

Presentation for "Neuromarketing: Graph Transformer-based Consumer Preference Prediction"

  • 3. 뉴로마케팅이란? 뉴로마케팅은 뇌과학적인 방법을 통해 소비자의 무의식 중 심리를 파악하는 것 이 다. 주로 사용자에게 자극(ex. 상품, 서비스)을 제시하고 이와 동시에 뇌파 혹은 뇌영 상을 촬영해 뇌에서 발생하는 반응을 분석하는 방식이다.
  • 4. 뉴로마케팅 사례 뉴로마케팅의 주요 성공사례로는 펩시가 있다. 코카콜라와 펩시콜라를 블라인드 테스트를 했을 때 펩시콜라를 소비자들이 더 선호했지만 시장 선호도는 코카콜라가 높았는데 이 원인을 파악하기 위해 펩시에서 뉴로마케팅을 적용 시켰다. 브랜드를 인지하고 콜라를 마시는 경우와 브랜드를 인지하지 않고 콜라를 마시는 경우를 각 각 fMRI를 활용해 뇌영상을 촬영한 뒤 분석했다.
  • 5. 뉴로마케팅 사례 브랜드를 인지하고 코카콜라를 마셨을 때 기억을 담당하는 뇌의 부분인 중뇌, 해마 등이 활성 화되는 것을 볼 수 있었고, 브랜드를 인지하지 않은 경우에는 뇌의 전두엽 부분이 활성화되는 것을 볼 수 있었다. 이러한 실험을 통해 마케팅에 소비자의 무의식이 미치는 영향이 크다는 것을 밝혀낼 수 있었 다.
  • 6. 뉴로마케팅의 중요성 따라서, 뉴로마케팅은 단순히 소비자의 주관적인 선호도를 보는 것이 아닌 생물학 적인 반응을 보는 것으로 소비자의 무의식에 잠재된 선호도를 볼 수 있어 뇌과학적 뿐만 아니라 상업적으로 매우 중요하다.
  • 7. 과거 연구 소개 Brain-computer Interface란 뇌의 활동을 바탕으로 사물을 제어하는 것을 말하며, 현재는 머신러닝 또는 딥러닝 방법론을 적용해 뇌파 또는 뇌영상을 학습시켜 예측 하는 여러 연구가 진행되고 있다.
  • 8. 과거 연구 소개 이러한 Brain-computer Interface와 뉴로 마케팅을 결합해 기계학습 방법론을 적 용시켜 어떠한 대상에 대한 사용자의 선호도를 예측하는 다양한 연구들 진행되고 있다.
  • 9. 과거 연구 소개 EEG를 활용한 과거 연구에서는 피험자에게 42개의 제품을 4초 동안 보여 주고 그 제품을 좋아하는지 좋아하지 않는지를 기록함과 동시에 뇌파를 측정했다. 이렇게 수집한 뇌파 데이터를 활용해 Wavelet Decomposition으로 Feature를 추 출해 Hidden Markov Model로 학습시켜 70.33%의 정확도를 달성했다.
  • 10. 기존의 한계 기존에는 Feature engineering 기반의 전통적인 머신러닝 방법론은 매우 많은 수 의 Feature를 추출해야 하며, Raw EEG Signal 만을 Feature로 사용한 딥러닝 기 반 예측은 성능이 낮다는 한계점이 존재하며 해석가능성이 떨어진다. 제안할 방법론 한계점을 보완하기 위해 모델에 해석가능성을 추가해주는 Attention Mechanism 기반의 Graph Transformer를 적용해 Raw EEG Singal만으로도 예 측 성능이 떨어지지 않으며 해석가능성이 있는 딥러닝 기반 소비자 선호 예측 모델 인 NmGT(Neuromarketing Graph Transformer)를 제안한다.
  • 11. Attention Mechanism Attention Mechanism의 Motivation은 사람이 정보의 중요한 부분에 집중한다는 것에서 출발했다. 이 방법론은 모델이 데이터에서 중요한 부분을 집중하여 학습할 수 있게 하고 이 과정에서 계산되는 Attention score를 활용해 모델이 데이터의 어느 부분에 집중하는지를 알 수 있어 해석가능성을 높이는 동시에 성능 향상도 이뤄낼 수 있는 방법론이다.
  • 12. Graph Neural Networks Graph Neural Networks(GNN)은 Graph 구조의 데이터를 입력값으로 활용하 는 신경망을 말한다. 현재 GNN은 EEG를 활용하는 다양한 연구에 활용되고 있고, EEG 데이터를 그래프로 구조화시켜서 활용함으로서 우수한 성능을 보여주고 있 다.
  • 13. Graph Transformer Graph Transformer는 기존 multi-head attention mechanism을 GNN에 적합 하게 변형한 모델로 GNN에 Attention Mechanism을 적용시킨 모델 중 가장 높은 성능을 보이는 모델이다. 이러한 Attention Mechanism 기반의 GNN은 노드간의 연결을 End-to-End로 학습시킬 수 있기 때문에 Feature Engineering을 통해 추 출한 Feature로 노드간의 연결을 정의하지 않아도 됨으로 Raw EEG Signal만으로 모델을 학습시킬 수 있다.
  • 14. Neuromarketing Graph Transformer 우리가 제안한 NmGT 모델은 Input으로 Raw EEG 데이터를 활용해 2개의 Graph Transformer layer를 거쳐 학습된 그래프를 Flatten해서 2개의 fully connected layer를 거쳐 데이터가 Like인지 Dislike인지 예측한다.
  • 15. Dataset Description Product Choice 데이터셋을 활용했으며 Emotiv epoc+ 14 channel 장비를 활용 해 21~38세 25명의 참가자에게 보여준 상품에 대해 호인지 불호인지 자가보고 시 켜 그 결과를 레이블로 사용했다. 우리는 이 데이터를 4초씩 분할해서 추가적인 데이터 전처리 없이 활용했으며, 그래 프의 연결은 Fully-connected하게 활용했다.
  • 16. Experiment Setting 모델의 하이퍼파라미터 세팅은 Tabel 1과 같이 설정했으며, Train, Validation, Test 를 위해 데이터셋을 8:1:1의 비율로 분할했다. Optimizer는 Adam을, Loss는 Binary Cross Entropy를 사용했다.
  • 19. • 우리가 고안한 NmGT는 Raw EEG 데이터만을 활용해 기존 Feature Engineering 기반의 방법론과 비교했을 때 뒤떨어지지 않는 성능을 보여준다. • 또한, 기존의 딥러닝 기반 방법론과 비교했을 때 성능이 개선되었으며 해석가능 성을 추가했다. • 따라서, 우리의 방법론은 뇌과학적인 해석이 중요한 뉴로마케팅에서 기존 방법 론보다 신뢰성있고 정확한 예측을 제공해줌을 보여준다.