SlideShare a Scribd company logo
1 of 29
1
AI for Everyone
딥러닝 논문 읽고
성장하는 모임 이야기
Keras Korea
류태선
2
 AI for Everyone
2-1. 나를 위한
2-2. 스터디 멤버 들을 위한
2-3. 모두를 위한 인공지능
 딥러닝 논문 읽기 모임 소개
1-1. 딥러닝 논문 읽기 모임?
1-2. 모임의 운영방식
1-3. 기수 별 인원
1-4. 스터디 원
1-5. 스터디의 사이드 스터디
목차
3
Part 1. 딥러닝 논문 읽기 모임 소개
4
발표자 소개
 류태선 대표
2021~2022 : 콥스랩 대표
2020~2021 : T사 ML/DL팀 리더
2018~2019 : knowru 창업멤버 / CTO
2017~2018 : 프리윌린 창업멤버 / CTO
2017~2020 : 고려대학교 딥러닝 석사 졸업
(지도 교수 : 주재걸 교수님)
콥스랩 대표, 한컴 아카데미, 메가 스터디 인공지능 강사
5
딥러닝 논문 읽기 모임 소개
 딥러닝 논문읽기 모임?
6
딥러닝 논문 읽기 모임 소개
 각 팀별로 매주 1~2편의 논문 리뷰 후 일요일 마다 발표
 리뷰 영상은 유튜브에 업로드
 각 팀마다 3주 정도의 준비기간을 가지고 1~2명의 발표자가
진행
 팀별로 준비하기 때문에 혼자서 발표 하는 부담은 내려가고 ,
퀄리티는 올라감
 딥러닝 논문읽기 운영 방식
7
딥러닝 논문 읽기 모임 소개
1기
(15명)
 자연어 처리 팀
 이미지 처리 팀
 추천 시스템 팀
2기
(30명)
 자연어 처리 팀
 이미지 처리 팀
 음성 처리 팀
 펀디멘탈 팀
3~4기
(5~60명)
 자연어 처리 팀
 이미지 처리 팀
 추천 시스템 팀
청강 방(3기부터 운영)
1,200여명 규모의 오픈 카톡방
 딥러닝 논문읽기 기수 별 인원
8
 이미지 처리 팀 - 66편
( 디텍션/ 생성)
 자연어 처리 팀 - 65편
(자유주제/ LM)
 펀디멘탈 팀 - 66편
(추천, 차원, 네트워크,엔지니어링 등...)
딥러닝 논문 읽기 모임 소개
 딥러닝 논문읽기 팀별 리뷰 논문 수
9
1년간 조회수
약 8.6만회
(꾸준히 증가
중!)
딥러닝 논문 읽기 모임 소개
 딥러닝 논문읽기 채널 분석
10
딥러닝 논문읽기 스터디를
스터디 하는 모임도 등장..!
딥러닝 논문 읽기 모임 소개
11
 주머니 사정이 넉넉치 않은 대학원생 신분
‘T’사 교육 플랫폼을 이용하여
다양한 분야의 딥러닝 과외를 시작
 딥러닝 분야 과외 1위
1:1 수업, 누적 300명 이상
 최대 12주 까지만 수업 진행
( 그 이상은 제가..)
딥러닝 논문 읽기 모임 소개
12
사업화를 하고 싶은
학생 or 재직자
대학원 진학 및
졸업을 원하는 학생
도메인에 딥러닝을
적용하고 싶은 전문가
(변호사, 의사 등)
취미로 대세라고 하니까…
딥러닝 논문 읽기 모임 소개
 초기 스터디 원
13
• 더 수업을 해주세요!
이제 딥러닝 기술에 대한 이해나 흐름은 알겠다
• 혼자서는 어려워요
이제 논문을 읽으며 최신 기술을 팔로우 해보세요
• 좋아요!
그럼 너희 끼리 스터디를 해 볼래?
딥러닝 논문 읽기 모임 소개
 초기 스터디 원
14
하면 할수록 퀄리티가 점점 좋아진다
팀별로 하니 부담이 없다( 준비시간이 넉넉)
유튜브에 올려볼까? 부담스러 우려나..
부담스러우니 더 꼼꼼히 !
딥러닝 논문 읽기 모임 소개
15
 스터디의 사이드 스터디
딥러닝 논문 읽기 모임 소개
16
좋아요 1만개 이상
공유 1.5만회 이상
딥러닝 논문 읽기 모임 소개
 모임이 커뮤니티로
17
모임에서 커뮤니티로 발전
딥러닝 논문 읽기 모임 소개
 모임이 커뮤니티로
18
Part 2. AI for Everyone
19
AI for Everyone
 나를 위한?
20
AI for Everyone
 나를 위한(반 강제적 참여)
21
AI for Everyone
 많은 지지(구글 검색)
22
다수의 강의 및 집필 의뢰
이력서 등 작성시 + α (커뮤니티 활동의 중요성)
AI for Everyone
 스터디 원들 위한
23
AI for Everyone
24
AI for Everyone
 모두를 위한 인공지능
25
AI for Everyone
 모두를 위한 인공지능
26
AI for Everyone
 모두를 위한 인공지능
27
AI for Everyone
 모두를 위한 인공지능
28
AI for Everyone
 모두를 위한 인공지능
29
감사합니다
AI for Everyone

More Related Content

What's hot

機械学習を用いた異常検知入門
機械学習を用いた異常検知入門機械学習を用いた異常検知入門
機械学習を用いた異常検知入門michiaki ito
 
개발을잘하고싶어요-네이버랩스 송기선님
개발을잘하고싶어요-네이버랩스 송기선님개발을잘하고싶어요-네이버랩스 송기선님
개발을잘하고싶어요-네이버랩스 송기선님NAVER D2
 
Ques12「AIのテスト~誤検知と検出漏れ~」
Ques12「AIのテスト~誤検知と検出漏れ~」Ques12「AIのテスト~誤検知と検出漏れ~」
Ques12「AIのテスト~誤検知と検出漏れ~」hirokazuoishi
 
Reinforcement Learning(方策改善定理)
Reinforcement Learning(方策改善定理)Reinforcement Learning(方策改善定理)
Reinforcement Learning(方策改善定理)Masanori Yamada
 
物体検出コンペティションOpen Imagesに挑む
物体検出コンペティションOpen Imagesに挑む物体検出コンペティションOpen Imagesに挑む
物体検出コンペティションOpen Imagesに挑むHiroto Honda
 
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편Seongyun Byeon
 
Long Short-term Memory
Long Short-term MemoryLong Short-term Memory
Long Short-term Memorynishio
 
Google's Pathways Language Model and Chain-of-Thought
Google's Pathways Language Model and Chain-of-ThoughtGoogle's Pathways Language Model and Chain-of-Thought
Google's Pathways Language Model and Chain-of-ThoughtVaclav1
 
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれからSeiichi Uchida
 
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)Takao Yamanaka
 
Text classification presentation
Text classification presentationText classification presentation
Text classification presentationMarijn van Zelst
 
SIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place SolutionSIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place SolutionYusuke Uchida
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
Onnx and onnx runtime
Onnx and onnx runtimeOnnx and onnx runtime
Onnx and onnx runtimeVishwas N
 
新しい推薦方式 知識ベース型推薦についての解説
新しい推薦方式 知識ベース型推薦についての解説新しい推薦方式 知識ベース型推薦についての解説
新しい推薦方式 知識ベース型推薦についての解説Takahiro Kubo
 
소프트웨어 학습 및 자바 웹 개발자 학습 로드맵
소프트웨어 학습 및 자바 웹 개발자 학습 로드맵소프트웨어 학습 및 자바 웹 개발자 학습 로드맵
소프트웨어 학습 및 자바 웹 개발자 학습 로드맵Javajigi Jaesung
 
An introduction to the Transformers architecture and BERT
An introduction to the Transformers architecture and BERTAn introduction to the Transformers architecture and BERT
An introduction to the Transformers architecture and BERTSuman Debnath
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리Shane (Seungwhan) Moon
 

What's hot (20)

機械学習を用いた異常検知入門
機械学習を用いた異常検知入門機械学習を用いた異常検知入門
機械学習を用いた異常検知入門
 
개발을잘하고싶어요-네이버랩스 송기선님
개발을잘하고싶어요-네이버랩스 송기선님개발을잘하고싶어요-네이버랩스 송기선님
개발을잘하고싶어요-네이버랩스 송기선님
 
Ques12「AIのテスト~誤検知と検出漏れ~」
Ques12「AIのテスト~誤検知と検出漏れ~」Ques12「AIのテスト~誤検知と検出漏れ~」
Ques12「AIのテスト~誤検知と検出漏れ~」
 
Reinforcement Learning(方策改善定理)
Reinforcement Learning(方策改善定理)Reinforcement Learning(方策改善定理)
Reinforcement Learning(方策改善定理)
 
物体検出コンペティションOpen Imagesに挑む
物体検出コンペティションOpen Imagesに挑む物体検出コンペティションOpen Imagesに挑む
物体検出コンペティションOpen Imagesに挑む
 
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
 
Long Short-term Memory
Long Short-term MemoryLong Short-term Memory
Long Short-term Memory
 
Google's Pathways Language Model and Chain-of-Thought
Google's Pathways Language Model and Chain-of-ThoughtGoogle's Pathways Language Model and Chain-of-Thought
Google's Pathways Language Model and Chain-of-Thought
 
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
 
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
 
Text classification presentation
Text classification presentationText classification presentation
Text classification presentation
 
KDD2016勉強会 資料
KDD2016勉強会 資料KDD2016勉強会 資料
KDD2016勉強会 資料
 
SIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place SolutionSIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place Solution
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
Onnx and onnx runtime
Onnx and onnx runtimeOnnx and onnx runtime
Onnx and onnx runtime
 
新しい推薦方式 知識ベース型推薦についての解説
新しい推薦方式 知識ベース型推薦についての解説新しい推薦方式 知識ベース型推薦についての解説
新しい推薦方式 知識ベース型推薦についての解説
 
소프트웨어 학습 및 자바 웹 개발자 학습 로드맵
소프트웨어 학습 및 자바 웹 개발자 학습 로드맵소프트웨어 학습 및 자바 웹 개발자 학습 로드맵
소프트웨어 학습 및 자바 웹 개발자 학습 로드맵
 
An introduction to the Transformers architecture and BERT
An introduction to the Transformers architecture and BERTAn introduction to the Transformers architecture and BERT
An introduction to the Transformers architecture and BERT
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리
 

Similar to SSDC2022 - AI for Everyone 딥러닝 논문읽고 성장하는 모임이야기

모두의연구소 Deep Learning College 설명회 발표자료
모두의연구소 Deep Learning College 설명회 발표자료모두의연구소 Deep Learning College 설명회 발표자료
모두의연구소 Deep Learning College 설명회 발표자료은수 박
 
『밑바닥부터 시작하는 딥러닝』 - 미리보기
『밑바닥부터 시작하는 딥러닝』 - 미리보기『밑바닥부터 시작하는 딥러닝』 - 미리보기
『밑바닥부터 시작하는 딥러닝』 - 미리보기복연 이
 
OKKY_송년회_발표자료
OKKY_송년회_발표자료OKKY_송년회_발표자료
OKKY_송년회_발표자료Dexter Jung
 
김준기 - 박사과정 이야기 in 130323 KAIST CS 아주 소소한 진로 설명회
김준기 - 박사과정 이야기 in 130323 KAIST CS 아주 소소한 진로 설명회김준기 - 박사과정 이야기 in 130323 KAIST CS 아주 소소한 진로 설명회
김준기 - 박사과정 이야기 in 130323 KAIST CS 아주 소소한 진로 설명회Yunseok Jang
 
제주 GDG 발표자료
제주 GDG 발표자료제주 GDG 발표자료
제주 GDG 발표자료Jicheol Woo
 
인터렉기말발표 1116440정미슬
인터렉기말발표 1116440정미슬인터렉기말발표 1116440정미슬
인터렉기말발표 1116440정미슬Jung Mieseul
 
인터렉기말발표 1116440정미슬
인터렉기말발표 1116440정미슬인터렉기말발표 1116440정미슬
인터렉기말발표 1116440정미슬Jung Mieseul
 
인터렉기말 1116440 정미슬
인터렉기말 1116440 정미슬인터렉기말 1116440 정미슬
인터렉기말 1116440 정미슬Jung Mieseul
 
[180718] ML 분야 유학 및 취업 준비 설명회 @SNU
[180718] ML 분야 유학 및 취업 준비 설명회 @SNU[180718] ML 분야 유학 및 취업 준비 설명회 @SNU
[180718] ML 분야 유학 및 취업 준비 설명회 @SNUYunseok Jang
 
딥러닝 추천교재 및 강좌
딥러닝 추천교재 및 강좌딥러닝 추천교재 및 강좌
딥러닝 추천교재 및 강좌Seong-Hun Choe
 
프론트 모임.pptx
프론트 모임.pptx프론트 모임.pptx
프론트 모임.pptxcksal4785911
 
인터렉 발표 수정
인터렉 발표 수정인터렉 발표 수정
인터렉 발표 수정Jung Mieseul
 
인터렉 리서치
인터렉 리서치인터렉 리서치
인터렉 리서치Jung Mieseul
 
인터렉 리서치 발표
인터렉 리서치 발표인터렉 리서치 발표
인터렉 리서치 발표Jung Mieseul
 
인터렉 리서치 발표
인터렉 리서치 발표인터렉 리서치 발표
인터렉 리서치 발표Jung Mieseul
 
2021 Graduation Project - Collaboration Tool for Student
2021 Graduation Project - Collaboration Tool for Student2021 Graduation Project - Collaboration Tool for Student
2021 Graduation Project - Collaboration Tool for Studentssuser918bf9
 
연구원정 기후위기 2기 사전설명회
연구원정 기후위기 2기 사전설명회연구원정 기후위기 2기 사전설명회
연구원정 기후위기 2기 사전설명회연구탐사대
 
박사과정 진학을 하기 전 알았으면 좋았을 것들
박사과정 진학을 하기 전 알았으면 좋았을 것들박사과정 진학을 하기 전 알았으면 좋았을 것들
박사과정 진학을 하기 전 알았으면 좋았을 것들Sungwoo Park
 
세컨드브레인 연구소 강의 소개서(201307)
세컨드브레인 연구소 강의 소개서(201307)세컨드브레인 연구소 강의 소개서(201307)
세컨드브레인 연구소 강의 소개서(201307)Lim Bok Lee
 

Similar to SSDC2022 - AI for Everyone 딥러닝 논문읽고 성장하는 모임이야기 (20)

모두의연구소 Deep Learning College 설명회 발표자료
모두의연구소 Deep Learning College 설명회 발표자료모두의연구소 Deep Learning College 설명회 발표자료
모두의연구소 Deep Learning College 설명회 발표자료
 
『밑바닥부터 시작하는 딥러닝』 - 미리보기
『밑바닥부터 시작하는 딥러닝』 - 미리보기『밑바닥부터 시작하는 딥러닝』 - 미리보기
『밑바닥부터 시작하는 딥러닝』 - 미리보기
 
OKKY_송년회_발표자료
OKKY_송년회_발표자료OKKY_송년회_발표자료
OKKY_송년회_발표자료
 
김준기 - 박사과정 이야기 in 130323 KAIST CS 아주 소소한 진로 설명회
김준기 - 박사과정 이야기 in 130323 KAIST CS 아주 소소한 진로 설명회김준기 - 박사과정 이야기 in 130323 KAIST CS 아주 소소한 진로 설명회
김준기 - 박사과정 이야기 in 130323 KAIST CS 아주 소소한 진로 설명회
 
제주 GDG 발표자료
제주 GDG 발표자료제주 GDG 발표자료
제주 GDG 발표자료
 
Orientation
OrientationOrientation
Orientation
 
인터렉기말발표 1116440정미슬
인터렉기말발표 1116440정미슬인터렉기말발표 1116440정미슬
인터렉기말발표 1116440정미슬
 
인터렉기말발표 1116440정미슬
인터렉기말발표 1116440정미슬인터렉기말발표 1116440정미슬
인터렉기말발표 1116440정미슬
 
인터렉기말 1116440 정미슬
인터렉기말 1116440 정미슬인터렉기말 1116440 정미슬
인터렉기말 1116440 정미슬
 
[180718] ML 분야 유학 및 취업 준비 설명회 @SNU
[180718] ML 분야 유학 및 취업 준비 설명회 @SNU[180718] ML 분야 유학 및 취업 준비 설명회 @SNU
[180718] ML 분야 유학 및 취업 준비 설명회 @SNU
 
딥러닝 추천교재 및 강좌
딥러닝 추천교재 및 강좌딥러닝 추천교재 및 강좌
딥러닝 추천교재 및 강좌
 
프론트 모임.pptx
프론트 모임.pptx프론트 모임.pptx
프론트 모임.pptx
 
인터렉 발표 수정
인터렉 발표 수정인터렉 발표 수정
인터렉 발표 수정
 
인터렉 리서치
인터렉 리서치인터렉 리서치
인터렉 리서치
 
인터렉 리서치 발표
인터렉 리서치 발표인터렉 리서치 발표
인터렉 리서치 발표
 
인터렉 리서치 발표
인터렉 리서치 발표인터렉 리서치 발표
인터렉 리서치 발표
 
2021 Graduation Project - Collaboration Tool for Student
2021 Graduation Project - Collaboration Tool for Student2021 Graduation Project - Collaboration Tool for Student
2021 Graduation Project - Collaboration Tool for Student
 
연구원정 기후위기 2기 사전설명회
연구원정 기후위기 2기 사전설명회연구원정 기후위기 2기 사전설명회
연구원정 기후위기 2기 사전설명회
 
박사과정 진학을 하기 전 알았으면 좋았을 것들
박사과정 진학을 하기 전 알았으면 좋았을 것들박사과정 진학을 하기 전 알았으면 좋았을 것들
박사과정 진학을 하기 전 알았으면 좋았을 것들
 
세컨드브레인 연구소 강의 소개서(201307)
세컨드브레인 연구소 강의 소개서(201307)세컨드브레인 연구소 강의 소개서(201307)
세컨드브레인 연구소 강의 소개서(201307)
 

More from taeseon ryu

OpineSum Entailment-based self-training for abstractive opinion summarization...
OpineSum Entailment-based self-training for abstractive opinion summarization...OpineSum Entailment-based self-training for abstractive opinion summarization...
OpineSum Entailment-based self-training for abstractive opinion summarization...taeseon ryu
 
3D Gaussian Splatting
3D Gaussian Splatting3D Gaussian Splatting
3D Gaussian Splattingtaeseon ryu
 
Hyperbolic Image Embedding.pptx
Hyperbolic  Image Embedding.pptxHyperbolic  Image Embedding.pptx
Hyperbolic Image Embedding.pptxtaeseon ryu
 
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정taeseon ryu
 
LLaMA Open and Efficient Foundation Language Models - 230528.pdf
LLaMA Open and Efficient Foundation Language Models - 230528.pdfLLaMA Open and Efficient Foundation Language Models - 230528.pdf
LLaMA Open and Efficient Foundation Language Models - 230528.pdftaeseon ryu
 
Dataset Distillation by Matching Training Trajectories
Dataset Distillation by Matching Training Trajectories Dataset Distillation by Matching Training Trajectories
Dataset Distillation by Matching Training Trajectories taeseon ryu
 
Packed Levitated Marker for Entity and Relation Extraction
Packed Levitated Marker for Entity and Relation ExtractionPacked Levitated Marker for Entity and Relation Extraction
Packed Levitated Marker for Entity and Relation Extractiontaeseon ryu
 
MOReL: Model-Based Offline Reinforcement Learning
MOReL: Model-Based Offline Reinforcement LearningMOReL: Model-Based Offline Reinforcement Learning
MOReL: Model-Based Offline Reinforcement Learningtaeseon ryu
 
Scaling Instruction-Finetuned Language Models
Scaling Instruction-Finetuned Language ModelsScaling Instruction-Finetuned Language Models
Scaling Instruction-Finetuned Language Modelstaeseon ryu
 
Visual prompt tuning
Visual prompt tuningVisual prompt tuning
Visual prompt tuningtaeseon ryu
 
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdfvariBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdftaeseon ryu
 
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdfReinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdftaeseon ryu
 
The Forward-Forward Algorithm
The Forward-Forward AlgorithmThe Forward-Forward Algorithm
The Forward-Forward Algorithmtaeseon ryu
 
Towards Robust and Reproducible Active Learning using Neural Networks
Towards Robust and Reproducible Active Learning using Neural NetworksTowards Robust and Reproducible Active Learning using Neural Networks
Towards Robust and Reproducible Active Learning using Neural Networkstaeseon ryu
 
BRIO: Bringing Order to Abstractive Summarization
BRIO: Bringing Order to Abstractive SummarizationBRIO: Bringing Order to Abstractive Summarization
BRIO: Bringing Order to Abstractive Summarizationtaeseon ryu
 

More from taeseon ryu (20)

VoxelNet
VoxelNetVoxelNet
VoxelNet
 
OpineSum Entailment-based self-training for abstractive opinion summarization...
OpineSum Entailment-based self-training for abstractive opinion summarization...OpineSum Entailment-based self-training for abstractive opinion summarization...
OpineSum Entailment-based self-training for abstractive opinion summarization...
 
3D Gaussian Splatting
3D Gaussian Splatting3D Gaussian Splatting
3D Gaussian Splatting
 
JetsonTX2 Python
 JetsonTX2 Python  JetsonTX2 Python
JetsonTX2 Python
 
Hyperbolic Image Embedding.pptx
Hyperbolic  Image Embedding.pptxHyperbolic  Image Embedding.pptx
Hyperbolic Image Embedding.pptx
 
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
 
LLaMA Open and Efficient Foundation Language Models - 230528.pdf
LLaMA Open and Efficient Foundation Language Models - 230528.pdfLLaMA Open and Efficient Foundation Language Models - 230528.pdf
LLaMA Open and Efficient Foundation Language Models - 230528.pdf
 
YOLO V6
YOLO V6YOLO V6
YOLO V6
 
Dataset Distillation by Matching Training Trajectories
Dataset Distillation by Matching Training Trajectories Dataset Distillation by Matching Training Trajectories
Dataset Distillation by Matching Training Trajectories
 
RL_UpsideDown
RL_UpsideDownRL_UpsideDown
RL_UpsideDown
 
Packed Levitated Marker for Entity and Relation Extraction
Packed Levitated Marker for Entity and Relation ExtractionPacked Levitated Marker for Entity and Relation Extraction
Packed Levitated Marker for Entity and Relation Extraction
 
MOReL: Model-Based Offline Reinforcement Learning
MOReL: Model-Based Offline Reinforcement LearningMOReL: Model-Based Offline Reinforcement Learning
MOReL: Model-Based Offline Reinforcement Learning
 
Scaling Instruction-Finetuned Language Models
Scaling Instruction-Finetuned Language ModelsScaling Instruction-Finetuned Language Models
Scaling Instruction-Finetuned Language Models
 
Visual prompt tuning
Visual prompt tuningVisual prompt tuning
Visual prompt tuning
 
mPLUG
mPLUGmPLUG
mPLUG
 
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdfvariBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
 
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdfReinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
 
The Forward-Forward Algorithm
The Forward-Forward AlgorithmThe Forward-Forward Algorithm
The Forward-Forward Algorithm
 
Towards Robust and Reproducible Active Learning using Neural Networks
Towards Robust and Reproducible Active Learning using Neural NetworksTowards Robust and Reproducible Active Learning using Neural Networks
Towards Robust and Reproducible Active Learning using Neural Networks
 
BRIO: Bringing Order to Abstractive Summarization
BRIO: Bringing Order to Abstractive SummarizationBRIO: Bringing Order to Abstractive Summarization
BRIO: Bringing Order to Abstractive Summarization
 

SSDC2022 - AI for Everyone 딥러닝 논문읽고 성장하는 모임이야기

  • 1. 1 AI for Everyone 딥러닝 논문 읽고 성장하는 모임 이야기 Keras Korea 류태선
  • 2. 2  AI for Everyone 2-1. 나를 위한 2-2. 스터디 멤버 들을 위한 2-3. 모두를 위한 인공지능  딥러닝 논문 읽기 모임 소개 1-1. 딥러닝 논문 읽기 모임? 1-2. 모임의 운영방식 1-3. 기수 별 인원 1-4. 스터디 원 1-5. 스터디의 사이드 스터디 목차
  • 3. 3 Part 1. 딥러닝 논문 읽기 모임 소개
  • 4. 4 발표자 소개  류태선 대표 2021~2022 : 콥스랩 대표 2020~2021 : T사 ML/DL팀 리더 2018~2019 : knowru 창업멤버 / CTO 2017~2018 : 프리윌린 창업멤버 / CTO 2017~2020 : 고려대학교 딥러닝 석사 졸업 (지도 교수 : 주재걸 교수님) 콥스랩 대표, 한컴 아카데미, 메가 스터디 인공지능 강사
  • 5. 5 딥러닝 논문 읽기 모임 소개  딥러닝 논문읽기 모임?
  • 6. 6 딥러닝 논문 읽기 모임 소개  각 팀별로 매주 1~2편의 논문 리뷰 후 일요일 마다 발표  리뷰 영상은 유튜브에 업로드  각 팀마다 3주 정도의 준비기간을 가지고 1~2명의 발표자가 진행  팀별로 준비하기 때문에 혼자서 발표 하는 부담은 내려가고 , 퀄리티는 올라감  딥러닝 논문읽기 운영 방식
  • 7. 7 딥러닝 논문 읽기 모임 소개 1기 (15명)  자연어 처리 팀  이미지 처리 팀  추천 시스템 팀 2기 (30명)  자연어 처리 팀  이미지 처리 팀  음성 처리 팀  펀디멘탈 팀 3~4기 (5~60명)  자연어 처리 팀  이미지 처리 팀  추천 시스템 팀 청강 방(3기부터 운영) 1,200여명 규모의 오픈 카톡방  딥러닝 논문읽기 기수 별 인원
  • 8. 8  이미지 처리 팀 - 66편 ( 디텍션/ 생성)  자연어 처리 팀 - 65편 (자유주제/ LM)  펀디멘탈 팀 - 66편 (추천, 차원, 네트워크,엔지니어링 등...) 딥러닝 논문 읽기 모임 소개  딥러닝 논문읽기 팀별 리뷰 논문 수
  • 9. 9 1년간 조회수 약 8.6만회 (꾸준히 증가 중!) 딥러닝 논문 읽기 모임 소개  딥러닝 논문읽기 채널 분석
  • 10. 10 딥러닝 논문읽기 스터디를 스터디 하는 모임도 등장..! 딥러닝 논문 읽기 모임 소개
  • 11. 11  주머니 사정이 넉넉치 않은 대학원생 신분 ‘T’사 교육 플랫폼을 이용하여 다양한 분야의 딥러닝 과외를 시작  딥러닝 분야 과외 1위 1:1 수업, 누적 300명 이상  최대 12주 까지만 수업 진행 ( 그 이상은 제가..) 딥러닝 논문 읽기 모임 소개
  • 12. 12 사업화를 하고 싶은 학생 or 재직자 대학원 진학 및 졸업을 원하는 학생 도메인에 딥러닝을 적용하고 싶은 전문가 (변호사, 의사 등) 취미로 대세라고 하니까… 딥러닝 논문 읽기 모임 소개  초기 스터디 원
  • 13. 13 • 더 수업을 해주세요! 이제 딥러닝 기술에 대한 이해나 흐름은 알겠다 • 혼자서는 어려워요 이제 논문을 읽으며 최신 기술을 팔로우 해보세요 • 좋아요! 그럼 너희 끼리 스터디를 해 볼래? 딥러닝 논문 읽기 모임 소개  초기 스터디 원
  • 14. 14 하면 할수록 퀄리티가 점점 좋아진다 팀별로 하니 부담이 없다( 준비시간이 넉넉) 유튜브에 올려볼까? 부담스러 우려나.. 부담스러우니 더 꼼꼼히 ! 딥러닝 논문 읽기 모임 소개
  • 15. 15  스터디의 사이드 스터디 딥러닝 논문 읽기 모임 소개
  • 16. 16 좋아요 1만개 이상 공유 1.5만회 이상 딥러닝 논문 읽기 모임 소개  모임이 커뮤니티로
  • 17. 17 모임에서 커뮤니티로 발전 딥러닝 논문 읽기 모임 소개  모임이 커뮤니티로
  • 18. 18 Part 2. AI for Everyone
  • 19. 19 AI for Everyone  나를 위한?
  • 20. 20 AI for Everyone  나를 위한(반 강제적 참여)
  • 21. 21 AI for Everyone  많은 지지(구글 검색)
  • 22. 22 다수의 강의 및 집필 의뢰 이력서 등 작성시 + α (커뮤니티 활동의 중요성) AI for Everyone  스터디 원들 위한
  • 24. 24 AI for Everyone  모두를 위한 인공지능
  • 25. 25 AI for Everyone  모두를 위한 인공지능
  • 26. 26 AI for Everyone  모두를 위한 인공지능
  • 27. 27 AI for Everyone  모두를 위한 인공지능
  • 28. 28 AI for Everyone  모두를 위한 인공지능

Editor's Notes

  1. 안녕하세요 케라스코리아 세션에서 AI for Everyone , 모두를 위한 딥러닝 이라는 비전을 가지고 딥러닝 논문 읽고 성장하는 모임, 딥논읽에 대해 발표를 진행 하게된 류태선 이라고 합니다. 여러분 앞에서 이렇게 발표를 진행하게 되어 영광이라고 생각합니다.
  2. 우선 목차는 다음과 같습니다 첫 번째로 딥러닝 논문 읽기 모임에 대해 소개할 예정이며 저희 구성원들, 그리고 스터디가 진행되는 방식, 스터디를 만들게 된 계기에 대해 중점적으로 발표가 진행되고 두 번째로 결국 모두를 위한 딥러닝을 어떻게 실천하고 있는지에 대한 얘기로 두 번째 챕터를 진행할 예정입니다. 그럼 본격적인 발표를 진행하겠습니다
  3. 첫번째 파트, 딥러닝 논문 읽기 모임 소개를 앞서 발표자인 저부터 소개를 드리고 시작하겠습니다.
  4. 저는 2017년도 이전에는 웹프로그래밍 개발자로 처음 개발을 시작하고 아마 대부분 여기 계신 분들과 비슷하게 딥마인드의 알파고와 이세돌 경기를 보고 바로 딥러닝 공부를 시작했습니다. 그때 당시 대학교를 졸업하고 막 개발을 하던 1~2년 차 개발자인 시점이라 빠른 러닝 커브를 가지고 바로 고려대학교 대학원에 입학하게 되었습니다. 운이 좋게 좋은 형들을 만나 매쓰플랫이라는 서비스를 개발하는 프리윌린에 초기 창업멤버로 참여하여 처음 도전한 스타트업에서 좋은 성과를 거두게 되었고 그 기세를 몰아 knowru라는 CCTV 방문자 추적을 하는 서비스를 개발하는 두 번째 창업하였고 많은 투자를 받고 좋은 결과를 냈었습니다. 그 후 T사에 들어가 앞선 좋은 경험을 인정받아 머신러닝 딥러닝 팀에서 팀 리딩을 맡고, 그 후 인공지능 교육 컨설팅 기업인 콥스랩이라는 회사를 창업했습니다. 앞서 말씀드린 경험들은 딥러닝 논문 읽기라는 스터디 활동에서 많은 영향을 받았습니다.
  5. 딥러닝 논문 읽기는 현재 약 200편 가까이 논문을 리뷰하였고, 딥러닝의 기본적인 내용이 아닌 어느 정도 공부를 하신 분들을 타깃으로 한 유튜브 채널입니다. 대략 7천 분 이상의 구독자분들이 구독하고 계시고 현재도 매주 한 두 편 가까이 영상을 업로드하고 있습니다.
  6. 그럼 저희 모임의 운영방식에 대해 알려드리겠습니다. 저희 모임은 자연어 처리팀, 이미지 처리팀, 펀디멘탈팀 총 세팀으로 이루어져 있고, 팀마다 돌아가며 매주 한두 편의 논문을 일요일 밤마다 PPT 자료를 만들어 리뷰하고 있습니다. 리뷰한 영상은 편집과정을 거쳐 영어와 한글 자막을 입혀 업로드되고 있습니다. 팀마다 돌아가며 발표를 진행하기 때문에 어떻게 보면 약 3주간의 준비기간이 있는 셈이고 발표자는 팀 내에서 한두 분이 돌아가며 맡게 되므로 발표를 준비하면서 여유 시간이 있고 팀으로 준비하기 때문에 부담도 많이 내려가게 되고 팀원이 서로 피드백을 주는 형식으로 진행되어 발표 자료 및 발표에 퀄리티는 올라가게 되는 효과가 있습니다.
  7. 인원은 현재 저희 단톡방에 30분 정도가 있으시고 현재 4기입니다. 3~4기는 합쳐서 5~60명 정도의 스터디원이 참여해 주셨었습니다. 기수를 나눈 이유는 팀의 형태가 달라지는 것도 있었지만, 현재 사이클을 3기부터는 1년을 주기로 가져가고 있습니다. 스터디가 종료되는 시점이 없으면 스터디원들이 목표를 삼는 지점이 애매했습니다. 뭔가 끝이 없는 터널을 계속 가는 느낌? 그래서 기수마다 기한을 두고 있지만 만약 다음 기수에도 참여하고 싶다고 하시면 기존 기수 인원은 최대한 유지해서 진행하고 있습니다. 저희는 좀 특이하게 아래 그림에서 보시는 것처럼 청강 방을 운영하고 있습니다. 청강 방을 유지하는 건 영상을 올리다 보니 많은 질의응답이 댓글로 달리는데 아무래도 댓글은 제가 반응이 느릴 수 밖에 없고 즉각적인 피드백이 어려웠습니다. 그래서 청강 방을 만들어서 모임에 관심 있으신 분들이 청강 방에 참여하셔서 라이브 때 질의응답을 즉각적으로 할 수 있는 형태로 만들었습니다. 저는 단톡방에 대략 1~200명 정도 참여할 것으로 예상 했는데, 현재는 1,200명이 넘는 거대한 단톡방이 되었습니다.
  8. 1~4기를 거치면서 각 팀마다 돌아가며 발표를 진행하니 매우 균등하게 영상이 올라가 있습니다. 자연어 처리팀에서 특별하게 트랜스포머가 대세가 되면서 트랜스 포머 세부 채널을 만들었는데, 다른 팀들의 채널들도 조금더 세분화 해서 구독자분들이 보다 관심있는 분야의 논문들을 쭉 시청하시기 편하게 만들 예정입니다.
  9. 조회수는 아무래도 전체 IT 분야 중에 특히 그중에 인공지능, 딥러닝 분야에서 그것도 딥한 논문을 리뷰하는 채널이다 보니 조회수가 엄청 많은 건 아니지만, 그래도 이 정도 조회수면 딥러닝 논문을 리뷰하시는 분들은 영상 채널 중 관심 있는 건 한 번씩 보셨겠다고 하는 조회수는 나오고 있습니다. 이 수치는 유튜브에서 채널 관리자에게 보여주는 통계치인데 보시는 그것처럼 천천히 우상향을 그리며 관심도가 더 올라가고 있습니다. 1년간의 조회수는 약 8.6만 회, 노출은 124만 회 정도가 나오고 있습니다.
  10. 자료를 만들면서 흥미로운 블로그 글이 있었습니다. 저희 영상을 스터디하는 스터디...개인적을 재미있어서 한번 첨부해 보았습니다. 저희 스터디에 대한 소개는 이 정도로 하고, 그럼 뒤에 나오는 발표에서는, 제가 스터디를 만들게 된 계기에 대해 소개해 드리도록 하겠습니다.
  11. 저는 대학원 생활을 하며 주머니 사정이 넉넉치 않았습니다. 그래서 대학교 때 중고등학생 과외를 했던 경험을 살려 딥러닝 분야의 과외를 같이하며 생활했습니다. 지금은 워낙 양질의 무료 교육이나 블로그가 잘되어 있는 것들이 많지만, 그때 당시가 2017년도다 보니 인터넷에서나 외부 자료에서도 아주 기본적인 딥러닝 내용 말고는 딥러닝에 관련된 자료들은 거의 없었습니다. 그래도 틈새시장? 을 파고들어 딥러닝 과외를 하게 되었습니다. 딥러닝 과외의 형태로 진행하게 된 건 제가 창업 또한 같이하고 있던 시점이라 강의를 하거나 2:1 수업을 하게 되면 시간을 맞추기가 어려웠습니다. 그래서 1:1 수업으로 학생 한명 한명과 수업을 진행하게 되었습니다. 운이 좋게 입소문을 잘 타서 과외 플랫폼에서 딥러닝 과외 누적 학생 수 1위를 달성했었습니다. 그런데 저 또한 공부하던 시점이라 딱 석 달까지만 과외를 진행했는데요 사실 그때 당시 제 능력의 한계 이기도 했고, 1:1 수업이다 보니 진도가 잘나가는데 그 이상 수업을 하려면 준비 시간이 너무 많이 들어갔습니다. 그래서 최대 추가 과외 수업이 있어도 12주까지만 진행했었습니다.
  12. 과외를 진행하면서 만나게 된 과외생들의 분포는 매우 다양했습니다. 딥러닝을 뭔가 배워야 할 것 같은 사회 분위기가 잡혀가고 있었기에 이 대세의 흐름을 타고자 배우시는 학생들도 있었고, 또 이 딥러닝으로 사업을 시작해야겠다는 학생 창업가, 예비 창업가분들, 인공지능 대학원이 막 생기는 시점이라 대학원 진학을 희망하는 학생들, 그리고 입학은 해서 졸업논문을 써야 하는데 졸업논문 주제를 딥러닝을 쓰고 싶어 이제야 배우는 학생들, 그리고 은근히 많은 분포를 가져가던 게 변호사나 의사와 같이 각자 자신의 전문 도메인 분야에 딥러닝을 본인이 처음으로 적용하겠다 하시는 분들 등 다양하게 분포되어 있었습니다.
  13. 아무래도 딥러닝을 배우겠다는 사람은 많았지만, 공부를 할 수 있는 루트는 제한적이었습니다. 그래서 수업이 끝난 후에도 계속 수업을 요청해 오시는 분들이 많으셨습니다. 여기 계신 분들도 아시는 것처럼 기본적인 내용들에 대해 공부가 끝났으면 논문을 읽으며 트렌드를 따라가 줘야 합니다. 대부분 이 산에서 몹시 어려워 하시는데요 제 과외생분들도 사정은 비슷했습니다. 하지만 집단지성이라는 말이 있듯, 혼자서가 어렵다면 대학원에서처럼 같이 분석하고 토의하면, 학습의 난도가 많이 내려갔었던 제 개인적인 경험을 살려서, 과외생분들끼리 인연을 맺게 해 스터디를 해볼 것을 제안했습니다. 처음에는 어설펐지만, 제가 중심에서 가이드라인을 드리고 다양한 방법으로 참여를 유도했습니다. 또한 이러한 스터디에 니즈가 있으신 분들이 캐라스 코리아나 텐서플로 코리아에 조금씩 계신 것으로 확인이 되어 다 같이 1기 모집 공고를 올려보았습니다. 꽤 많은 분이 감사하게도 신청을 많이 해주셨고 그렇게 1기를 진행하게 되었습니다.
  14. 처음에는 스터진 진행이 살짝 어설펐습니다. 발표 중간중간 질의응답을 받는 식으로 저희는 진행이 되는데, 그러면서 다양한 시행착오를 거쳤습니다. 예를 들어 자연어 처리팀에서는 기본적으로 트랜스포머 같은 모델은 안다고 가정하고 들어가지만 이미지 처리에만 관심 있으신 분들은 해당 모델이 뭔지 모르시는 경우가 있었습니다. 지금은 대부분이 아시지만 막 유행이 시작하던 때라 그랬습니다. 그래서 어느 정도 레퍼런스 논문들을 앞에서 간략하게 소개하고 가는 걸 발표 앞부분에 포함한다든지, 논문이 궁극적으로 하고자 하는 것들을 앞에서 설명을 먼저 하고 들어간다든지 하는 부분들이 추가되었습니다. 이렇게 레퍼런스 논문까지 설명을 추가가 가능한 게 팀별로 해서 좀 가능했던 것 같습니다. 또한 거의 한 달을 텀으로 순서가 돌아오다 보니 준비시간 또한 넉넉했던 것도 큰 이유 중 하나였습니다. 그렇게 퀄리티가 올라가니 한번 우리도 유튜브에 올려서 우리가 스터디하는 걸 공개하자는 의견이 나오게 되었습니다. 약간 부담스럽다는 의견이 있었지만, 오히려 부담스럽기 때문에 우리가 더 열심히 하지 않을까? 라는 긍정적인 의견도 압도적으로 나오기 시작했고요 결과는 매우 좋은 방향으로 흘러가게 되었습니다.
  15. 또한 팀 내에서도 논문만 읽는 것으로는 만족스럽지 않다는 의견이 나왔었습니다. 그래서 한번 코드도 파헤쳐보자, 그리고 논문을 직접 구현까지 해보자는 의견도 나왔지만 이것을 메인으로 하기에는 논.문.읽.기 모임이라는 취지와는 맞지 않는 것 같아서 희망자들만 화면에 보이시는 것처럼 아직 텐서플로나 케라스로 구현이 안 된, Transformer 계열 논문들만 찾아서 직접 구현해보는 스터디 내의 사이드 스터디 또한 진행했었습니다 이를 통해서 논문에서는 매우 복잡하고 어렵게 써놨지만 사실 레퍼런스 논문에서 아주 수정했던 것이거나, 그다지 어려운 내용이 아니었다고 토의 하기도 했습니다. 앞선 과정들을 통해, 스터디 진행 과정에서 논문 읽기에 자신감을 얻었고, 긍정적인 효과가 나타나기 시작했습니다.
  16. 유튜브에만 올려도 천천히 구독자나 관심도는 증가하고 있었지만, 채널의 성장 속도는 더뎠습니다. 그래서 채널의 성장속도를 늘리기 위해, 딥러닝을 공부하는 사람들이 많이 모이는 케라스 커뮤니티나 텐서플로 커뮤니티에 본 채널의 영상들이 업로드되면 간략하게 논문에 대한 소개를 쓰고, 관심이 더 깊게 논문을 리뷰해 보고 싶다면 채널로 방문하라는 식으로 글을 올렸습니다. 당시 소개를 보고 내 분야가 아니네 하는 분들은 지나치셨겠지만, 본인의 연구 분야인 논문은 많이 찾아와 주셨던것 같습니다. 그래서 꾸준하게 논문 소개와 영상 소개 글을 지금도 올리고 있습니다. 현재는, 오래된 포스트들은 페이스북 특성상 찾기가 어렵지만, 제가 파악 한 것만 해도 좋아요 1만 개 이상, 공유 1.5만 회 이상을 기록하였습니다.
  17. 가장 뿌듯한 건 저희 채널이 커지는 것뿐만 아니라 사람들에게 실제로 긍정적인 반응이 오고 있다는 것이었습니다. 좌측 상단에 있는 그림에서 볼 수 있듯이, 텐서플로 관리자님의 반응처럼 저희 채널뿐만 아니라 커뮤니티에도 긍정적인 영향을 끼치고 있는 것과 사람들이 진짜 궁금해했던 부분들을 알려주는 부분, 그리고 어떤 분은 리뷰하려고 북마크만 하셨었는데 다시 생각나게 해서 리뷰영상을 보시는 부분, 실제 관심 있는 분야를 올려서 식견을 넓혀 드린 부분, 또한 대형 블로그를 운영하시는 분이 포스트에 레퍼런스용으로 저희 영상을 사용하신다는 부분 그리고 대학 교수님이 자신과 비슷한 분석을 하는 논문을 찾아 기쁘다는 분들 등 긍정적인 영향을 끼치고 있다는 사실에 저는 너무나도 기뻤습니다.
  18. 이로써 저희 모임은 더 큰 꿈을 꾸게 되었습니다. 그것은, 단순히 저희의 실력 향상만을 위한 인공지능이 아닌 바로 ‘모두를 위한 인공지능’ 이었습니다. 해당 파트도 연대기 느낌으로 준비해보았습니다.
  19. 여기서 잠시, 유튜브 채널을 하면 돈이 많이 벌릴 텐데 라는 생각을 하고 계신 분들이 간혹가다 있긴 합니다. 스터디로 진행하지만 채널을 가지고 있는 제가 유튜브 수익을 다 가지고 가는 거 아니냐? 라고 하실 수 있겠지만...사실 외부에는 처음으로 공개하는 것인데요. 결론부터 말씀드리면 그렇지 않습니다. 유튜브 영상 수익은 한 달에 대략 2만 원 안 밖이고 이것도 당연히 쌓이면 큰돈이지만...스터디원들은 저 포함해서 대부분 본업이 있습니다. 그래서 자막을 쓰거나 편집에 시간이 많이 들어가 아르바이트 편집자를 고용해서 쓰고 있습니다. 한 편당 6만 원 정도고 한 달에 대략 7~8편의 자막을 써주셔서 4~50만 원이라는 돈이 매달 나가고 이건 모두 제 사비로 나가고 있습니다. 그래서 사실 수익은 유튜브 채널이 리니어 하게 계산해보면 2~30배 이상 커져야 편집자의 월급을 겨우 줄 수 있는 수준이 됩니다 그럼 여기서 궁금하신 점이 있으실 텐데요 그럼 저는 왜 이 모임을 운영하려고 하는지에 대한 부분입니다.
  20. 저는 운영과 가이드, 편집을 담당하는데요. 일요일 밤 10시에 고정적으로 스터디가 항상 진행되다 보니 저는 무조건 꼭 참석할 수 밖에 없는 입장입니다. 그래서 저는 200편 가까이 논문을 리뷰하는 동안 모든 스터디 방에 참여 및 논문을 리뷰 라이브를 집중해서 들을 수밖에 없습니다. 돌이켜보면, 제게 있어 이것은 엄청나게 큰 자산이 되었습니다. 사실 이것만으로도 저는 앞서 내는 편집 비용이 아깝지 않을 정도로 소중한 지식 자산을 얻게 되었습니다.
  21. 두 번째로는 저희 모임에 대해 큰 지지를 보내주시는 보람 및 뿌듯함입니다. 현재 보이는 ppt 화면은 저희 모임을 구글링했을 때 나오는 결과입니다. 새로운 기수가 생길 때 많은 블로그에서 관심을 가지고, 또 공부한 내용을 기록하시는 딥러닝 뉴비님이 계속해서 저희 모임에서 나오는 논문검토를 정리해 주시고 또 많은 블로그에서 저희 딥러닝 모임 채널을 공부하면서 꼭 해야할 길라잡이 중 하나로 꼽으시며 지지해주셔서 저는 더더욱 이 모임을 포기하지 않고, 유지해야 할 이유가 생겼습니다.
  22. 저뿐만 아니라 스터디원들도 이제는 저희 모임에 소속되어 있는 큰 소속감을 느끼고 계시는데요. 사실 여러분들도 대학교 때 스터디를 한 번쯤은 해보시면서 아시겠지만 불성실한 스터디원 한두 분이라도 생기신다면 스터디 전체 분위기가 한 순간에 무너지며 흩어지는 경험을 해보셨을 것입니다. 저는 이런 경험을 살려 최대한 저희 스터디원들에게 우리 스터디에 들어가 있는 것만으로도 좋은 회사나 좋은 학교에 다니고 있다는 자부심처럼 큰 소속감을 주도록 노력했습니다. 실제로 이직하시거나 자소서에서 대외 활동에서 저희 스터디 모임에 소속되어 있는 것으로 큰 관심을 가지는 회사들이 생겨나고 그 결과 저희 모임에 관심을 가지고 계신 출판사 관계자분들이나 한컴, 패캠 등 큰 교육 업체에서 저희 스터디원들을 찾으시는 분들도 계시는 등, 이로써 스터디 활동 및 이력이 의미 없는 스펙들이 아닌, 스터디원분들의 인생에 실제로 엄청나게 큰 스펙처럼 활용하시는 분들도 계시게 됩니다. 그렇게 함으로써 또 발표 준비나 스터디를 열심히 참여하시는 효과까지 같이 있어 스터디와 스터디원들 모두에게 선순환적인 구조가 되었습니다.
  23. 앞서서 설명해 드렸던 것처럼 케라스 코리아나 텐서플로우 코리아와 같은 대형 커뮤니티에서 또 많은 관심과 지지를 보내주시며 다른 제 3자에게도 긍정적인 영향을 주고 있습니다.
  24. 감사하게도 대외적으로 찾아 주시는 분들이 많이 생기게 되면서, 저는 모두를 위한 인공지능이라는 비전을 가지고, 회사를 차릴 당시, 딥러닝 논문읽기 모임의 자연어 처리팀 팀 리더였던 최재규 님과 함께, 콥스랩이라는 회사를 시작하게 되었습니다.
  25. 콥스랩은 이제 다다음 달이면 만 2년이 되는 작은 스타트업 입니다. 저희는, 인공지능을 적용하는 부분에 어려움이 있는 회사에 컨설팅 및 직접 모델링을 해드리는 일을 수행하고 있습니다. 최종적으로는 huggingface와 같이 거대 딥러닝 API를 만드는 게 꿈입니다. 이런 여정에서 간접적으로 뿐만 아닌 직접적으로 '딥러닝 논문읽기 모임’의 역할이 매우 크게 다가왔습니다. 저희가 수행했던 하나의 프로젝트를 예시로 들자면, 좌측하단에 있는 기업에서 프로젝트를 의뢰 받았는데 수학 문제 추천 시스템을 구축하는 일 이였습니다. 보안상 어떤 기술을 사용했는지에 대해서는 말씀드릴 수는 없다는 것을 양해 부탁드립니다.
  26. 사실 수학 문제 추천시스템이라는 분야의 논문은 없습니다. 하지만 저희가 해당 프로젝트를 의뢰받는 순간에 어떤 논문들을 참고해서 복합적으로 만들면 되겠구나가 바로 빌딩이 되었습니다. 그래서 화면에 보시는 것처럼, 추천 시스템에서 가장 유명한 논문들, 그리고 자연어 처리 및 수학 문제 인코딩에 관련된 논문, 또 수학 문제 특성상 도표 및 그래프, 도형이 많이 나오니 이미지 처리에 관련된 논문들이 리서치 시간에 크게 영향받지 않고 양질의 논문들을 바로 빌딩할수 있게 되었습니다. 이런 일이 가능했던 가장 큰 이유는 저희 모임이 딥러닝의 어떤 특정 분야의 파트만 공부하는 것이 아니라 세 팀으로 나누어져 다양한 분야의 논문들을 한 번에 받을 수 있기 때문이지 않았을까 라는 생각이 들게 되었습니다.
  27. 유튜브 영상의 가장 큰 단점은 바로 절대적인 시간이 소요되는 점입니다. 이 부분 때문에 접근성에 한계를 느끼시는 분들이 계셔서 올해 여름부터 회사 홈페이지에 모두를 위한 인공지능이라는 비전을 더욱 실천하기 위해, 영상에 올린 내용들을 블로그 글로 정리해서 업로드하고 있습니다. 아마 이 존재는 모르시는 분들이 계셨을 것 같은데요. 목표는 두 달 안에 딥러닝 논문 읽기 모임에 올라온 모든 영상을 모두 글로 정리해 더욱 높은 접근성을 가지도록 하는 것이 목표입니다.
  28. 마지막으로 교육 파트입니다. 콥스랩은 기술 개발뿐만 아니라 교육에도 많은 관심이 있습니다. 강사로는 저를 포함해서 저희 스터디원들이 강의를 나가고 있고 딥러닝 전 분야에 걸쳐 자연어 처리팀과 이미지 처리팀 현직 연구와 개발을 하는 실력자분들이 직접 강의를 진행하고 있습니다. 또한 슬라이드에서 보시는 것처럼 많은 포트폴리오가 쌓여 양질의 교육자료를 바탕으로 이렇게 모두를 위한 인공지능을 목표로 교육을 진행하고 있습니다. 마지막으로 이렇게 멋진 모임 4기가 12월에 종료가 됨과 동시에 5기 모집을 진행할 예정입니다. 저희 모임을 팔로우해 주시면 아마 11월 말에 5기 모집 공고가 나갈 것 같습니다. 이렇게 다양한 인공지능 생태계에 조금이나마 기여를 하고 있는 저희 모임에 많은 관심과 참여해 주시면 좋을 것 같습니다. 선지원 후 고민입니다!
  29. 앞으로도 저희 모임에 많은 관심 부탁드립니다 좋은 기회를 주신 SSDC, 케라스코리아 관계자분들께 감사드리며 그럼 발표를 들어주셔서 감사합니다!