본문 바로가기

취업준비/인공지능

[AI Tech] 5주차 20-2차시 Historical Review

20-2. Historical Review

Deep Learning's Most Important Ideas - A Brief Historical Review

- Denny Britz 2020-07-29

2012

AlexNet

CNN이고 224*224 이미지 파일을 분류하는 대회에서 우승했다.

AlexNet

약간의 패러다임 변화가 일어난 것이다. (기존에는 고전적인 모델들을 사용했다.)

 

2013

DQN

DQN

방법론 자체는 Q-learning에 딥러닝을 접목한 방법이다.

 

2014

Encoder / Decoder

Encoder / Decoder

이 방법은 NMT(Neural Machine Translation) 문제를 풀기 위해 개발되었다.

다른 언어로 되어 있는 문장을 우리가 번역하고 싶은 언어로 자연스럽게 변화시켜 주는 것

영어 단어의 sequence를 만들어주는 모델이다.

기계어 번역의 근간이다.

Adam Optimizer

Adam

Adam을 그냥 쓰는 경우가 많은데, 이것은 Adam의 결과가 좋기 때문이다.

일반적으로 Deep Learning Model을 만들 때 파라미터를 정하게 되고, 잘 설정해야 성능이 좋아진다.

2015

Generative Adversarial Network(GAN)

네트워크가 Generator와 Discriminator 2개를 만들어 학습시키는 것이다.

GAN

"술 마시는게 연구에 도움이 된다."

Residual Networks

우리가 현재 부르는 딥러닝이라고 불리게 된 계기이다.

ResNet

2017

Transformer

Transformer

Attention이라고도 한다. 현재는 Transformer가 차지하는 비중이 매우 커졌다.

2018

BERT(fine-tuned NLP models)

BERT

NLP: 자연어 처리 연산

2019

BIG Language Models

BIG Language Models

2020

Self Supervised Learning

이미지 분류와 같은 분류 문제를 풀고 싶은데, 학습 데이터가 한정적이고 라벨을 모르는 데이터를 활용할 때

SimCLR

추가로 데이터를 만들어 내서 데이터 량을 증가시키고자 할 때 유리하다.(전문지식이 많은 경우)

 

 

 

 

© NAVER Connect Foundation. All Rights Reserved