jwkanggist / TensorFlow-1

Deep Learning Zero to All - Tensorflow

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

모두를 위한 딥러닝 시즌2 : 모두가 만드는 모두를 위한 딥러닝

Sung Kim 교수님의 모두를 위한 딥러닝이 돌아왔습니다!

이 강의는 2016년 Sung Kim 교수님이 만드신 '모두를 위한 딥러닝(https://hunkim.github.io/ml/)' 의 개정판이자 후속작입니다.

"알파고와 이세돌의 경기를 보면서 이제 머신 러닝이 인간이 잘 한다고 여겨진 직관과 의사 결정능력에서도 충분한 데이타가 있으면 어느정도 또는 우리보다 더 잘할수도 있다는 생각을 많이 하게 되었습니다. Andrew Ng 교수님이 말씀하신것 처럼 이런 시대에 머신 러닝을 잘 이해하고 잘 다룰수 있다면 그야말로 'Super Power'를 가지게 되는 것이 아닌가 생각합니다.

더 많은 분들이 머신 러닝과 딥러닝에 대해 더 이해하고 본인들의 문제를 이 멋진 도구를 이용해서 풀수 있게 하기위해 비디오 강의를 준비하였습니다. 더 나아가 이론에만 그치지 않고 머신러닝을 위한 오픈소스인 구글이 공개한 TensorFlow와 페이스북이 공개한 Pytorch를 이용해서 이론을 구현해 볼수 있도록 하였습니다.

수학이나 컴퓨터 공학적인 지식이 없이도 쉽게 볼수 있도록 만들려고 노력하였습니다."

-홍콩과기대 컴퓨터공학 교수 김성훈(Sung Kim)

TensorFlow

Deep Learning Zero to All - TensorFlow

여기는 TensorFlow 버전 Github 문서입니다.

현재는 Tensorflow 1.12(stable)를 기반으로 작성했으며 Tensorflow 2.0이 출시되는 대로 추후 반영할 예정입니다.

Install Requirements

pip install -r requirements.txt

Contributions/Comments

언제나 여러분들의 참여를 환영합니다. Comments나 Pull requests를 남겨주세요

We always welcome your comments and pull requests.


목차

  • Lab 01: TensorFlow의 설치및 기본적인 operations
  • Lec 02: Linear Regression의 Hypothesis 와 cost 설명
  • Lab 02: TensorFlow로 간단한 linear regression을 구현
  • Lec 03: Linear Regression의 cost 최소화 알고리즘의 원리 설명
  • Lab 03: Linear Regression 의 cost 최소화의 TensorFlow 구현
  • Lec 04: multi-variable linear regression
  • Lab 04-1: multi-variable linear regression을 TensorFlow에서 구현하기
  • Lab 04-2: TensorFlow로 파일에서 데이타 읽어오기
  • Lec 5-1: Logistic Classification의 가설 함수 정의
  • Lec 5-2: Logistic Regression의 cost 함수 설명
  • Lab 05: TensorFlow로 Logistic Classification의 구현하기
  • Lec 6-1: Softmax Regression: 기본 개념 소개
  • Lec 6-2: Softmax classifier 의 cost함수
  • Lab 06-1: TensorFlow로 Softmax Classification의 구현하기
  • Lab 06-2: TensorFlow로 Fancy Softmax Classification의 구현하기
  • Lec 07-1: 학습 rate, Overfitting, 그리고 일반화 (Regularization)
  • Lec 07-2: Training/Testing 데이타 셋
  • Lab 07-1: training/test dataset, learning rate, normalization
  • Lab 07-2: Meet MNIST Dataset
  • Lec 08-1: 딥러닝의 기본 개념: 시작과 XOR 문제
  • Lec 08-2: 딥러닝의 기본 개념2: Back-propagation 과 2006/2007 '딥'의 출현
  • Lab 08: Tensor Manipulation
  • Lec 9-1: XOR 문제 딥러닝으로 풀기
  • Lec 9-x: 특별편: 10분안에 미분 정리하기 (lec9-2 이전에 보세요)
  • Lec 9-2: 딥넷트웍 학습 시키기 (backpropagation)
  • Lab 09-1: Neural Net for XOR
  • Lab 09-2: Tensorboard (Neural Net for XOR)
  • Lec 10-1: Sigmoid 보다 ReLU가 더 좋아
  • Lec 10-2: Weight 초기화 잘해보자
  • Lec 10-3: Dropout 과 앙상블
  • Lec 10-4: 레고처럼 넷트웍 모듈을 마음껏 쌓아 보자
  • Lab 10: NN, ReLu, Xavier, Dropout, and Adam
  • Lec 11-1: ConvNet의 Conv 레이어 만들기
  • Lec 11-2: ConvNet Max pooling 과 Full Network
  • Lec 11-3: ConvNet의 활용예
  • Lab 11-1: TensorFlow CNN Basics
  • Lab 11-2: MNIST 99% with CNN
  • Lab 11-3: CNN Class, Layers, Ensemble
  • Lec 12: NN의 꽃 RNN 이야기
  • Lab 12-0: RNN - Basics
  • Lab 12-1: many to one (word sentiment classification)
  • Lab 12-2: many to one stacked (sentence classification, stacked)
  • Lab 12-3: many to many fixed (hihello traning)
  • Lab 12-4: many to many variable (simple pos-tagger training)
  • Lab 12-5: many to many variable bi-directional (simpled po-s-tagger training, bi-directional)
  • Lab 12-6: seq to seq (simple neural machine translation)
  • Lab 12-7: seq to seq with attention (simple neural machine translation, attention)

함께 만든 이들

Main Instructor

Main Creator

Docker Developer

Support

  • 네이버 커넥트재단 : 이효은, 장지수, 임우담

About

Deep Learning Zero to All - Tensorflow


Languages

Language:Jupyter Notebook 92.8%Language:Python 6.6%Language:Dockerfile 0.6%