Dự án dịch sách "Dive into Deep Learning"
Cuốn sách này được dịch và đăng tại https://d2l.aivivn.com/.
Đăng ký tham gia tại đây để trao đổi và hỏi đáp về các vấn đề liên quan.
Tra cứu các thuật ngữ được sử dụng trong nhóm dịch tại glossary.md.
Với các mục con (2.1, 2.2, ...)
- Đã dịch xong
- [-] Đang dịch
- Chưa bắt đầu
Với các chương (2., 3., ...)
- Chưa revise
- [-] Đang revise
- Đã revise xong.
- Lời nói đầu
- Cài đặt
- Ký hiệu
- 1. Giới thiệu
- 2. Sơ bộ
- 2.1. Thao tác với Dữ liệu
- 2.2. Tiền Xử lý Dữ liệu
- 2.3. Đại số Tuyến tính
- 2.4. Giải tích
- 2.5. Tính vi phân Tự động
- 2.6. Xác suất
- 2.7. Tài liệu
- 3. Mạng nơ-ron Tuyến tính
- 4. Perceptron Đa tầng
- 4.1. Perceptron Đa tầng
- 4.2. Lập trình Perceptron Đa tầng từ đầu
- 4.3. Cách lập trình súc tích Perceptron Đa tầng
- 4.4. Lựa chọn Mô hình, Dưới khớp và Quá khớp
- 4.5. Suy giảm Trọng số
- 4.6. Dropout
- 4.7. Lan truyền Xuôi, Lan truyền Ngược và Đồ thị Tính toán
- 4.8. Sự ổn định Số học và Sự khởi tạo
- 4.9. Cân nhắc tới Môi trường
- 4.10. Dự đoán Giá Nhà trên Kaggle
- 5. Tính toán Học sâu
- 5.1. Tầng và Khối
- 5.2. Quản lý Tham số
- 5.3. Khởi tạo trễ
- 5.4. Các tầng Tuỳ chỉnh
- 5.5. Đọc/Ghi tệp
- 5.6. GPU
- 6. Mạng nơ-ron Tích chập
- 6.1. Từ Tầng dày đặc đến Phép Tích chập
- 6.2. Phép tích chập cho Ảnh
- 6.3. Đệm và Sải bước
- 6.4. Đa kênh Đầu vào và ra
- 6.5. Gộp
- 6.6. Mạng Nơ-ron Tích chập (LeNet)
- 7. Mạng nơ-ron Tích chập Hiện đại
- 8. Mạng nơ-ron Truy hồi
- 8.1. Sequence Models
- 8.2. Text Preprocessing
- [-] 8.3. Language Models and the Dataset
- [-] 8.4. Mạng nơ-ron Truy hồi
- [-] 8.5. Lập trình Mạng nơ-ron Truy hồi từ đầu
- [-] 8.6. Cách lập trình súc tích Mạng nơ-ron Truy hồi
- [-] 8.7. Backpropagation Through Time
- 9. Mạng Truy hồi Hiện đại
- [-] 9.1. Gated Recurrent Units (GRU)
- [-] 9.2. Long Short Term Memory (LSTM)
- [-] 9.3. Deep Recurrent Neural Networks
- [-] 9.4. Bidirectional Recurrent Neural Networks
- [-] 9.5. Machine Translation and the Dataset
- 9.6. Encoder-Decoder Architecture
- 9.7. Sequence to Sequence
- 9.8. Beam Search
- 10. Cơ chế Tập trung
- 10.1. Attention Mechanisms
- 10.2. Sequence to Sequence with Attention Mechanisms
- 10.3. Transformer
- 11. Thuật toán Tối ưu
- 11.1. Optimization and Deep Learning
- 11.2. Convexity
- 11.3. Gradient Descent
- 11.4. Stochastic Gradient Descent
- 11.5. Minibatch Stochastic Gradient Descent
- 11.6. Momentum
- 11.6. Adagrad
- 11.8. RMSProp
- 11.9. Adadelta
- 11.10. Adam
- 11.11. Learning Rate Scheduling
- 12. Hiệu năng Tính toán
- 12.1. Compilers and Interpreters
- 12.2. Asynchronous Computation
- 12.3. Automatic Parallelism
- 12.4. Hardware
- 12.5. Training on Multiple GPUs
- 12.6. Concise Implementation for Multiple GPUs
- 12.6. Parameter Servers
- 13. Thị giác Máy tính
- 13.1. Image Augmentation
- 13.2. Fine Tuning
- 13.3. Object Detection and Bounding Boxes
- 13.4. Anchor Boxes
- 13.5. Multiscale Object Detection
- 13.6. The Object Detection Dataset
- 13.7. Single Shot Multibox Detection (SSD)
- 13.8. Region-based CNNs (R-CNNs)
- 13.9. Semantic Segmentation and the Dataset
- 13.10. Transposed Convolution
- 13.11. Fully Convolutional Networks (FCN)
- 13.12. Neural Style Transfer
- 13.13. Image Classification (CIFAR-10) on Kaggle
- 13.14. Dog Breed Identification (ImageNet Dogs) on Kaggle
- 14. Xử lý Ngôn ngữ Tự nhiên: Tiền Huấn luyện
- 14.1. Word Embedding (word2vec)
- 14.2. Approximate Training
- 14.3. The Dataset for Pretraining Word Embedding
- 14.4. Pretraining word2vec
- 14.5. Word Embedding with Global Vectors (GloVe)
- 14.6. Subword Embedding
- 14.7. Finding Synonyms and Analogies
- 14.8. Bidirectional Encoder Representations from Transformers (BERT)
- 14.9. The Dataset for Pretraining BERT
- 14.10. Pretraining BERT
- 15. Xử lý Ngôn ngữ Tự nhiên: Ứng dụng
- 15.1. Sentiment Analysis and the Dataset
- 15.2. Sentiment Analysis: Using Recurrent Neural Networks
- 15.3. Sentiment Analysis: Using Convolutional Neural Networks
- 15.4. Natural Language Inference and the Dataset
- 15.5. Natural Language Inference: Using Attention
- 15.6. Fine-Tuning BERT for Sequence-Level and Token-Level Applications
- 15.7. Natural Language Inference: Fine-Tuning BERT
- 16. Hệ thống Gợi ý
- 16.1. Overview of Recommender Systems
- 16.2. The MovieLens Dataset
- 16.3. Matrix Factorization
- 16.4. AutoRec: Rating Prediction with Autoencoders
- 16.5. Personalized Ranking for Recommender Systems
- 16.6. Neural Collaborative Filtering for Personalized Ranking
- 16.7. Sequence-Aware Recommender Systems
- 16.8. Feature-Rich Recommender Systems
- 16.9. Factorization Machines
- 16.10. Deep Factorization Machines
- 17. Generative Adversarial Networks
- 18. Phụ lục: Toán học cho Học Sâu
- 18.1. Các phép toán Hình học và Đại số Tuyến tính
- 18.2. Eigendecompositions
- 18.3. Giải tích một biến
- 18.4. Multivariable Calculus
- 18.5. Integral Calculus
- 18.6. Random Variables
- 18.7. Maximum Likelihood
- 18.8. Distributions
- 18.9. Naive Bayes
- 18.10. Thống kê
- 18.11. Information Theory
- 19. Phụ lục: Công cụ cho Học Sâu
- 19.1. Sử dụng Jupyter
- 19.2. Sử dụng Amazon SageMaker
- 19.3. Sử dụng AWS EC2 Instances
- 19.4. Sử dụng Google Colab
- 19.5. Lựa chọn Máy chủ & GPU
- 19.6. Đóng góp cho Quyển sách
- 19.7. Tài liệu API của d2l