Dự án dịch sách "Dive into Deep Learning"
- Bản tiếng Việt: https://d2l.aivivn.com/
- Bản tiếng Anh: https://www.d2l.ai/
Mời bạn xem hướng dẫn chi tiết tại đây.
Hiện nay chúng tôi có hai kênh trao đổi chính mà bạn có thể lựa chọn:
- Github Discussions - dành cho những thảo luận về thuật ngữ, ngôn ngữ trong dịch thuật, và các vấn đề hỏi đáp liên quan trong khuôn khổ các nội dung mà dự án triển khai. Bạn có thể xem qua tại đây.
- Slack - dành cho những cuộc hội thoại nhanh (quick chat), bạn có thể đăng ký tại đây.
Tra cứu các thuật ngữ được sử dụng trong nhóm dịch tại đây.
- Lời nói đầu
- Cài đặt
- Ký hiệu
- 1. Giới thiệu
- 2. Sơ bộ
- 2.1. Thao tác với Dữ liệu
- 2.2. Tiền Xử lý Dữ liệu
- 2.3. Đại số Tuyến tính
- 2.4. Giải tích
- 2.5. Tính vi phân Tự động
- 2.6. Xác suất
- 2.7. Tài liệu
- 3. Mạng nơ-ron Tuyến tính
- 4. Perceptron Đa tầng
- 4.1. Perceptron Đa tầng
- 4.2. Lập trình Perceptron Đa tầng từ đầu
- 4.3. Cách lập trình Súc tích Perceptron Đa tầng
- 4.4. Lựa chọn Mô hình, Dưới khớp và Quá khớp
- 4.5. Suy giảm Trọng số
- 4.6. Dropout
- 4.7. Lan truyền Xuôi, Lan truyền Ngược và Đồ thị Tính toán
- 4.8. Sự ổn định Số học và Sự khởi tạo
- 4.9. Cân nhắc tới Môi trường
- 4.10. Dự đoán Giá Nhà trên Kaggle
- 5. Tính toán Học sâu
- 5.1. Tầng và Khối
- 5.2. Quản lý Tham số
- 5.3. Khởi tạo trễ
- 5.4. Các tầng Tuỳ chỉnh
- 5.5. Đọc/Ghi tệp
- 5.6. GPU
- 6. Mạng nơ-ron Tích chập
- 6.1. Từ Tầng dày đặc đến Phép Tích chập
- 6.2. Phép tích chập cho Ảnh
- 6.3. Đệm và Sải bước
- 6.4. Đa kênh Đầu vào và ra
- 6.5. Gộp
- 6.6. Mạng Nơ-ron Tích chập (LeNet)
- 7. Mạng nơ-ron Tích chập Hiện đại
- 8. Mạng nơ-ron Hồi tiếp
- 9. Mạng Hồi tiếp Hiện đại
- 9.1. Nút Hồi tiếp có Cổng (GRU)
- 9.2. Bộ nhớ Ngắn hạn Dài (LSTM)
- 9.3. Mạng nơ-ron Hồi tiếp sâu
- 9.4. Mạng Nơ-ron Hồi tiếp Hai chiều
- 9.5. Dịch Máy và Tập dữ liệu
- 9.6. Kiến trúc Mã hóa - Giải mã
- 9.7. Chuỗi sang Chuỗi
- 9.8. Tìm kiếm Chùm
- 10. Cơ chế Tập trung
- 10.1. Cơ chế Tập trung
- 10.2. Chuỗi sang Chuỗi áp dụng Cơ chế Tập trung
- 10.3. Kiến trúc Transformer
- 11. Thuật toán Tối ưu
- 11.1. Tối ưu và Học sâu
- 11.2. Tính lồi
- 11.3. Hạ Gradient
- 11.4. Hạ Gradient Ngẫu nhiên
- 11.5. Hạ Gradient Ngẫu nhiên theo Minibatch
- 11.6. Động lượng
- 11.7. Adagrad
- 11.8. RMSProp
- 11.9. Adadelta
- 11.10. Adam
- 11.11. Định thời Tốc độ Học
- 12. Hiệu năng Tính toán
- 12.1. Trình biên dịch và Trình thông dịch
- 12.2. Tính toán Bất đồng bộ
- 12.3. Song song hóa Tự động
- 12.4. Phần cứng
- 12.5. Huấn luyện đa GPU
- 12.6. Cách lập trình Súc tích đa GPU
- 12.7. Tham số Máy chủ
- 13. Thị giác Máy tính
- 13.1. Tăng cường Ảnh
- 13.2. Tinh chỉnh
- 13.3. Phát hiện Vật thể và Khoanh vùng Đối tượng (Khung chứa)
- 13.4. Khung neo
- 13.5. Phát hiện Vật thể Đa tỉ lệ
- 13.6. Tập dữ liệu Phát hiện Đối tượng
- 13.7. Phát hiện Nhiều khung trong Một lần Thực hiện (SSD)
- 13.8. CNN theo Vùng (R-CNNs)
- 13.9. Phân vùng theo Ngữ nghĩa và Tập dữ liệu
- 13.10. Tích chập Chuyển vị
- 13.11. Mạng Tích chập Đầy đủ (FCN)
- 13.12. Truyền tải Phong cách Nơ-ron
- 13.13. Phân loại Ảnh (CIFAR-10) trên Kaggle
- 13.14. Nhận diện Giống Chó (ImageNet Dogs) trên Kaggle
- [-] 14. Xử lý Ngôn ngữ Tự nhiên: Tiền Huấn luyện
- 14.1. Embedding Từ (word2vec)
- 14.2. Huấn luyện gần đúng
- 14.3. Dữ liệu cho Tiền Huấn luyện Embbeding Từ
- 14.4. Tiền huấn luyện word2vec
- 14.5. Embedding từ với Vector Toàn cục (GloVe)
- 14.6. Embedding từ con
- 14.7. Tìm kiếm các từ Đồng nghĩa và các Loại suy
- 14.8. Biểu diễn Mã hoá hai chiều từ Transformer (BERT)
- 14.9. Tập dữ liệu để tiền huấn luyện BERT
- 14.10. Tiền Huấn luyện BERT
- 15. Xử lý Ngôn ngữ Tự nhiên: Ứng dụng
- 15.1. Tác vụ Phân tích Cảm xúc và Bộ Dữ liệu
- 15.2. Phân tích Cảm xúc: Sử dụng Mạng Nơ-ron Hồi tiếp
- [-] 15.3. Phân tích Cảm xúc: Sử dụng Mạng Nơ-ron Tích Chập
- [-] 15.4. Natural Language Inference and the Dataset
- [-] 15.5. Natural Language Inference: Using Attention
- [-] 15.6. Fine-Tuning BERT for Sequence-Level and Token-Level Applications
- [-] 15.7. Natural Language Inference: Fine-Tuning BERT
- 16. Hệ thống Gợi ý
- [-] 16.1. Overview of Recommender Systems
- [-] 16.2. The MovieLens Dataset
- [-] 16.3. Matrix Factorization
- [-] 16.4. AutoRec: Rating Prediction with Autoencoders
- [-] 16.5. Personalized Ranking for Recommender Systems
- [-] 16.6. Neural Collaborative Filtering for Personalized Ranking
- [-] 16.7. Sequence-Aware Recommender Systems
- [-] 16.8. Feature-Rich Recommender Systems
- [-] 16.9. Factorization Machines
- [-] 16.10. Deep Factorization Machines
- 17. Generative Adversarial Networks
- [-] 17.1. Generative Adversarial Networks
- [-] 17.2. Deep Convolutional Generative Adversarial Networks
- 18. Phụ lục: Toán học cho Học Sâu
- 18.1. Các phép toán Hình học và Đại số Tuyến tính
- 18.2. Eigendecompositions
- 18.3. Giải tích một biến
- 18.4. Multivariable Calculus
- 18.5. Integral Calculus
- 18.6. Random Variables
- 18.7. Maximum Likelihood
- 18.8. Distributions
- 18.9. Naive Bayes
- 18.10. Thống kê
- 18.11. Information Theory
- 19. Phụ lục: Công cụ cho Học Sâu
- 19.1. Sử dụng Jupyter
- 19.2. Sử dụng Amazon SageMaker
- 19.3. Sử dụng AWS EC2 Instances
- 19.4. Sử dụng Google Colab
- 19.5. Lựa chọn Máy chủ & GPU
- 19.6. Đóng góp cho Quyển sách
- 19.7. Tài liệu API của d2l
Cuốn sách này được cung cấp dưới giấy phép Creative Commons Attribution-ShareAlike 4.0 International Public. Mã nguồn mẫu và nội dung tham chiếu trong cuốn sách này được cung cấp theo MIT License với nội dung đã có sự cập nhật.