
Lớp tích chập - Convolution Layer

Khái niệm về tích chập Bạn có thể xem thêm tại đây.
Lớp gộp - Pooling Layer
Pooling là phép toán downsampling (giảm mẫu) áp dụng trên từng kênh đặc trưng (feature map) đầu vào, thông qua việc trích xuất giá trị đại diện từ các vùng cục bộ. Khác với lớp tích chập, pooling không chứa tham số học được và thực hiện phép toán cố định.
Lớp pooling (gộp) là thành phần không thể thiếu trong kiến trúc mạng neural tích chập (CNN), đóng vai trò quan trọng trong việc giảm kích thước dữ liệu và tăng tính bất biến không gian cho mô hình.

Các Phương Pháp Pooling Chính
Max Pooling
- Cơ chế: Chọn giá trị lớn nhất trong mỗi vùng pooling.
- Ưu điểm: Hiệu quả trong việc giữ lại đặc trưng nổi bật (ví dụ: cạnh, góc).
Average Pooling
- Cơ chế: Lấy trung bình các giá trị trong vùng pooling.
- Ứng dụng: Phù hợp cho bài toán yêu cầu làm mịn đặc trưng (ví dụ: phân đoạn ảnh y tế).
Global Pooling
- Biến thể:Global Max Pooling (GMP): Lấy max toàn bộ feature map.Global Average Pooling (GAP): Tính trung bình toàn bộ feature map.
- Global Max Pooling (GMP): Lấy max toàn bộ feature map.
- Global Average Pooling (GAP): Tính trung bình toàn bộ feature map.
- Ứng dụng: Thay thế lớp fully connected trong các mô hình hiện đại.

Lớp kích hoạt - Activation layer
Lớp kích hoạt (Activation Layer) là thành phần không thể thiếu trong kiến trúc mạng nơ-ron tích chập (CNN), đóng vai trò quyết định trong việc chuyển đổi tín hiệu tuyến tính thành phi tuyến, giúp mô hình học được các mẫu phức tạp từ dữ liệu.

Lớp kích hoạt là một phép toán áp dụng hàm phi tuyến (non-linear function) lên đầu ra của các lớp tích chập (Convolutional Layer) hoặc lớp kết nối đầy đủ (Fully Connected Layer). Khác với các lớp có tham số học được như Convolutional, lớp kích hoạt không chứa trọng số mà chỉ thực hiện biến đổi giá trị từng phần tử đầu vào.
Mục Đích Chính
- Tạo tính phi tuyến: Giúp mạng nơ-ron mô hình hóa được các quan hệ phức tạp trong dữ liệu, vốn không thể biểu diễn bằng phép toán tuyến tính đơn thuần.
- Giải quyết vấn đề tiêu biến gradient: Một số hàm như ReLU ngăn chặn hiện tượng gradient giảm dần qua các lớp sâu.
- Kiểm soát phạm vi đầu ra: Ví dụ, hàm Sigmoid giới hạn giá trị đầu ra trong khoảng (0,1), phù hợp cho bài toán phân loại nhị phân