Mạng Neural tích chập - Convolutional Neural Network - CNN

Mạng Neural tích chập - Convolutional Neural Network - CNN

Cập nhật lúc 09:49 03/06/2025
Mục tiêu của lớp này nhằm trích xuất các đặc trưng quan trọng và loại bỏ các thông tin không cần thiết.

Lớp tích chập - Convolution Layer

Convolution (nguồn: Internet)
Convolution (nguồn: Internet)

Khái niệm về tích chập Bạn có thể xem thêm tại đây.

Lớp gộp - Pooling Layer

Pooling là phép toán downsampling (giảm mẫu) áp dụng trên từng kênh đặc trưng (feature map) đầu vào, thông qua việc trích xuất giá trị đại diện từ các vùng cục bộ. Khác với lớp tích chập, pooling không chứa tham số học được và thực hiện phép toán cố định.

Lớp pooling (gộp) là thành phần không thể thiếu trong kiến trúc mạng neural tích chập (CNN), đóng vai trò quan trọng trong việc giảm kích thước dữ liệu và tăng tính bất biến không gian cho mô hình

Pooling layer (nguồn: Internet)
Pooling layer (nguồn: Internet)

Các Phương Pháp Pooling Chính

Max Pooling

  • Cơ chế: Chọn giá trị lớn nhất trong mỗi vùng pooling.
  • Ưu điểm: Hiệu quả trong việc giữ lại đặc trưng nổi bật (ví dụ: cạnh, góc).

Average Pooling

  • Cơ chế: Lấy trung bình các giá trị trong vùng pooling.
  • Ứng dụng: Phù hợp cho bài toán yêu cầu làm mịn đặc trưng (ví dụ: phân đoạn ảnh y tế).

Global Pooling

  • Biến thể:Global Max Pooling (GMP): Lấy max toàn bộ feature map.Global Average Pooling (GAP): Tính trung bình toàn bộ feature map.
  • Global Max Pooling (GMP): Lấy max toàn bộ feature map.
  • Global Average Pooling (GAP): Tính trung bình toàn bộ feature map.
  • Ứng dụng: Thay thế lớp fully connected trong các mô hình hiện đại.
Pooling layer (nguồn: Internet)
Pooling layer (nguồn: Internet)

Lớp kích hoạt - Activation layer

Lớp kích hoạt (Activation Layer) là thành phần không thể thiếu trong kiến trúc mạng nơ-ron tích chập (CNN), đóng vai trò quyết định trong việc chuyển đổi tín hiệu tuyến tính thành phi tuyến, giúp mô hình học được các mẫu phức tạp từ dữ liệu.

Activation Function
Activation Function

Lớp kích hoạt là một phép toán áp dụng hàm phi tuyến (non-linear function) lên đầu ra của các lớp tích chập (Convolutional Layer) hoặc lớp kết nối đầy đủ (Fully Connected Layer). Khác với các lớp có tham số học được như Convolutional, lớp kích hoạt không chứa trọng số mà chỉ thực hiện biến đổi giá trị từng phần tử đầu vào.

Mục Đích Chính

  • Tạo tính phi tuyến: Giúp mạng nơ-ron mô hình hóa được các quan hệ phức tạp trong dữ liệu, vốn không thể biểu diễn bằng phép toán tuyến tính đơn thuần.
  • Giải quyết vấn đề tiêu biến gradient: Một số hàm như ReLU ngăn chặn hiện tượng gradient giảm dần qua các lớp sâu.
  • Kiểm soát phạm vi đầu ra: Ví dụ, hàm Sigmoid giới hạn giá trị đầu ra trong khoảng (0,1), phù hợp cho bài toán phân loại nhị phân
Cảnh báo: Giao dịch ngoại hối là cơ hội đồng thời cũng là thử thách, hứa hẹn đem lại nhiều lợi nhuận cho những người đầu tư am hiểu và có kinh nghiệm. Tuy nhiên, trước khi quyết định tham gia vào thị trường Forex, bạn phải cân nhắc cẩn thận mục tiêu đầu tư, nguồn lực tài chính, bề dày kinh nghiệm và khả năng quản lý rủi ro của bạn. Và quan trọng hơn hết, đừng nên đầu tư nếu bạn không thể hoặc không muốn chấp nhận khả năng rủi ro có thể dẫn đến thua lỗ.
Tuyên bố từ chối trách nhiệm: Các Bài viết trên Website thể hiện quan điểm cá nhân, Bạn cần cân nhắc khi đọc và theo dõi. Các dịch vụ được cung cấp có mức rủi ro thua lỗ cao và nhanh nên có thể không thích hợp đối với tất cả khách hàng. Trong mọi trường hợp, Chúng tôi sẽ không chịu trách nhiệm pháp lý đối với bất kỳ cá nhân hay tổ chức nào về bất kỳ tổn thất hay thiệt hại nào hoàn toàn hoặc một phần gây ra bởi, phát sinh từ, hoặc liên quan đến bất kỳ hoạt động của Website này.
© Since 2008 & Made with ❤️ in Viet Nam