Giới thiệu về mạng nơ-ron


Ý tưởng về mạng nơ-ron

Ý tưởng về mạng nơ-ron được lấy cảm hứng từ cấu trúc và chức năng của não, nơi các tế bào thần kinh được kết nối với nhau để xử lý và truyền thông tin thông qua các mạng phức tạp. Mạng nơ-ron có nhiều ứng dụng khác nhau, chẳng hạn như:

  • Tạo và kể chuyện cười bằng cách học hỏi từ một cơ sở dữ liệu rộng lớn về những câu chuyện cười và điều chỉnh sự hài hước cho các đối tượng khác nhau.
  • Trình thông dịch giấc mơ: AI phân tích giấc mơ và cung cấp các diễn giải.
  • Giải thích cuộc nói chuyện của thú cưng: Hiểu những gì thú cưng của bạn đang nói dựa trên tín hiệu của chúng.

Mạng nơ-ron chuyển tiếp (Feedforward Neural Network)

Mạng nơ-ron chuyển tiếp (feedforward neural network) hoặc perceptron đa lớp (multilayer perceptron – MLP), là một loại mạng thần kinh nhân tạo nơi dữ liệu chạy theo một hướng thông qua nhiều lớp nơ-ron, thường bao gồm:

  • Lớp đầu vào (input layer): Nhận dữ liệu thô và chuyển nó đến các lớp tiếp theo để xử lý.
  • Lớp đầu ra (output layer): Tạo ra các dự đoán cuối cùng của mạng.

💡 Ví dụ: Đối với nhiệm vụ phân loại mùi, như mùi sầu riêng hoặc chất thải của gà, lớp đầu ra chỉ cần một nơ-ron, vì nó chỉ quyết định liệu mùi có phải là sầu riêng hay không.
Trong phân loại nhị phân (binary classification), lớp đầu ra thường có một nơ-ron để dự đoán mẫu đầu vào có thuộc lớp A hay không.

💡 Ví dụ khác: Đối với một nhiệm vụ phân loại với N lớp, lớp đầu ra thường có N nơ-ron (một nơ-ron cho mỗi lớp).
Giả sử tôi muốn phân loại các kiểu đi bộ thành:

  1. Penguin Shuffle
  2. Robot Stride
  3. Ninja Sneak
  4. Zombie Lurch
  5. Model Catwalk

Sau đó, lớp đầu ra của tôi sẽ có 5 nơ-ron, mỗi nơ-ron sẽ quyết định xem đầu vào có thuộc một trong năm lớp trên hay không.


Lớp ẩn (Hidden Layer)

Lớp ẩn là lớp trung gian nằm giữa lớp đầu vào và đầu ra. Nó bao gồm nhiều nơ-ron để biến đổi dữ liệu đầu vào, nhằm nắm bắt đặc trưng và mối quan hệ phức tạp trong dữ liệu.


Độ sâu và chiều rộng của mạng nơ-ron

  • Độ sâu của mạng nơ-ron (depth of a neural network) là số lớp mà nó chứa, bao gồm lớp đầu vào, một hoặc nhiều lớp ẩn, và lớp đầu ra.
    • Khi thêm nhiều lớp ẩn, mạng học được các tính chất phức tạp hơn của dữ liệu.
  • Chiều rộng của mạng nơ-ron (width of a neural network) là số lượng nơ-ron trong một lớp.
    • Lớp rộng hơn giúp mạng học được nhiều tính năng hơn trong dữ liệu.
    • Nhưng quá rộng có thể dẫn đến hiện tượng học vẹt (overfitting), tức là mạng nhớ dữ liệu nhưng không thực sự hiểu nó.

Trọng số (Weights)

Các nút trong mạng thần kinh được kết nối bằng trọng số (weights), xác định cường độ và hướng ảnh hưởng của một tế bào thần kinh này lên tế bào thần kinh khác.

💡 Ví dụ minh họa:
Hãy tưởng tượng một nhạc sĩ đang học chơi piano.

  • Bộ não của nhạc sĩ xử lý thông tin thính giác và vận động, tinh chỉnh kỹ năng thông qua thực hành.
  • Các tế bào thần kinh trong não hình thành kết nối mớicủng cố các kết nối hiện có khi nhạc sĩ trở nên thành thạo hơn.
  • Mạng nơ-ron hoạt động theo cơ chế tương tự: các trọng số được điều chỉnh để tối ưu hóa quá trình học.

Mạng nơ-ron cũng có thể được xem như một hàm số

Mạng nơ-ron feedforward nhằm xấp xỉ hàm thực f(x) bằng hàm \hat{f}(x) . Điều này được thực hiện bằng cách đặc tính hóa các tham số \theta để giảm thiểu hàm mất mát (loss function).

Mạng bao gồm nhiều lớp nơ-ron, với dữ liệu chạy từ lớp đầu vào qua một hoặc nhiều lớp ẩn đến lớp đầu ra. Vì vậy, hàm tổng thể f là một hàm hợp của một số hàm, với mỗi hàm f^{(i)} đại diện cho một lớp trong mạng.

  • Mỗi lớp f^{(i)} biến đổi đầu vào từ lớp trước và chuyển nó sang lớp tiếp theo, xấp xỉ chung đầu ra mong muốn thông qua một loạt các phép biến đổi.

💡 Ví dụ:
Giả sử ta có một mạng nơ-ron 4 lớp, gồm:

  • f^{(1)} : Lớp đầu tiên (lớp đầu vào)
  • f^{(2)} : Lớp thứ hai (lớp ẩn đầu tiên)
  • f^{(3)} : Lớp thứ ba (lớp ẩn thứ hai)
  • f^{(4)} : Lớp thứ tư (lớp đầu ra)

Mạng nơ-ron này có thể được biểu diễn bằng hàm hợp:
f = f^{(4)}( f^{(3)}( f^{(2)}( f^{(1)}(x))))


Discover more from Science Comics

Subscribe to get the latest posts sent to your email.

Leave a Reply

error: Content is protected !!