Connect with us

AI 101

Mạng Thần Kinh là gì?

mm

Mạng Thần Kinh Nhân Tạo (ANN) là gì?

Nhiều tiến bộ lớn nhất trong AI được thúc đẩy bởi mạng thần kinh nhân tạo. Mạng Thần Kinh Nhân Tạo (ANN) là sự kết nối của các hàm toán học được liên kết với nhau theo một định dạng lấy cảm hứng từ các mạng thần kinh trong não người. Các ANN này có khả năng trích xuất các mẫu phức tạp từ dữ liệu, áp dụng các mẫu này vào dữ liệu chưa nhìn thấy để phân loại/nhận dạng dữ liệu. Bằng cách này, máy móc “học hỏi”. Đó là một cái nhìn tổng quan nhanh về mạng thần kinh, nhưng hãy cùng xem xét kỹ hơn để hiểu rõ hơn chúng là gì và cách chúng hoạt động.

Giải thích về Perceptron Đa Lớp

Trước khi xem xét các mạng thần kinh phức tạp hơn, chúng ta sẽ dành chút thời gian để xem xét một phiên bản đơn giản của ANN, Perceptron Đa Lớp (MLP). Hãy tưởng tượng một dây chuyền lắp ráp trong nhà máy. Trên dây chuyền này, một công nhân nhận một sản phẩm, thực hiện một số điều chỉnh đối với nó, và sau đó chuyển nó cho công nhân tiếp theo trong dây chuyền, người này cũng làm tương tự. Quá trình này tiếp tục cho đến khi công nhân cuối cùng trong dây chuyền hoàn thiện sản phẩm và đặt nó lên băng chuyền để đưa ra khỏi nhà máy. Trong phép loại suy này, có nhiều “lớp” trong dây chuyền lắp ráp, và sản phẩm di chuyển giữa các lớp khi chúng chuyển từ công nhân này sang công nhân khác. Dây chuyền lắp ráp cũng có một điểm đầu vào và một điểm đầu ra. Một Perceptron Đa Lớp có thể được coi như một dây chuyền sản xuất rất đơn giản, được tạo thành từ tổng cộng ba lớp: một lớp đầu vào, một lớp ẩn và một lớp đầu ra. Lớp đầu vào là nơi dữ liệu được đưa vào MLP, và trong lớp ẩn, một số lượng “công nhân” xử lý dữ liệu trước khi chuyển nó đến lớp đầu ra, lớp này sẽ đưa sản phẩm ra thế giới bên ngoài. Trong trường hợp của MLP, những công nhân này được gọi là “nơ-ron” (hoặc đôi khi là nút) và khi chúng xử lý dữ liệu, chúng thao tác nó thông qua một loạt các hàm toán học. Bên trong mạng, có các cấu trúc kết nối nút này với nút khác gọi là “trọng số“. Trọng số là một giả định về cách các điểm dữ liệu liên quan với nhau khi chúng di chuyển qua mạng. Nói cách khác, trọng số phản ánh mức độ ảnh hưởng mà một nơ-ron có đối với một nơ-ron khác. Các trọng số đi qua một “hàm kích hoạt” khi chúng rời khỏi nút hiện tại, đây là một loại hàm toán học biến đổi dữ liệu. Chúng biến đổi dữ liệu tuyến tính thành các biểu diễn phi tuyến, cho phép mạng phân tích các mẫu phức tạp. Sự so sánh với não người được ngụ ý bởi “mạng thần kinh nhân tạo” xuất phát từ thực tế là các nơ-ron tạo nên não người được liên kết với nhau theo cách tương tự như cách các nút trong ANN được liên kết. Mặc dù perceptron đa lớp đã tồn tại từ những năm 1940, nhưng có một số hạn chế khiến chúng không đặc biệt hữu ích. Tuy nhiên, trong vài thập kỷ qua, một kỹ thuật gọi là “lan truyền ngược” đã được tạo ra, cho phép các mạng điều chỉnh trọng số của các nơ-ron và do đó học hỏi hiệu quả hơn nhiều. Lan truyền ngược thay đổi các trọng số trong mạng thần kinh, cho phép mạng nắm bắt tốt hơn các mẫu thực tế trong dữ liệu.

Mạng Thần Kinh Sâu

Mạng thần kinh sâu lấy dạng cơ bản của MLP và mở rộng nó bằng cách thêm nhiều lớp ẩn hơn vào giữa mô hình. Vì vậy, thay vì chỉ có một lớp đầu vào, một lớp ẩn và một lớp đầu ra, sẽ có nhiều lớp ẩn ở giữa và đầu ra của một lớp ẩn này trở thành đầu vào cho lớp ẩn tiếp theo cho đến khi dữ liệu đi qua toàn bộ mạng và được trả về. Nhiều lớp ẩn của một mạng thần kinh sâu có thể diễn giải các mẫu phức tạp hơn so với perceptron đa lớp truyền thống. Các lớp khác nhau của mạng thần kinh sâu học các mẫu của các phần khác nhau của dữ liệu. Ví dụ, nếu dữ liệu đầu vào bao gồm hình ảnh, phần đầu tiên của mạng có thể diễn giải độ sáng hoặc tối của pixel trong khi các lớp sau sẽ chọn ra các hình dạng và đường viền có thể được sử dụng để nhận dạng các đối tượng trong hình ảnh.

Các Loại Mạng Thần Kinh Khác Nhau

Có nhiều loại mạng thần kinh khác nhau, và mỗi loại mạng thần kinh khác nhau có những ưu điểm và nhược điểm riêng (và do đó có các trường hợp sử dụng riêng). Loại mạng thần kinh sâu được mô tả ở trên là loại mạng thần kinh phổ biến nhất, và nó thường được gọi là mạng thần kinh truyền thẳng. Một biến thể của mạng thần kinh là Mạng Thần Kinh Hồi Quy (RNN). Trong trường hợp của Mạng Thần Kinh Hồi Quy, các cơ chế lặp được sử dụng để lưu giữ thông tin từ các trạng thái phân tích trước đó, có nghĩa là chúng có thể diễn giải dữ liệu mà thứ tự có ý nghĩa. RNN hữu ích trong việc rút ra các mẫu từ dữ liệu tuần tự/theo thời gian. Mạng Thần Kinh Hồi Quy có thể là đơn hướng hoặc song hướng. Trong trường hợp mạng thần kinh song hướng, mạng có thể lấy thông tin từ phần sau trong chuỗi cũng như từ các phần trước đó của chuỗi. Vì RNN song hướng tính đến nhiều thông tin hơn, nó có khả năng rút ra các mẫu chính xác từ dữ liệu tốt hơn. Mạng Thần Kinh Tích Chập là một loại mạng thần kinh đặc biệt, giỏi trong việc diễn giải các mẫu được tìm thấy trong hình ảnh. CNN hoạt động bằng cách đưa một bộ lọc qua các pixel của hình ảnh và đạt được biểu diễn số của các pixel trong hình ảnh, sau đó nó có thể phân tích các mẫu từ đó. Một CNN được cấu trúc sao cho các lớp tích chập, lớp trích xuất pixel từ hình ảnh, đến trước, và sau đó là các lớp truyền thẳng kết nối dày đặc, những lớp sẽ thực sự học để nhận dạng đối tượng, đến sau.

Blogger and programmer with specialties in Machine Learning and Deep Learning topics. Daniel hopes to help others use the power of AI for social good.