sơ khai Mạng lưới thần kinh là gì? - Đoàn kết.AI
Kết nối với chúng tôi
Lớp học AI:

AI 101

Mạng thần kinh là gì?

mm
cập nhật on

Mạng thần kinh nhân tạo (ANN) là gì?

Nhiều tiến bộ lớn nhất trong AI là điều khiển bởi mạng lưới thần kinh nhân tạo. Mạng thần kinh nhân tạo (ANN) là sự kết nối của các hàm toán học được nối với nhau theo định dạng lấy cảm hứng từ mạng thần kinh được tìm thấy trong não người. Các ANN này có khả năng trích xuất các mẫu phức tạp từ dữ liệu, áp dụng các mẫu này vào dữ liệu chưa nhìn thấy để phân loại/nhận dạng dữ liệu. Bằng cách này, máy “học”. Đó là tóm tắt nhanh về mạng nơ-ron, nhưng chúng ta hãy xem xét kỹ hơn về mạng nơ-ron để hiểu rõ hơn chúng là gì và cách chúng hoạt động.

Giải thích về Perceptron nhiều lớp

Trước khi xem xét các mạng thần kinh phức tạp hơn, chúng ta sẽ dành một chút thời gian để xem xét một phiên bản đơn giản của ANN, một Perceptron nhiều lớp (MLP).

Hãy tưởng tượng một dây chuyền lắp ráp tại một nhà máy. Trên dây chuyền lắp ráp này, một công nhân nhận một sản phẩm, thực hiện một số điều chỉnh cho nó, sau đó chuyển cho công nhân tiếp theo trong dây chuyền làm công việc tương tự. Quá trình này tiếp tục cho đến khi người công nhân cuối cùng trong dây chuyền hoàn thiện sản phẩm và đeo nó vào dây đai để mang nó ra khỏi nhà máy. Tương tự như vậy, có nhiều “lớp” trong dây chuyền lắp ráp và các sản phẩm di chuyển giữa các lớp khi chúng chuyển từ công nhân này sang công nhân khác. Dây chuyền lắp ráp cũng có điểm vào và điểm ra.

Một Perceptron nhiều lớp có thể được coi là một dây chuyền sản xuất rất đơn giản, được tạo thành từ tổng cộng ba lớp: lớp đầu vào, lớp ẩn và lớp đầu ra. Lớp đầu vào là nơi dữ liệu được đưa vào MLP và trong lớp ẩn, một số “công nhân” xử lý dữ liệu trước khi chuyển dữ liệu đó lên lớp đầu ra để đưa sản phẩm ra thế giới bên ngoài. Trong trường hợp của một MLP, những nhân viên này được gọi là “nơ-ron” (hoặc đôi khi là các nút) và khi họ xử lý dữ liệu, họ thao tác với nó thông qua một loạt các hàm toán học.

Trong mạng, có các cấu trúc kết nối nút này với nút khác được gọi là “trọng lượng”. Trọng số là một giả định về cách các điểm dữ liệu có liên quan với nhau khi chúng di chuyển qua mạng. Nói cách khác, trọng số phản ánh mức độ ảnh hưởng của một nơ-ron đối với một nơ-ron khác. Các trọng số đi qua một “hàm kích hoạt” khi chúng rời khỏi nút hiện tại, đây là một loại hàm toán học chuyển đổi dữ liệu. Chúng biến đổi dữ liệu tuyến tính thành các biểu diễn phi tuyến tính, cho phép mạng phân tích các mẫu phức tạp.

Sự tương đồng với bộ não con người được ngụ ý bởi “mạng lưới thần kinh nhân tạo” xuất phát từ thực tế là các tế bào thần kinh tạo nên bộ não con người được liên kết với nhau theo kiểu tương tự như cách các nút trong ANN được liên kết.

Mặc dù các perceptron nhiều lớp đã tồn tại từ những năm 1940, nhưng có một số hạn chế ngăn cản chúng trở nên đặc biệt hữu ích. Tuy nhiên, trong vài thập kỷ qua, một kỹ thuật được gọi là “Lan truyền ngược” được tạo ra để cho phép các mạng điều chỉnh trọng số của các nơ-ron và từ đó học tập hiệu quả hơn nhiều. Lan truyền ngược thay đổi trọng số trong mạng lưới thần kinh, cho phép mạng nắm bắt tốt hơn các mẫu thực tế trong dữ liệu.

Mạng lưới thần kinh sâu

Mạng lưới thần kinh sâu có dạng cơ bản của MLP và làm cho nó lớn hơn bằng cách thêm nhiều lớp ẩn vào giữa mô hình. Vì vậy, thay vì có một lớp đầu vào, một lớp ẩn và một lớp đầu ra, có nhiều lớp ẩn ở giữa và đầu ra của một lớp ẩn trở thành đầu vào cho lớp ẩn tiếp theo cho đến khi dữ liệu hoàn thành. thông qua mạng và được trả lại.

Nhiều lớp ẩn của mạng lưới thần kinh sâu có thể diễn giải các mẫu phức tạp hơn so với perceptron đa lớp truyền thống. Các lớp khác nhau của mạng lưới thần kinh sâu tìm hiểu các mẫu của các phần khác nhau của dữ liệu. Chẳng hạn, nếu dữ liệu đầu vào bao gồm hình ảnh, phần đầu tiên của mạng có thể diễn giải độ sáng hoặc tối của pixel trong khi các lớp sau sẽ chọn ra các hình dạng và cạnh có thể được sử dụng để nhận dạng các đối tượng trong hình ảnh.

Các loại mạng thần kinh khác nhau

Có nhiều loại mạng thần kinh khác nhau và mỗi loại mạng thần kinh khác nhau đều có những ưu điểm và nhược điểm riêng (và do đó, các trường hợp sử dụng riêng của chúng). Loại mạng nơ ron sâu được mô tả ở trên là loại mạng nơ ron phổ biến nhất và nó thường được gọi là mạng nơ ron chuyển tiếp.

Một biến thể của mạng thần kinh là Mạng thần kinh tái phát (RNN). Trong trường hợp Mạng thần kinh tái phát, các cơ chế lặp được sử dụng để lưu giữ thông tin từ các trạng thái phân tích trước đó, nghĩa là chúng có thể diễn giải dữ liệu khi có thứ tự quan trọng. RNN rất hữu ích trong việc lấy mẫu từ dữ liệu tuần tự/thời gian. Mạng thần kinh tái phát có thể là một chiều hoặc hai chiều. Trong trường hợp mạng nơ-ron hai chiều, mạng có thể lấy thông tin từ phần sau của chuỗi cũng như các phần trước đó của chuỗi. Vì RNN hai chiều xem xét nhiều thông tin hơn nên có thể rút ra các mẫu phù hợp từ dữ liệu tốt hơn.

Mạng thần kinh chuyển đổi là một loại mạng thần kinh đặc biệt có khả năng diễn giải các mẫu được tìm thấy trong hình ảnh. CNN hoạt động bằng cách chuyển một bộ lọc qua các pixel của hình ảnh và đạt được biểu diễn số của các pixel trong hình ảnh, sau đó nó có thể phân tích các mẫu. Một CNN được cấu trúc sao cho các lớp tích chập kéo các pixel ra khỏi hình ảnh xuất hiện trước, sau đó là các lớp chuyển tiếp nguồn cấp dữ liệu được kết nối dày đặc, những lớp thực sự sẽ học cách nhận dạng vật thể, xuất hiện sau lớp này.

Blogger và lập trình viên có chuyên môn về Machine Learning Học kĩ càng chủ đề. Daniel hy vọng sẽ giúp những người khác sử dụng sức mạnh của AI vì lợi ích xã hội.