- Thuật ngữ (A đến D)
- Kiểm soát khả năng AI
- CỨU
- albumentation
- Hiệu suất tài sản
- Tự động mã hóa
- Lan truyền ngược
- Định lý Bayes
- Dữ Liệu Lớn.
- Chatbot: Hướng dẫn cho người mới bắt đầu
- Tư duy tính toán
- Tầm nhìn máy tính
- Ma trận hỗn loạn
- Mạng lưới thần kinh chuyển đổi
- An ninh mạng
- Vải dữ liệu
- Kể chuyện dữ liệu
- Khoa học dữ liệu
- Kho dữ liệu
- Cây quyết định
- Deepfakes
- Học kĩ càng
- Học tập củng cố sâu
- DevOps
- DevSecOps
- Mô hình khuếch tán
- Twin kỹ thuật số
- Giảm kích thước
- Thuật ngữ (E đến K)
- Cạnh AI
- Cảm xúc AI
- học hòa tấu
- Hacking đạo đức
- ETL
- AI có thể giải thích
- Học liên kết
- FinOps
- Trí tuệ nhân tạo
- Mạng đối thủ sáng tạo
- Sáng tạo so với phân biệt đối xử
- Tăng cường Gradient
- Xuống dốc
- Học vài lần
- Phân loại hình ảnh
- Hoạt động CNTT (ITOPs)
- Tự động hóa sự cố
- Kỹ thuật gây ảnh hưởng
- Phân cụm K-Means
- K-Những người hàng xóm gần nhất
- Thuật ngữ (L đến Q)
- Thuật ngữ (R đến Z)
- Học tăng cường
- AI có trách nhiệm
- RLHF
- Tự động hóa quá trình robot
- Có cấu trúc so với không có cấu trúc
- Phân tích tình cảm
- Giám sát vs Không giám sát
- Hỗ trợ Máy Vector
- Dữ liệu tổng hợp
- truyền thông tổng hợp
- Phân loại văn bản
- TinyML
- Chuyển giao học tập
- Mạng thần kinh biến áp
- Phép thử Turing
- Tìm kiếm sự giống nhau của vectơ
AI 101
Mạng thần kinh là gì?
Mục lục
Mạng thần kinh nhân tạo (ANN) là gì?
Nhiều tiến bộ lớn nhất trong AI là điều khiển bởi mạng lưới thần kinh nhân tạo. Mạng thần kinh nhân tạo (ANN) là sự kết nối của các hàm toán học được nối với nhau theo định dạng lấy cảm hứng từ mạng thần kinh được tìm thấy trong não người. Các ANN này có khả năng trích xuất các mẫu phức tạp từ dữ liệu, áp dụng các mẫu này vào dữ liệu chưa nhìn thấy để phân loại/nhận dạng dữ liệu. Bằng cách này, máy “học”. Đó là tóm tắt nhanh về mạng nơ-ron, nhưng chúng ta hãy xem xét kỹ hơn về mạng nơ-ron để hiểu rõ hơn chúng là gì và cách chúng hoạt động.
Giải thích về Perceptron nhiều lớp
Trước khi xem xét các mạng thần kinh phức tạp hơn, chúng ta sẽ dành một chút thời gian để xem xét một phiên bản đơn giản của ANN, một Perceptron nhiều lớp (MLP).
Hãy tưởng tượng một dây chuyền lắp ráp tại một nhà máy. Trên dây chuyền lắp ráp này, một công nhân nhận một sản phẩm, thực hiện một số điều chỉnh cho nó, sau đó chuyển cho công nhân tiếp theo trong dây chuyền làm công việc tương tự. Quá trình này tiếp tục cho đến khi người công nhân cuối cùng trong dây chuyền hoàn thiện sản phẩm và đeo nó vào dây đai để mang nó ra khỏi nhà máy. Tương tự như vậy, có nhiều “lớp” trong dây chuyền lắp ráp và các sản phẩm di chuyển giữa các lớp khi chúng chuyển từ công nhân này sang công nhân khác. Dây chuyền lắp ráp cũng có điểm vào và điểm ra.
Một Perceptron nhiều lớp có thể được coi là một dây chuyền sản xuất rất đơn giản, được tạo thành từ tổng cộng ba lớp: lớp đầu vào, lớp ẩn và lớp đầu ra. Lớp đầu vào là nơi dữ liệu được đưa vào MLP và trong lớp ẩn, một số “công nhân” xử lý dữ liệu trước khi chuyển dữ liệu đó lên lớp đầu ra để đưa sản phẩm ra thế giới bên ngoài. Trong trường hợp của một MLP, những nhân viên này được gọi là “nơ-ron” (hoặc đôi khi là các nút) và khi họ xử lý dữ liệu, họ thao tác với nó thông qua một loạt các hàm toán học.
Trong mạng, có các cấu trúc kết nối nút này với nút khác được gọi là “trọng lượng”. Trọng số là một giả định về cách các điểm dữ liệu có liên quan với nhau khi chúng di chuyển qua mạng. Nói cách khác, trọng số phản ánh mức độ ảnh hưởng của một nơ-ron đối với một nơ-ron khác. Các trọng số đi qua một “hàm kích hoạt” khi chúng rời khỏi nút hiện tại, đây là một loại hàm toán học chuyển đổi dữ liệu. Chúng biến đổi dữ liệu tuyến tính thành các biểu diễn phi tuyến tính, cho phép mạng phân tích các mẫu phức tạp.
Sự tương đồng với bộ não con người được ngụ ý bởi “mạng lưới thần kinh nhân tạo” xuất phát từ thực tế là các tế bào thần kinh tạo nên bộ não con người được liên kết với nhau theo kiểu tương tự như cách các nút trong ANN được liên kết.
Mặc dù các perceptron nhiều lớp đã tồn tại từ những năm 1940, nhưng có một số hạn chế ngăn cản chúng trở nên đặc biệt hữu ích. Tuy nhiên, trong vài thập kỷ qua, một kỹ thuật được gọi là “Lan truyền ngược” được tạo ra để cho phép các mạng điều chỉnh trọng số của các nơ-ron và từ đó học tập hiệu quả hơn nhiều. Lan truyền ngược thay đổi trọng số trong mạng lưới thần kinh, cho phép mạng nắm bắt tốt hơn các mẫu thực tế trong dữ liệu.
Mạng lưới thần kinh sâu
Mạng lưới thần kinh sâu có dạng cơ bản của MLP và làm cho nó lớn hơn bằng cách thêm nhiều lớp ẩn vào giữa mô hình. Vì vậy, thay vì có một lớp đầu vào, một lớp ẩn và một lớp đầu ra, có nhiều lớp ẩn ở giữa và đầu ra của một lớp ẩn trở thành đầu vào cho lớp ẩn tiếp theo cho đến khi dữ liệu hoàn thành. thông qua mạng và được trả lại.
Nhiều lớp ẩn của mạng lưới thần kinh sâu có thể diễn giải các mẫu phức tạp hơn so với perceptron đa lớp truyền thống. Các lớp khác nhau của mạng lưới thần kinh sâu tìm hiểu các mẫu của các phần khác nhau của dữ liệu. Chẳng hạn, nếu dữ liệu đầu vào bao gồm hình ảnh, phần đầu tiên của mạng có thể diễn giải độ sáng hoặc tối của pixel trong khi các lớp sau sẽ chọn ra các hình dạng và cạnh có thể được sử dụng để nhận dạng các đối tượng trong hình ảnh.
Các loại mạng thần kinh khác nhau
Có nhiều loại mạng thần kinh khác nhau và mỗi loại mạng thần kinh khác nhau đều có những ưu điểm và nhược điểm riêng (và do đó, các trường hợp sử dụng riêng của chúng). Loại mạng nơ ron sâu được mô tả ở trên là loại mạng nơ ron phổ biến nhất và nó thường được gọi là mạng nơ ron chuyển tiếp.
Một biến thể của mạng thần kinh là Mạng thần kinh tái phát (RNN). Trong trường hợp Mạng thần kinh tái phát, các cơ chế lặp được sử dụng để lưu giữ thông tin từ các trạng thái phân tích trước đó, nghĩa là chúng có thể diễn giải dữ liệu khi có thứ tự quan trọng. RNN rất hữu ích trong việc lấy mẫu từ dữ liệu tuần tự/thời gian. Mạng thần kinh tái phát có thể là một chiều hoặc hai chiều. Trong trường hợp mạng nơ-ron hai chiều, mạng có thể lấy thông tin từ phần sau của chuỗi cũng như các phần trước đó của chuỗi. Vì RNN hai chiều xem xét nhiều thông tin hơn nên có thể rút ra các mẫu phù hợp từ dữ liệu tốt hơn.
Mạng thần kinh chuyển đổi là một loại mạng thần kinh đặc biệt có khả năng diễn giải các mẫu được tìm thấy trong hình ảnh. CNN hoạt động bằng cách chuyển một bộ lọc qua các pixel của hình ảnh và đạt được biểu diễn số của các pixel trong hình ảnh, sau đó nó có thể phân tích các mẫu. Một CNN được cấu trúc sao cho các lớp tích chập kéo các pixel ra khỏi hình ảnh xuất hiện trước, sau đó là các lớp chuyển tiếp nguồn cấp dữ liệu được kết nối dày đặc, những lớp thực sự sẽ học cách nhận dạng vật thể, xuất hiện sau lớp này.
Blogger và lập trình viên có chuyên môn về Machine Learning và Học kĩ càng chủ đề. Daniel hy vọng sẽ giúp những người khác sử dụng sức mạnh của AI vì lợi ích xã hội.