sơ khai Meta-learning là gì? - Đoàn kết.AI
Kết nối với chúng tôi
Lớp học AI:

AI 101

Meta-learning là gì?

mm
cập nhật on

Meta-learning là gì?

Một trong những lĩnh vực nghiên cứu phát triển nhanh nhất trong học máy là lĩnh vực siêu học. Meta-learning, trong bối cảnh học máy, là việc sử dụng các thuật toán học máy để hỗ trợ đào tạo và tối ưu hóa các mô hình học máy khác. Khi meta-learning ngày càng trở nên phổ biến và nhiều kỹ thuật meta-learning đang được phát triển, sẽ rất hữu ích nếu hiểu được meta-learning là gì và có ý thức về những cách khác nhau mà nó có thể được áp dụng. Hãy xem xét các ý tưởng đằng sau siêu học tập, các loại siêu học, cũng như một số cách có thể sử dụng meta-learning.

Thuật ngữ siêu học được Donald Maudsley đặt ra để mô tả một quá trình mà mọi người bắt đầu định hình những gì họ học được, trở nên “ngày càng kiểm soát các thói quen nhận thức, tìm hiểu, học hỏi và phát triển mà họ đã hình thành”. Sau đó, các nhà khoa học nhận thức và tâm lý học sẽ mô tả meta-learning là “học cách học”.

Đối với phiên bản máy học của meta-learning, ý tưởng chung về “học cách học” được áp dụng cho các hệ thống AI. Theo nghĩa của AI, siêu học tập là khả năng của một cỗ máy thông minh nhân tạo học cách thực hiện các nhiệm vụ phức tạp khác nhau, sử dụng các nguyên tắc mà nó đã sử dụng để học một nhiệm vụ và áp dụng nó cho các nhiệm vụ khác. Các hệ thống AI thường phải được đào tạo để hoàn thành một nhiệm vụ thông qua việc thành thạo nhiều nhiệm vụ nhỏ. Quá trình đào tạo này có thể mất nhiều thời gian và các tác nhân AI không dễ dàng chuyển kiến ​​thức học được từ nhiệm vụ này sang nhiệm vụ khác. Việc tạo ra các mô hình và kỹ thuật siêu học tập có thể giúp AI học cách khái quát hóa các phương pháp học tập và tiếp thu các kỹ năng mới nhanh hơn.

Các loại siêu học tập

Trình tối ưu hóa Meta-Learning

Meta-learning thường được sử dụng để tối ưu hóa hiệu suất của một mạng thần kinh đã tồn tại. Các phương pháp siêu học của trình tối ưu hóa thường hoạt động bằng cách điều chỉnh các siêu tham số của một mạng nơ-ron khác nhằm cải thiện hiệu suất của mạng nơ-ron cơ sở. Kết quả là mạng mục tiêu sẽ trở nên tốt hơn trong việc thực hiện nhiệm vụ mà nó đang được đào tạo. Một ví dụ về trình tối ưu hóa meta-learning là việc sử dụng mạng để cải thiện xuống dốc kết quả.

Học siêu tốc vài lần

Phương pháp tiếp cận siêu học tập một vài lần là phương pháp trong đó mạng lưới thần kinh sâu được thiết kế có khả năng khái quát hóa từ tập dữ liệu huấn luyện thành tập dữ liệu chưa nhìn thấy. Một ví dụ về phân loại vài lần tương tự như một nhiệm vụ phân loại thông thường, nhưng thay vào đó, các mẫu dữ liệu là toàn bộ tập dữ liệu. Mô hình này được đào tạo trên nhiều nhiệm vụ/bộ dữ liệu học tập khác nhau, sau đó được tối ưu hóa để đạt hiệu suất cao nhất trên vô số nhiệm vụ đào tạo và dữ liệu không nhìn thấy. Theo cách tiếp cận này, một mẫu đào tạo được chia thành nhiều lớp. Điều này có nghĩa là mỗi mẫu huấn luyện/tập dữ liệu có thể được tạo thành từ hai lớp, với tổng số 4 lần chụp. Trong trường hợp này, toàn bộ nhiệm vụ huấn luyện có thể được mô tả là nhiệm vụ phân loại 4 lớp 2 phát.

Trong học tập vài lần, ý tưởng là các mẫu đào tạo riêng lẻ được tối giản và mạng có thể học cách xác định các đối tượng sau khi chỉ nhìn thấy một vài bức ảnh. Điều này giống như cách một đứa trẻ học cách phân biệt các đồ vật sau khi chỉ nhìn thấy một vài bức tranh. Cách tiếp cận này đã được sử dụng để tạo ra các kỹ thuật như mô hình thế hệ một lần và mạng lưới thần kinh tăng cường bộ nhớ.

Học Meta Metric

Siêu học tập dựa trên số liệu là việc sử dụng các mạng thần kinh để xác định xem một số liệu có đang được sử dụng hiệu quả hay không và liệu mạng hoặc các mạng có đạt được số liệu mục tiêu hay không. Học meta số liệu tương tự như học vài lần trong đó chỉ một vài ví dụ được sử dụng để huấn luyện mạng và để nó học không gian số liệu. Số liệu tương tự được sử dụng trên nhiều miền khác nhau và nếu các mạng khác với số liệu thì chúng được coi là không thành công.

Học siêu mô hình lặp lại

Siêu học tập mô hình tái phát là ứng dụng các kỹ thuật siêu học tập cho Mạng thần kinh tái phát và các mạng Bộ nhớ ngắn hạn dài tương tự. Kỹ thuật này hoạt động bằng cách huấn luyện mô hình RNN/LSTM để học tuần tự một tập dữ liệu, sau đó sử dụng mô hình đã huấn luyện này làm cơ sở cho người học khác. Người học meta sử dụng thuật toán tối ưu hóa cụ thể được sử dụng để huấn luyện mô hình ban đầu. Việc tham số hóa kế thừa của meta-learner cho phép nó khởi tạo và hội tụ nhanh chóng nhưng vẫn có thể cập nhật cho các kịch bản mới.

Meta-learning hoạt động như thế nào?

Cách chính xác mà meta-learning được tiến hành khác nhau tùy thuộc vào mô hình và bản chất của nhiệm vụ hiện tại. Tuy nhiên, nói chung, một nhiệm vụ siêu học liên quan đến việc sao chép các tham số của mạng đầu tiên thành các tham số của mạng thứ hai/bộ tối ưu hóa.

Có hai quá trình đào tạo trong meta-learning. Mô hình siêu học tập thường được đào tạo sau khi thực hiện một số bước đào tạo trên mô hình cơ sở. Sau các bước tiến, lùi và tối ưu hóa để huấn luyện mô hình cơ sở, quá trình huấn luyện tiến được thực hiện cho mô hình tối ưu hóa. Ví dụ: sau ba hoặc bốn bước đào tạo trên mô hình cơ sở, một tổn thất meta được tính toán. Sau khi tính toán tổn thất meta, độ dốc được tính cho từng tham số meta. Sau khi điều này xảy ra, các tham số meta trong trình tối ưu hóa được cập nhật.

Một khả năng để tính toán tổn thất tổng hợp là hoàn thành quá trình đào tạo chuyển tiếp của mô hình ban đầu và sau đó kết hợp các tổn thất đã được tính toán. Trình tối ưu hóa meta thậm chí có thể là một trình học meta khác, mặc dù tại một thời điểm nhất định, phải sử dụng trình tối ưu hóa rời rạc như ADAM hoặc SGD.

Nhiều mô hình học sâu có thể có hàng trăm nghìn hoặc thậm chí hàng triệu tham số. Việc tạo ra một siêu máy học có một bộ tham số hoàn toàn mới sẽ rất tốn kém về mặt tính toán và vì lý do này, một chiến thuật gọi là chia sẻ tọa độ thường được sử dụng. Chia sẻ tọa độ liên quan đến việc thiết kế trình học meta/trình tối ưu hóa để nó học một tham số duy nhất từ ​​mô hình cơ sở và sau đó chỉ sao chép tham số đó thay cho tất cả các tham số khác. Kết quả là các tham số mà trình tối ưu hóa sở hữu không phụ thuộc vào các tham số của mô hình.

Blogger và lập trình viên có chuyên môn về Machine Learning Học kĩ càng chủ đề. Daniel hy vọng sẽ giúp những người khác sử dụng sức mạnh của AI vì lợi ích xã hội.