Phỏng vấn
Yubei Chen, Đồng sáng lập Aizip Inc – Loạt phỏng vấn

Yubei Chen là đồng sáng lập của Aizip inc., một công ty xây dựng các mô hình AI nhỏ nhất và hiệu quả nhất trên thế giới. Ông cũng là trợ lý giáo sư tại Bộ phận Kỹ thuật Điện và Máy tính tại Đại học California, Davis. Nghiên cứu của Chen nằm tại giao điểm của khoa học thần kinh tính toán và học sâu không giám sát (tự giám sát), nâng cao sự hiểu biết của chúng ta về các nguyên tắc tính toán điều chỉnh việc học biểu diễn không giám sát trong cả não và máy, và thay đổi cái nhìn của chúng ta về thống kê tín hiệu tự nhiên.
Trước khi gia nhập UC Davis, Chen đã thực hiện nghiên cứu sau tiến sĩ với GS. Yann LeCun tại Trung tâm Khoa học Dữ liệu NYU (CDS) và Nghiên cứu Trí tuệ Nhân tạo Cơ bản Meta (FAIR). Ông đã hoàn thành tiến sĩ tại Trung tâm Khoa học Thần kinh Lý thuyết Redwood và Nghiên cứu Trí tuệ Nhân tạo Berkeley (BAIR), UC Berkeley, dưới sự hướng dẫn của GS. Bruno Olshausen.
Aizip phát triển các giải pháp AI siêu hiệu quả được tối ưu hóa cho các thiết bị cạnh, cung cấp các mô hình compact cho các ứng dụng tầm nhìn, âm thanh, thời gian loạt, ngôn ngữ và hợp nhất cảm biến. Các sản phẩm của công ty cho phép thực hiện các nhiệm vụ như nhận dạng khuôn mặt và đối tượng, phát hiện từ khóa, phân tích ECG/EEG và trò chuyện trên thiết bị, tất cả đều được hỗ trợ bởi TinyML. Thông qua nền tảng AI nanofactory của mình, Aizipline, công ty đẩy nhanh việc phát triển mô hình bằng cách sử dụng các mô hình nền tảng và mô hình sinh để thúc đẩy tự động hóa thiết kế AI hoàn toàn. Dòng mô hình ngôn ngữ nhỏ Gizmo của Aizip (300M–2B tham số) hỗ trợ một loạt các thiết bị, mang lại khả năng thông minh đến rìa.
Bạn đã thực hiện nghiên cứu sau tiến sĩ với Yann LeCun tại NYU và Meta FAIR. Làm thế nào để làm việc với ông và nghiên cứu của bạn tại UC Berkeley định hình cách tiếp cận của bạn trong việc xây dựng các giải pháp AI thực tế?
Tại Berkeley, công việc của tôi được gắn sâu với việc khám phá khoa học và sự nghiêm ngặt toán học. Nghiên cứu tiến sĩ của tôi, kết hợp kỹ thuật điện, khoa học máy tính và khoa học thần kinh tính toán, tập trung vào việc hiểu các hệ thống AI từ góc độ “hộp trắng” hoặc phát triển các phương pháp để tiết lộ các cấu trúc cơ bản của dữ liệu và mô hình học. Tôi đã làm việc trên việc xây dựng các mô hình AI có thể giải thích, hiệu suất cao và các kỹ thuật trực quan giúp mở ra các hệ thống AI hộp đen.
Tại Meta FAIR, trọng tâm là xây dựng các hệ thống AI để đạt được hiệu suất hàng đầu tại quy mô. Với quyền truy cập vào các tài nguyên tính toán hàng đầu, tôi đã khám phá các giới hạn của việc học không giám sát và đóng góp vào những gì chúng ta hiện gọi là “mô hình thế giới” — các hệ thống AI học từ dữ liệu và tưởng tượng các môi trường có thể. Kinh nghiệm kép này — sự hiểu biết khoa học tại Berkeley và kỹ thuật thúc đẩy quy mô tại Meta — đã mang lại cho tôi một quan điểm toàn diện về phát triển AI. Nó nhấn mạnh tầm quan trọng của cả sự hiểu biết lý thuyết và thực hiện thực tế khi bạn phát triển các giải pháp AI cho các ứng dụng thực tế.
Công việc của bạn kết hợp khoa học thần kinh tính toán với AI. Làm thế nào để những hiểu biết từ khoa học thần kinh ảnh hưởng đến cách bạn phát triển các mô hình AI?
Trong khoa học thần kinh tính toán, chúng ta nghiên cứu cách não bộ xử lý thông tin bằng cách đo lường phản ứng của nó với các kích thích khác nhau, tương tự như cách chúng ta thăm dò các mô hình AI để hiểu các cơ chế nội bộ của chúng. Sớm trong sự nghiệp của mình, tôi đã phát triển các kỹ thuật trực quan để phân tích các bản nhúng từ — phá vỡ các từ như “apple” thành các yếu tố ngữ nghĩa thành phần, chẳng hạn như “trái cây” và “công nghệ.” Sau đó, cách tiếp cận này đã mở rộng sang các mô hình AI phức tạp hơn như biến đổi và mô hình ngôn ngữ lớn, giúp tiết lộ cách chúng xử lý và lưu trữ kiến thức.
Những phương pháp này thực sự song song với các kỹ thuật trong khoa học thần kinh, chẳng hạn như sử dụng điện cực hoặc fMRI để nghiên cứu hoạt động của não. Việc thăm dò các biểu diễn nội bộ của một mô hình AI cho phép chúng ta hiểu các chiến lược lập luận của nó và phát hiện các thuộc tính mới nổi, chẳng hạn như nơ-ron khái niệm kích hoạt cho các ý tưởng cụ thể (chẳng hạn như tính năng Cầu Cổng Vàng mà Anthropic tìm thấy khi ánh xạ Claude). Dòng nghiên cứu này hiện được áp dụng rộng rãi trong ngành vì nó đã được chứng minh là cho phép cả khả năng giải thích và can thiệp thực tế, loại bỏ các偏见 khỏi các mô hình. Vì vậy, các phương pháp lấy cảm hứng từ khoa học thần kinh giúp chúng ta làm cho AI trở nên giải thích được, đáng tin cậy và hiệu quả hơn.
Điều gì đã truyền cảm hứng cho bạn để đồng sáng lập Aizip? Bạn có thể chia sẻ hành trình từ khái niệm đến việc ra mắt công ty?
Là một nhà nghiên cứu AI cơ bản, phần lớn công việc của tôi là lý thuyết, nhưng tôi muốn bắc cầu giữa nghiên cứu và các ứng dụng thực tế. Tôi đồng sáng lập Aizip để đưa các đổi mới AI tiên tiến vào sử dụng thực tế, đặc biệt là trong các môi trường bị hạn chế về tài nguyên. Thay vì xây dựng các mô hình nền tảng lớn, chúng tôi tập trung vào việc phát triển các mô hình AI nhỏ nhất và hiệu quả nhất, được tối ưu hóa cho các thiết bị cạnh.
Hành trình cơ bản bắt đầu với một quan sát quan trọng: Trong khi sự tiến bộ của AI đang mở rộng nhanh chóng, các ứng dụng thực tế thường yêu cầu các mô hình nhỏ gọn và hiệu quả cao. Chúng tôi đã nhìn thấy một cơ hội để tiên phong một hướng đi mới, cân bằng giữa sự nghiêm ngặt khoa học và triển khai thực tế. Bằng cách tận dụng các hiểu biết từ việc học không giám sát và kiến trúc mô hình compact, Aizip đã có thể cung cấp các giải pháp AI hoạt động hiệu quả tại rìa và mở ra các khả năng mới cho AI trong các hệ thống nhúng, IoT và hơn thế nữa.
Aizip chuyên về các mô hình AI nhỏ cho các thiết bị cạnh. Bạn đã nhìn thấy khoảng trống nào trên thị trường dẫn đến sự tập trung này?
Ngành công nghiệp AI chủ yếu tập trung vào việc mở rộng quy mô của các mô hình, nhưng các ứng dụng thực tế thường đòi hỏi điều ngược lại — hiệu suất cao, tiêu thụ điện năng thấp và độ trễ tối thiểu. Nhiều mô hình AI hiện nay quá tốn kém về mặt tính toán để triển khai trên các thiết bị nhúng nhỏ. Chúng tôi đã nhìn thấy một khoảng trống trên thị trường cho các giải pháp AI có thể cung cấp hiệu suất mạnh mẽ trong khi hoạt động trong các hạn chế tài nguyên cực đoan.
Chúng tôi nhận ra rằng không cần thiết phải chạy mọi ứng dụng AI trên các mô hình lớn và cũng không thể mở rộng được nếu dựa vào các mô hình có kích thước như vậy cho mọi thứ. Thay vào đó, chúng tôi tập trung vào việc tối ưu hóa các thuật toán để đạt được hiệu suất tối đa trong khi duy trì độ chính xác. Bằng cách thiết kế các mô hình AI được tùy chỉnh cho các ứng dụng cạnh — cho dù trong các cảm biến thông minh, thiết bị đeo hoặc tự động hóa công nghiệp — chúng tôi cho phép AI chạy ở những nơi mà các mô hình truyền thống sẽ không thực tế. Cách tiếp cận của chúng tôi làm cho AI trở nên dễ tiếp cận, có thể mở rộng và tiết kiệm năng lượng hơn, mở ra các khả năng mới cho đổi mới AI được thúc đẩy bởi AI ngoài đám mây.
Aizip đã đi đầu trong việc phát triển các Mô hình Ngôn ngữ Nhỏ (SLM). Bạn nhìn thấy SLMs cạnh tranh hoặc bổ sung cho các mô hình lớn hơn như GPT-4 như thế nào?
SLMs và các mô hình lớn hơn như GPT-4 không nhất thiết phải cạnh tranh trực tiếp vì chúng phục vụ các nhu cầu khác nhau. Các mô hình lớn hơn mạnh mẽ về khả năng khái quát hóa và lý luận sâu nhưng đòi hỏi tài nguyên tính toán đáng kể. SLMs được thiết kế cho hiệu suất và triển khai trên các thiết bị cạnh có công suất thấp. Chúng bổ sung cho các mô hình lớn hơn bằng cách cho phép khả năng AI trong các ứng dụng thực tế mà các hạn chế về quyền lực tính toán, độ trễ và chi phí là quan trọng — chẳng hạn như trong các thiết bị IoT, thiết bị đeo và tự động hóa công nghiệp. Khi việc áp dụng AI tăng trưởng, chúng tôi nhìn thấy một cách tiếp cận kết hợp đang xuất hiện, nơi các mô hình lớn dựa trên đám mây xử lý các truy vấn phức tạp trong khi SLM cung cấp thông tin cục bộ thời gian thực tại rìa.
Những thách thức kỹ thuật lớn nhất trong việc làm cho các mô hình AI đủ hiệu quả cho các thiết bị cạnh có công suất thấp là gì?
Một trong những thách thức cơ bản là thiếu một sự hiểu biết lý thuyết hoàn chỉnh về cách các mô hình AI hoạt động. Không có nền tảng lý thuyết rõ ràng, các nỗ lực tối ưu hóa thường là kinh nghiệm, hạn chế các lợi ích về hiệu suất. Ngoài ra, việc học của con người xảy ra theo nhiều cách mà các mô hình học máy hiện tại không thể bắt đầy đủ, khiến cho việc thiết kế các mô hình bắt chước hiệu suất của con người trở nên khó khăn.
Từ góc độ kỹ thuật, việc đẩy AI hoạt động trong các hạn chế cực đoan đòi hỏi các giải pháp sáng tạo trong nén mô hình, định lượng và thiết kế kiến trúc. Một thách thức khác là tạo ra các mô hình AI có thể thích ứng với nhiều thiết bị và môi trường khác nhau trong khi duy trì độ mạnh mẽ. Khi AI ngày càng tương tác với thế giới vật lý thông qua IoT và cảm biến, nhu cầu về các giao diện tự nhiên và hiệu quả — như nhận dạng giọng nói, cử chỉ và các giao diện nhập khác không truyền thống — trở nên quan trọng. AI tại rìa là về việc định nghĩa lại cách người dùng tương tác với thế giới kỹ thuật số một cách mượt mà.
Bạn có thể chia sẻ một số chi tiết về công việc của Aizip với các công ty như Softbank?
Chúng tôi gần đây đã hợp tác với SoftBank trong một dự án nuôi trồng thủy sản đã giành được Giải thưởng Đổi mới CES — một giải thưởng mà chúng tôi đặc biệt tự hào. Chúng tôi đã phát triển một mô hình AI hiệu quả, dựa trên cạnh cho một ứng dụng đếm cá có thể được sử dụng bởi các nhà điều hành nuôi trồng thủy sản cho các trang trại cá. Giải pháp này giải quyết một thách thức quan trọng trong nuôi cá có thể tạo ra các vấn đề về tính bền vững, lãng phí thực phẩm và lợi nhuận. Ngành công nghiệp này đã chậm trong việc áp dụng AI như một giải pháp do sự không đáng tin cậy của nguồn điện và kết nối tại biển, khiến các giải pháp AI dựa trên đám mây trở nên không thực tế.
Để giải quyết vấn đề này, chúng tôi đã phát triển một giải pháp dựa trên thiết bị. Chúng tôi đã kết hợp các mô phỏng đồ họa máy tính của SoftBank cho dữ liệu đào tạo với các mô hình AI compact của chúng tôi và tạo ra một hệ thống rất chính xác chạy trên điện thoại thông minh. Trong các thử nghiệm thực địa dưới nước, nó đã đạt được tỷ lệ nhận dạng 95%, cải thiện đáng kể độ chính xác của việc đếm cá. Điều này cho phép nông dân tối ưu hóa điều kiện lưu trữ, xác định xem cá nên được vận chuyển sống hay đông lạnh và phát hiện các bệnh hoặc vấn đề sức khỏe tiềm ẩn trong cá.
Đột phá này cải thiện hiệu suất, giảm chi phí và giảm sự phụ thuộc vào lao động thủ công. Về mặt rộng hơn, nó cho thấy cách AI có thể tạo ra tác động thực tế đến các vấn đề thực tế.
Aizip đã giới thiệu một khái niệm “Nhà máy Nano AI”. Bạn có thể giải thích điều đó có nghĩa là gì và làm thế nào nó tự động hóa việc phát triển mô hình AI?
Nhà máy Nano AI là đường ống tự động hóa thiết kế AI nội bộ của chúng tôi, được lấy cảm hứng từ Tự động hóa Thiết kế Điện tử (EDA) trong sản xuất bán dẫn. Sự phát triển sớm trong bất kỳ lĩnh vực công nghệ mới nào liên quan đến rất nhiều công việc thủ công, vì vậy tự động hóa trở thành chìa khóa để tăng tốc tiến bộ và mở rộng các giải pháp khi lĩnh vực đó trưởng thành.
Thay vì chỉ sử dụng AI để tăng tốc các ngành công nghiệp khác, chúng tôi đã hỏi, AI có thể tăng tốc sự phát triển của chính nó không? Nhà máy Nano AI tự động hóa mọi giai đoạn của việc phát triển mô hình AI, từ xử lý dữ liệu đến thiết kế kiến trúc, chọn mô hình, đào tạo, định lượng, triển khai và gỡ lỗi. Bằng cách tận dụng AI để tối ưu hóa chính nó, chúng tôi đã có thể giảm thời gian phát triển cho các mô hình mới xuống trung bình là 10 lần. Trong một số trường hợp, lên đến 1.000 lần. Điều này có nghĩa là một mô hình từng mất hơn một năm để phát triển bây giờ có thể được tạo ra chỉ trong vài giờ.
Một lợi ích khác là tự động hóa này cũng đảm bảo rằng các giải pháp AI là khả thi về mặt kinh tế cho một loạt các ứng dụng, khiến việc triển khai AI thực tế trở nên dễ tiếp cận và có thể mở rộng hơn.
Bạn nhìn thấy vai trò của AI cạnh sẽ phát triển như thế nào trong năm năm tới?
AI cạnh hứa hẹn sẽ biến đổi cách chúng ta tương tác với công nghệ, tương tự như cách điện thoại thông minh đã cách mạng hóa việc truy cập internet. Hầu hết các ứng dụng AI ngày nay đều dựa trên đám mây, nhưng điều này đang bắt đầu thay đổi khi AI di chuyển gần hơn với các cảm biến và thiết bị tương tác với thế giới vật lý. Sự thay đổi này nhấn mạnh nhu cầu quan trọng về xử lý thời gian thực hiệu quả tại rìa.
Trong năm năm tới, chúng tôi dự đoán AI cạnh sẽ cho phép các tương tác con người-máy tính tự nhiên hơn, chẳng hạn như nhận dạng giọng nói, cử chỉ và các giao diện nhập khác, loại bỏ sự phụ thuộc vào các rào cản truyền thống như bàn phím và màn hình cảm ứng. AI cũng dự kiến sẽ trở nên nhúng sâu hơn vào các môi trường hàng ngày như nhà thông minh hoặc tự động hóa công nghiệp để cho phép ra quyết định thời gian thực với độ trễ tối thiểu.
Một xu hướng chính khác sẽ là sự tự chủ ngày càng tăng của các hệ thống AI cạnh. Các mô hình AI sẽ trở nên tự tối ưu hóa và thích ứng hơn nhờ vào sự tiến bộ trong tự động hóa kiểu Nhà máy Nano AI, vì vậy chúng sẽ giảm nhu cầu can thiệp của con người trong việc triển khai và bảo trì. Điều đó sẽ mở ra các cơ hội mới trên nhiều ngành công nghiệp như chăm sóc sức khỏe, ô tô và nông nghiệp.
Có những thiết bị AI nào sắp ra mắt từ Aizip mà bạn đặc biệt hào hứng?
Chúng tôi đang làm việc để mở rộng các trường hợp sử dụng cho các mô hình của mình trong các ngành công nghiệp mới và một trong những điều chúng tôi đặc biệt hào hứng là một Trợ lý AI cho lĩnh vực ô tô. Có một động lực ngày càng tăng, đặc biệt là giữa các nhà sản xuất ô tô Trung Quốc, để phát triển các trợ lý giọng nói được hỗ trợ bởi các mô hình ngôn ngữ cảm thấy giống như ChatGPT trong cabin. Thách thức là hầu hết các trợ lý hiện tại vẫn phụ thuộc vào đám mây, đặc biệt là cho các cuộc trò chuyện tự nhiên và linh hoạt. Chỉ các nhiệm vụ điều khiển và kiểm soát cơ bản (chẳng hạn như “bật điều hòa” hoặc “mở cốp”) thường chạy cục bộ trên xe, và bản chất cứng nhắc của các lệnh này có thể trở thành một sự phân tâm cho các tài xế nếu họ không nhớ chúng một cách chính xác.
Chúng tôi đã phát triển một loạt các Trợ lý AI siêu hiệu quả, được hỗ trợ bởi SLM, gọi là Gizmo, hiện đang được sử dụng trong một số ứng dụng cho các ngành công nghiệp khác nhau, và chúng tôi đang làm việc để triển khai chúng như các “đồng pilot” trong cabin xe. Gizmo được đào tạo để hiểu ý định một cách tinh tế hơn và khi phục vụ như một Trợ lý AI cho xe, có thể thực hiện các lệnh thông qua ngôn ngữ tự do. Ví dụ, trợ lý có thể điều chỉnh nhiệt độ cabin nếu tài xế chỉ nói “Tôi lạnh” hoặc phản hồi một lời nhắc như “Tôi đang lái xe đến Boston vào ngày mai, tôi nên mặc gì?” bằng cách kiểm tra thời tiết và đưa ra một gợi ý.
Vì chúng chạy cục bộ và không phụ thuộc vào đám mây, những trợ lý này tiếp tục hoạt động trong các khu vực chết hoặc khu vực có kết nối kém, chẳng hạn như đường hầm, núi hoặc đường nông thôn. Chúng cũng tăng cường sự an toàn bằng cách cung cấp cho tài xế quyền kiểm soát hoàn toàn bằng giọng nói mà không làm mất tập trung khỏi đường. Và, trên một lưu ý riêng và nhẹ nhàng hơn, tôi cũng nghĩ tôi sẽ đề cập rằng chúng tôi hiện đang trong quá trình đưa một mô hình karaoke AI cho xe và loa Bluetooth vào sản xuất, chạy cục bộ như đồng pilot. Về cơ bản, nó lấy bất kỳ đầu vào âm thanh nào và loại bỏ giọng nói của con người khỏi nó, cho phép bạn tạo một phiên bản karaoke của bất kỳ bài hát nào theo thời gian thực. Vì vậy, ngoài việc giúp khách hàng quản lý các điều khiển trong xe một cách an toàn hơn, chúng tôi cũng đang tìm cách làm cho trải nghiệm trở nên thú vị hơn.
Những loại giải pháp như vậy, những giải pháp tạo ra sự khác biệt có ý nghĩa trong cuộc sống hàng ngày của mọi người, là những giải pháp mà chúng tôi tự hào nhất.
Aizip phát triển các giải pháp AI siêu hiệu quả được tối ưu hóa cho các thiết bị cạnh, cung cấp các mô hình compact cho các ứng dụng tầm nhìn, âm thanh, thời gian loạt, ngôn ngữ và hợp nhất cảm biến. Các sản phẩm của công ty cho phép thực hiện các nhiệm vụ như nhận dạng khuôn mặt và đối tượng, phát hiện từ khóa, phân tích ECG/EEG và trò chuyện trên thiết bị, tất cả đều được hỗ trợ bởi TinyML. Thông qua nền tảng AI nanofactory của mình, Aizipline, công ty đẩy nhanh việc phát triển mô hình bằng cách sử dụng các mô hình nền tảng và mô hình sinh để thúc đẩy tự động hóa thiết kế AI hoàn toàn. Dòng mô hình ngôn ngữ nhỏ Gizmo của Aizip (300M–2B tham số) hỗ trợ một loạt các thiết bị, mang lại khả năng thông minh đến rìa.
Cảm ơn vì cuộc phỏng vấn tuyệt vời, những người đọc muốn tìm hiểu thêm nên truy cập Aizip.












