Phỏng vấn
Yaron Singer, CEO tại Robust Intelligence & Giáo sư Khoa học Máy tính tại Đại học Harvard – Loạt phỏng vấn

Yaron Singer là CEO của Robust Intelligence và Giáo sư Khoa học Máy tính và Toán học tại Harvard. Yaron được biết đến với những kết quả đột phá trong học máy, thuật toán và tối ưu hóa. Trước đây, Yaron đã làm việc tại Google Research và nhận bằng tiến sĩ từ UC Berkeley.
Điều gì ban đầu thu hút bạn đến lĩnh vực khoa học máy tính và học máy?
Hành trình của tôi bắt đầu với toán học, điều này dẫn tôi đến khoa học máy tính, và đặt tôi trên con đường đến học máy. Toán học ban đầu thu hút sự quan tâm của tôi vì hệ thống tiên đề của nó cho phép tôi tạo ra những thế giới mới. Với khoa học máy tính, tôi đã học về các chứng minh sự tồn tại, nhưng cũng về các thuật toán đằng sau chúng. Từ góc độ sáng tạo, khoa học máy tính là việc vẽ ranh giới giữa những gì chúng ta có thể và không thể làm.
Sự quan tâm của tôi đến học máy luôn được bắt nguồn từ sự quan tâm đến dữ liệu thực, gần như khía cạnh vật lý của nó. Lấy những thứ từ thế giới thực và xây dựng mô hình để tạo ra điều gì đó có ý nghĩa. Chúng ta có thể thiết kế một thế giới tốt hơn thông qua mô hình hóa có ý nghĩa. Vì vậy, toán học đã cung cấp cho tôi một nền tảng để chứng minh những điều, khoa học máy tính giúp tôi thấy những gì có thể và không thể làm, và học máy cho phép tôi xây dựng các khái niệm này trong thế giới.
Cho đến gần đây, bạn là Giáo sư Khoa học Máy tính và Toán học tại Đại học Harvard, những kết luận chính nào bạn đã rút ra từ kinh nghiệm này?
Kết luận lớn nhất của tôi từ việc là thành viên giảng dạy tại Harvard là nó phát triển sự thèm khát của bạn để làm những việc lớn. Harvard truyền thống có một đội ngũ giảng viên nhỏ, và kỳ vọng từ giảng viên theo dõi là giải quyết các vấn đề lớn và tạo ra các lĩnh vực mới. Bạn phải táo bạo. Điều này cuối cùng trở thành sự chuẩn bị tuyệt vời cho việc ra mắt một công ty khởi nghiệp tạo ra danh mục mới định nghĩa một không gian mới. Tôi không nhất thiết khuyên bạn nên đi qua quá trình theo dõi của Harvard trước – nhưng nếu bạn sống sót sau đó, việc xây dựng một công ty khởi nghiệp sẽ dễ dàng hơn.
Có thể bạn mô tả khoảnh khắc ‘aha’ khi bạn nhận ra rằng các hệ thống AI tinh vi dễ bị tổn thương bởi dữ liệu xấu, với một số ý nghĩa sâu xa?
Khi tôi là sinh viên nghiên cứu tại UC Berkeley, tôi đã dành một chút thời gian để làm một công ty khởi nghiệp xây dựng các mô hình học máy cho tiếp thị trong mạng xã hội. Đây là vào năm 2010. Chúng tôi đã có một lượng lớn dữ liệu từ mạng xã hội, và chúng tôi đã mã hóa tất cả các mô hình từ đầu. Các ý nghĩa tài chính cho các nhà bán lẻ là khá đáng kể, vì vậy chúng tôi đã theo dõi sát sao hiệu suất của các mô hình. Vì chúng tôi sử dụng dữ liệu từ mạng xã hội, có rất nhiều lỗi trong đầu vào, cũng như sự trôi dạt. Chúng tôi thấy rằng những lỗi nhỏ trong đầu vào dẫn đến những thay đổi lớn trong đầu ra của mô hình và có thể dẫn đến kết quả tài chính tồi tệ cho các nhà bán lẻ sử dụng sản phẩm.
Khi tôi chuyển sang làm việc trên Google+ (cho những người trong chúng ta nhớ), tôi đã thấy những hiệu ứng chính xác như vậy. Hơn nữa, trong các hệ thống như AdWords, những hệ thống này dự đoán khả năng người dùng nhấp vào một quảng cáo cho các từ khóa, chúng tôi nhận thấy rằng những lỗi nhỏ trong đầu vào của mô hình dẫn đến những dự đoán rất kém. Khi bạn chứng kiến vấn đề này ở quy mô của Google, bạn nhận ra rằng vấn đề này là phổ biến.
Những kinh nghiệm này đã định hình mạnh mẽ sự tập trung nghiên cứu của tôi, và tôi đã dành thời gian tại Harvard để điều tra lý do tại sao các mô hình AI mắc lỗi và, quan trọng hơn, cách thiết kế các thuật toán có thể ngăn mô hình mắc lỗi. Điều này, tất nhiên, đã dẫn đến nhiều khoảnh khắc ‘aha’ hơn và, cuối cùng, đến việc tạo ra Robust Intelligence.
Có thể bạn chia sẻ câu chuyện về sự ra đời của Robust Intelligence?
Robust Intelligence bắt đầu với nghiên cứu về một vấn đề lý thuyết ban đầu: những gì chúng ta có thể đảm bảo cho các quyết định được thực hiện bằng cách sử dụng các mô hình AI. Kojin là một sinh viên tại Harvard, và chúng tôi đã làm việc cùng nhau, ban đầu viết các bài báo nghiên cứu. Vì vậy, nó bắt đầu bằng việc viết các bài báo phác thảo những gì là có thể và không thể về mặt lý thuyết. Những kết quả này sau đó đã tiếp tục đến một chương trình để thiết kế các thuật toán và mô hình có khả năng chống lại sự thất bại của AI. Sau đó, chúng tôi xây dựng các hệ thống có thể chạy các thuật toán này trong thực tế. Sau đó, việc bắt đầu một công ty nơi các tổ chức có thể sử dụng một hệ thống như này là một bước tiếp theo tự nhiên.
Nhiều vấn đề mà Robust Intelligence giải quyết là lỗi im lặng, những gì là lỗi im lặng và điều gì khiến chúng trở nên nguy hiểm?
Trước khi đưa ra định nghĩa kỹ thuật về lỗi im lặng, đáng giá khi chúng ta bước lại và hiểu tại sao chúng ta nên quan tâm đến việc các mô hình AI mắc lỗi. Lý do chúng ta quan tâm đến việc các mô hình AI mắc lỗi là hậu quả của những lỗi này. Thế giới của chúng ta đang sử dụng AI để tự động hóa các quyết định quan trọng: ai sẽ nhận được một khoản vay kinh doanh và với lãi suất nào, ai sẽ nhận được bảo hiểm y tế và với mức phí nào, những khu vực nào cảnh sát nên tuần tra, ai là ứng cử viên hàng đầu cho một công việc, làm thế nào chúng ta nên tổ chức an ninh sân bay, v.v. Việc thực tế rằng các mô hình AI rất dễ mắc lỗi có nghĩa là khi chúng ta tự động hóa những quyết định quan trọng này, chúng ta sẽ thừa hưởng một lượng rủi ro lớn. Tại Robust Intelligence, chúng tôi gọi đây là “Rủi ro AI” và sứ mệnh của công ty chúng tôi là loại bỏ Rủi ro AI.
Lỗi im lặng là lỗi của mô hình AI nơi mô hình AI nhận đầu vào và tạo ra một dự đoán hoặc quyết định sai hoặc bị thiên vị như đầu ra. Vì vậy, trên bề mặt, mọi thứ đối với hệ thống đều ổn, trong đó mô hình AI đang làm những gì nó được yêu cầu làm từ góc độ chức năng. Nhưng dự đoán hoặc quyết định là sai. Những lỗi này là im lặng vì hệ thống không biết rằng có một lỗi. Điều này có thể tồi tệ hơn trường hợp mà mô hình AI không tạo ra đầu ra, vì nó có thể mất một thời gian dài để các tổ chức nhận ra rằng hệ thống AI của họ bị lỗi. Sau đó, Rủi ro AI trở thành Sự cố AI, điều này có thể có những hậu quả khôn lường.
Robust Intelligence đã thiết kế một Tường lửa AI, một ý tưởng từng được coi là không thể, tại sao đây lại là một thách thức kỹ thuật?
Một lý do Tường lửa AI là một thách thức là vì nó đi ngược lại với mô hình mà cộng đồng ML đã có. Mô hình trước đây của cộng đồng ML là để loại bỏ lỗi, một người cần phải cung cấp nhiều dữ liệu, bao gồm cả dữ liệu xấu, cho các mô hình. Bằng cách làm như vậy, các mô hình sẽ tự đào tạo và học cách tự sửa lỗi. Vấn đề với cách tiếp cận này là nó khiến độ chính xác của mô hình giảm đáng kể. Kết quả tốt nhất được biết đến với hình ảnh, ví dụ, khiến độ chính xác của mô hình giảm từ 98,5% xuống khoảng 37%.
Tường lửa AI cung cấp một giải pháp khác. Chúng tôi tách biệt vấn đề xác định một lỗi khỏi vai trò tạo ra một dự đoán, có nghĩa là tường lửa có thể tập trung vào một nhiệm vụ cụ thể: xác định xem một điểm dữ liệu sẽ tạo ra một dự đoán sai.
Điều này là một thách thức riêng vì sự khó khăn của việc đưa ra một dự đoán trên một điểm dữ liệu duy nhất. Có rất nhiều lý do tại sao các mô hình mắc lỗi, vì vậy việc xây dựng một công nghệ có thể dự đoán những lỗi này không phải là một nhiệm vụ dễ dàng. Chúng tôi rất may mắn khi có những kỹ sư như chúng tôi.
Làm thế nào hệ thống có thể giúp ngăn chặn sự thiên vị AI?
Sự thiên vị của mô hình đến từ sự chênh lệch giữa dữ liệu mà mô hình đã được đào tạo và dữ liệu mà nó đang sử dụng để đưa ra dự đoán. Quay lại Rủi ro AI, sự thiên vị là một vấn đề lớn được quy cho lỗi im lặng. Ví dụ, đây thường là một vấn đề với các dân số dưới đại diện. Một mô hình có thể có sự thiên vị vì nó đã xem ít dữ liệu từ dân số đó, điều này sẽ ảnh hưởng đáng kể đến hiệu suất của mô hình và độ chính xác của dự đoán. Tường lửa AI có thể cảnh báo các tổ chức về những sự không phù hợp của dữ liệu này và giúp mô hình đưa ra quyết định chính xác.
Đây là những rủi ro nào khác đối với các tổ chức mà Tường lửa AI giúp ngăn chặn?
Bất kỳ công ty nào sử dụng AI để tự động hóa quyết định, đặc biệt là quyết định quan trọng, tự động giới thiệu rủi ro. Dữ liệu xấu có thể là nhỏ như nhập một số không thay vì một số một và vẫn dẫn đến những hậu quả đáng kể. Cho dù rủi ro là dự đoán y tế không chính xác hay dự đoán sai về cho vay, Tường lửa AI giúp các tổ chức ngăn chặn rủi ro hoàn toàn.
Có điều gì khác mà bạn muốn chia sẻ về Robust Intelligence?
Robust Intelligence đang phát triển nhanh chóng và chúng tôi đang nhận được nhiều ứng viên xuất sắc cho các vị trí. Nhưng điều mà tôi thực sự muốn nhấn mạnh cho những người đang xem xét ứng tuyển là chất lượng quan trọng nhất mà chúng tôi tìm kiếm ở ứng viên là sự đam mê với sứ mệnh. Chúng tôi gặp nhiều ứng viên có kỹ thuật mạnh, vì vậy nó thực sự phụ thuộc vào việc liệu họ có thực sự đam mê về việc loại bỏ Rủi ro AI để làm thế giới trở thành một nơi an toàn và tốt hơn hay không.
Trong thế giới mà chúng ta đang hướng tới, nhiều quyết định hiện đang được thực hiện bởi con người sẽ được tự động hóa. Cho dù chúng ta có thích hay không, đó là một thực tế. Dữ rằng, tất cả chúng tôi tại Robust Intelligence muốn những quyết định tự động được thực hiện một cách có trách nhiệm. Vì vậy, bất kỳ ai phấn khích về việc tạo ra tác động, những người hiểu cách thức này có thể ảnh hưởng đến cuộc sống của mọi người, là ứng viên mà chúng tôi đang tìm kiếm để tham gia Robust Intelligence. Chúng tôi đang tìm kiếm sự đam mê đó. Chúng tôi đang tìm kiếm những người sẽ tạo ra công nghệ mà toàn thế giới sẽ sử dụng.
Cảm ơn bạn vì cuộc phỏng vấn tuyệt vời, tôi đã thích học về quan điểm của bạn về việc ngăn chặn sự thiên vị AI và về sự cần thiết của Tường lửa AI, những người đọc muốn tìm hiểu thêm nên truy cập Robust Intelligence.












