Connect with us

Nora Petrova, Kỹ sư Học máy & Tư vấn Trí tuệ Nhân tạo tại Prolific – Loạt Phỏng vấn

Phỏng vấn

Nora Petrova, Kỹ sư Học máy & Tư vấn Trí tuệ Nhân tạo tại Prolific – Loạt Phỏng vấn

mm

Nora Petrova, là Kỹ sư Học máy & Tư vấn Trí tuệ Nhân tạo tại Prolific. Prolific được thành lập vào năm 2014 và đã có các tổ chức như Google, Đại học Stanford, Đại học Oxford, King’s College London và Ủy ban Châu Âu trong số khách hàng của mình, sử dụng mạng lưới các tham gia để thử nghiệm sản phẩm mới, đào tạo hệ thống trí tuệ nhân tạo trong các lĩnh vực như theo dõi mắt và xác định xem các ứng dụng trí tuệ nhân tạo hướng đến con người của họ có hoạt động như dự định hay không.

Có thể bạn chia sẻ một số thông tin về nền tảng của bạn tại Prolific và sự nghiệp cho đến nay? Điều gì đã thu hút bạn đến với Trí tuệ Nhân tạo?

Vai trò của tôi tại Prolific được chia sẻ giữa việc tư vấn về các trường hợp sử dụng Trí tuệ Nhân tạo và cơ hội, và là một Kỹ sư Học máy thực hành hơn. Tôi bắt đầu sự nghiệp của mình trong lĩnh vực Kỹ sư Phần mềm và đã dần chuyển sang Học máy. Tôi đã dành hầu hết 5 năm qua tập trung vào các trường hợp sử dụng và vấn đề của Xử lý Ngôn ngữ Tự nhiên.

Điều gì đã thu hút tôi đến với Trí tuệ Nhân tạo ban đầu là khả năng học hỏi từ dữ liệu và liên kết đến cách chúng ta, con người, học hỏi và cách bộ não của chúng ta được cấu trúc. Tôi nghĩ Học máy và Khoa học Thần kinh có thể bổ sung cho nhau và giúp chúng ta hiểu rõ hơn về cách xây dựng các hệ thống Trí tuệ Nhân tạo có khả năng điều hướng thế giới, thể hiện sự sáng tạo và mang lại giá trị cho xã hội.

Đây là một số vấn đề lớn nhất về thiên vị Trí tuệ Nhân tạo mà bạn biết?

Thiên vị là một phần固 có trong dữ liệu chúng ta đưa vào các mô hình Trí tuệ Nhân tạo và loại bỏ nó hoàn toàn là rất khó. Tuy nhiên, điều quan trọng là chúng ta phải nhận thức được các thiên vị trong dữ liệu và tìm cách giảm thiểu các loại thiên vị có hại trước khi chúng ta giao cho các mô hình thực hiện các nhiệm vụ quan trọng trong xã hội. Các vấn đề lớn nhất chúng ta đang đối mặt là các mô hình duy trì các khuôn mẫu có hại, thành kiến hệ thống và bất công trong xã hội. Chúng ta nên cẩn thận về cách các mô hình Trí tuệ Nhân tạo này sẽ được sử dụng và ảnh hưởng của chúng đến người dùng, và đảm bảo rằng chúng an toàn trước khi phê duyệt chúng cho các trường hợp sử dụng nhạy cảm.

Một số lĩnh vực nổi bật mà các mô hình Trí tuệ Nhân tạo đã thể hiện thiên vị có hại bao gồm, sự phân biệt đối xử với các nhóm bị đại diện thấp trong tuyển sinh trường học và đại học, và khuôn mẫu giới tính ảnh hưởng tiêu cực đến việc tuyển dụng phụ nữ. Không chỉ vậy, một thuật toán tư pháp hình sự đã được tìm thấy để dán nhãn các bị cáo da đen là “nguy cơ cao” với tốc độ gần gấp đôi so với những người da trắng ở Mỹ, trong khi công nghệ nhận dạng khuôn mặt vẫn phải đối mặt với tỷ lệ lỗi cao đối với các nhóm thiểu số do thiếu dữ liệu đào tạo đại diện.

Các ví dụ trên chỉ bao gồm một phần nhỏ của các thiên vị được thể hiện bởi các mô hình Trí tuệ Nhân tạo và chúng ta có thể dự đoán các vấn đề lớn hơn sẽ xuất hiện trong tương lai nếu chúng ta không tập trung vào việc giảm thiểu thiên vị ngay bây giờ. Điều quan trọng là phải nhớ rằng các mô hình Trí tuệ Nhân tạo học hỏi từ dữ liệu chứa các thiên vị này do quyết định của con người bị ảnh hưởng bởi thiên vị vô thức và không được kiểm soát. Trong nhiều trường hợp, việc dựa vào quyết định của con người có thể không loại bỏ được thiên vị. Thật sự giảm thiểu thiên vị sẽ liên quan đến việc hiểu cách chúng hiện diện trong dữ liệu chúng ta sử dụng để đào tạo mô hình, cách ly các yếu tố đóng góp vào dự đoán thiên vị, và quyết định tập thể về những gì chúng ta muốn dựa vào để đưa ra quyết định quan trọng. Phát triển một bộ tiêu chuẩn để chúng ta có thể đánh giá mô hình về an toàn trước khi chúng được sử dụng cho các trường hợp sử dụng nhạy cảm sẽ là một bước tiến quan trọng.

Ảo giác Trí tuệ Nhân tạo là một vấn đề lớn với bất kỳ loại Trí tuệ Nhân tạo tạo sinh nào. Bạn có thể thảo luận về cách con người trong vòng lặp (HITL) đào tạo có thể giảm thiểu những vấn đề này?

Ảo giác trong các mô hình Trí tuệ Nhân tạo là vấn đề trong các trường hợp sử dụng cụ thể của Trí tuệ Nhân tạo tạo sinh nhưng điều quan trọng là phải nhớ rằng chúng không phải là vấn đề tự nó. Trong một số trường hợp sử dụng sáng tạo của Trí tuệ Nhân tạo tạo sinh, ảo giác là điều mong muốn và góp phần tạo ra một phản hồi thú vị và sáng tạo hơn.

Chúng có thể gây vấn đề trong các trường hợp sử dụng mà sự phụ thuộc vào thông tin thực tế là cao. Ví dụ, trong chăm sóc sức khỏe, nơi ra quyết định mạnh mẽ là chìa khóa, cung cấp cho các chuyên gia chăm sóc sức khỏe thông tin thực tế đáng tin cậy là điều quan trọng.

HITL đề cập đến các hệ thống cho phép con người cung cấp phản hồi trực tiếp cho mô hình về các dự đoán dưới một mức độ tin cậy nhất định. Trong bối cảnh của ảo giác, HITL có thể được sử dụng để giúp mô hình học cách xác định mức độ chắc chắn mà chúng nên có cho các trường hợp sử dụng khác nhau trước khi đưa ra phản hồi. Các ngưỡng này sẽ khác nhau tùy thuộc vào trường hợp sử dụng và việc dạy cho mô hình về sự khác biệt trong độ nghiêm ngặt cần thiết để trả lời các câu hỏi từ các trường hợp sử dụng khác nhau sẽ là một bước quan trọng để giảm thiểu các loại ảo giác có vấn đề. Ví dụ, trong một trường hợp sử dụng pháp lý, con người có thể chứng minh cho các mô hình Trí tuệ Nhân tạo rằng kiểm tra thực tế là một bước cần thiết khi trả lời các câu hỏi dựa trên các tài liệu pháp lý phức tạp với nhiều điều khoản và điều kiện.

Làm thế nào các công nhân Trí tuệ Nhân tạo như người chú thích dữ liệu giúp giảm thiểu các vấn đề thiên vị tiềm năng?

Các công nhân Trí tuệ Nhân tạo có thể giúp đầu tiên và quan trọng nhất bằng cách xác định các thiên vị hiện diện trong dữ liệu. Một khi thiên vị đã được xác định, nó trở nên dễ dàng hơn để nghĩ ra các chiến lược giảm thiểu. Người chú thích dữ liệu cũng có thể giúp giảm thiểu thiên vị. Ví dụ, đối với các nhiệm vụ Xử lý Ngôn ngữ Tự nhiên, họ có thể giúp bằng cách cung cấp các cách diễn đạt thay thế cho các đoạn văn bản có vấn đề để giảm thiểu thiên vị trong ngôn ngữ. Ngoài ra, sự đa dạng trong các công nhân Trí tuệ Nhân tạo có thể giúp giảm thiểu các vấn đề về thiên vị trong việc gắn nhãn.

Làm thế nào bạn đảm bảo rằng các công nhân Trí tuệ Nhân tạo không vô tình đưa thiên vị của con người vào hệ thống Trí tuệ Nhân tạo?

Đây là một vấn đề phức tạp đòi hỏi sự xem xét cẩn thận. Loại bỏ thiên vị của con người là gần như không thể và các công nhân Trí tuệ Nhân tạo có thể vô tình đưa thiên vị của họ vào các mô hình Trí tuệ Nhân tạo, vì vậy điều quan trọng là phát triển các quy trình hướng dẫn công nhân đến các phương pháp hay nhất.

Một số bước có thể được thực hiện để giữ thiên vị của con người ở mức tối thiểu bao gồm:

  • Đào tạo toàn diện về thiên vị vô thức và cung cấp cho các công nhân Trí tuệ Nhân tạo các công cụ để xác định và quản lý thiên vị của họ trong quá trình gắn nhãn.
  • Danh sách kiểm tra nhắc nhở các công nhân Trí tuệ Nhân tạo xác minh phản hồi của họ trước khi gửi.
  • Chạy một đánh giá kiểm tra mức độ hiểu biết mà các công nhân Trí tuệ Nhân tạo có, nơi họ được hiển thị các ví dụ về phản hồi trên các loại thiên vị khác nhau, và được yêu cầu chọn phản hồi ít thiên vị nhất.

Các nhà quản lý trên toàn thế giới đang có ý định quản lý đầu ra Trí tuệ Nhân tạo, theo quan điểm của bạn, họ hiểu sai và hiểu đúng điều gì?

Điều quan trọng là phải bắt đầu bằng cách nói rằng đây là một vấn đề rất khó mà không ai đã tìm thấy giải pháp. Xã hội và Trí tuệ Nhân tạo sẽ cả hai tiến hóa và ảnh hưởng lẫn nhau theo những cách rất khó dự đoán. Một phần của chiến lược hiệu quả để tìm ra các thực hành quản lý Trí tuệ Nhân tạo mạnh mẽ là chú ý đến những gì đang xảy ra trong Trí tuệ Nhân tạo, cách mọi người phản ứng với nó và những ảnh hưởng nó có trên các ngành công nghiệp khác nhau.

Tôi nghĩ một chướng ngại vật quan trọng đối với việc quản lý Trí tuệ Nhân tạo hiệu quả là thiếu hiểu biết về những gì các mô hình Trí tuệ Nhân tạo có thể và không thể làm, và cách chúng hoạt động. Điều này, đến lượt, làm cho nó khó hơn để dự đoán chính xác các hậu quả mà những mô hình này sẽ có trên các ngành và phân khúc xã hội khác nhau. Một lĩnh vực khác đang thiếu là tư duy lãnh đạo về cách liên kết các mô hình Trí tuệ Nhân tạo với các giá trị của con người và an toàn trông như thế nào trong các điều khoản cụ thể hơn.

Các nhà quản lý đã tìm kiếm sự hợp tác với các chuyên gia trong lĩnh vực Trí tuệ Nhân tạo, đã cẩn thận không kìm hãm sự đổi mới với các quy tắc quá nghiêm ngặt xung quanh Trí tuệ Nhân tạo, và đã bắt đầu xem xét các hậu quả của Trí tuệ Nhân tạo về việc thay thế công việc, tất cả đều là những lĩnh vực quan trọng. Điều quan trọng là phải cẩn thận khi suy nghĩ của chúng ta về quản lý Trí tuệ Nhân tạo làm rõ theo thời gian và liên quan đến càng nhiều người càng tốt để tiếp cận vấn đề này theo cách dân chủ.

Làm thế nào các giải pháp của Prolific có thể giúp các doanh nghiệp giảm thiểu thiên vị Trí tuệ Nhân tạo và các vấn đề khác mà chúng ta đã thảo luận?

Việc thu thập dữ liệu cho các dự án Trí tuệ Nhân tạo chưa bao giờ là một quá trình được xem xét hoặc có chủ ý. Chúng ta đã từng thấy việc thu thập, ngoài nước và các phương pháp khác đang hoành hành. Tuy nhiên, cách chúng ta đào tạo Trí tuệ Nhân tạo là rất quan trọng và các mô hình thế hệ tiếp theo sẽ cần được xây dựng trên dữ liệu được thu thập có chủ ý, chất lượng cao, từ những người thực sự và từ những người bạn có liên hệ trực tiếp. Đây là nơi Prolific đang tạo ra một dấu ấn.

Các lĩnh vực khác, như thăm dò, nghiên cứu thị trường hoặc nghiên cứu khoa học đã học được điều này từ lâu. Khán giả bạn lấy mẫu từ có tác động lớn đến kết quả bạn nhận được. Trí tuệ Nhân tạo đang bắt đầu theo kịp, và chúng ta đang đến một ngã rẽ bây giờ.

Bây giờ là thời điểm để bắt đầu quan tâm đến việc sử dụng các mẫu tốt hơn và làm việc với các nhóm đại diện hơn cho đào tạo và tinh chỉnh Trí tuệ Nhân tạo. Cả hai đều quan trọng để phát triển các mô hình an toàn, không thiên vị và phù hợp.

Prolific có thể giúp cung cấp các công cụ phù hợp cho các doanh nghiệp để thực hiện các thí nghiệm Trí tuệ Nhân tạo một cách an toàn và thu thập dữ liệu từ các tham gia mà thiên vị được kiểm tra và giảm thiểu trên đường đi. Chúng tôi có thể giúp cung cấp hướng dẫn về các phương pháp hay nhất xung quanh thu thập dữ liệu, lựa chọn, bồi thường và đối xử công bằng với các tham gia.

Quan điểm của bạn về tính minh bạch Trí tuệ Nhân tạo là gì, người dùng có nên có thể xem dữ liệu mà một thuật toán Trí tuệ Nhân tạo được đào tạo không?

Tôi nghĩ có cả ưu và nhược điểm của tính minh bạch và một sự cân bằng tốt chưa được tìm thấy. Các công ty đang giữ lại thông tin về dữ liệu họ đã sử dụng để đào tạo các mô hình Trí tuệ Nhân tạo của mình do sợ bị kiện tụng. Những người khác đã làm việc để làm cho các mô hình Trí tuệ Nhân tạo của họ có sẵn công khai và đã phát hành tất cả thông tin về dữ liệu họ đã sử dụng. Tính minh bạch đầy đủ mở ra nhiều cơ hội để khai thác các điểm yếu của những mô hình này. Bí mật hoàn toàn không giúp xây dựng niềm tin và liên quan đến xã hội trong việc xây dựng Trí tuệ Nhân tạo an toàn. Một điểm trung gian tốt sẽ cung cấp đủ tính minh bạch để khiến chúng ta tin rằng các mô hình Trí tuệ Nhân tạo đã được đào tạo trên dữ liệu chất lượng tốt, liên quan mà chúng ta đã đồng ý. Chúng ta cần phải chú ý đến cách Trí tuệ Nhân tạo đang ảnh hưởng đến các ngành công nghiệp khác nhau và mở các cuộc đối thoại với các bên liên quan và đảm bảo rằng chúng ta phát triển các phương pháp hoạt động cho mọi người.

Tôi cũng nghĩ rằng điều quan trọng là phải xem xét những gì người dùng sẽ tìm thấy thỏa mãn về tính giải thích được. Nếu họ muốn hiểu tại sao một mô hình đang tạo ra một phản hồi nhất định, việc cung cấp cho họ dữ liệu thô mà mô hình được đào tạo trên nó có thể không giúp trả lời câu hỏi của họ. Do đó, xây dựng các công cụ giải thích và giải thích tốt là quan trọng.

Nghiên cứu về sự phù hợp Trí tuệ Nhân tạo nhằm hướng các hệ thống Trí tuệ Nhân tạo đến các mục tiêu, sở thích hoặc nguyên tắc đạo đức của con người. Bạn có thể thảo luận về cách các công nhân Trí tuệ Nhân tạo được đào tạo và cách này được sử dụng để đảm bảo Trí tuệ Nhân tạo được phù hợp tốt nhất có thể?

Đây là một lĩnh vực nghiên cứu đang hoạt động và vẫn chưa có sự đồng thuận về những chiến lược chúng ta nên sử dụng để phù hợp các mô hình Trí tuệ Nhân tạo với các giá trị của con người hoặc thậm chí là tập hợp giá trị nào chúng ta nên phù hợp với chúng.

Các công nhân Trí tuệ Nhân tạo thường được yêu cầu đại diện chân thực cho sở thích của họ và trả lời các câu hỏi về sở thích của họ một cách trung thực đồng thời tuân thủ các nguyên tắc xung quanh an toàn, không thiên vị, vô hại và hữu ích.

Về việc phù hợp với các mục tiêu, nguyên tắc đạo đức hoặc giá trị, có nhiều cách tiếp cận có vẻ đầy hứa hẹn. Một ví dụ đáng chú ý là công việc của Viện Đối齐 Ý nghĩa về Tinh chỉnh Dân chủ. Có một bài đăng giới thiệu ý tưởng tại đây.

Cảm ơn vì cuộc phỏng vấn tuyệt vời và vì đã chia sẻ quan điểm của bạn về thiên vị Trí tuệ Nhân tạo, những người đọc muốn tìm hiểu thêm nên truy cập Prolific.

Antoine là một nhà lãnh đạo có tầm nhìn và là đối tác sáng lập của Unite.AI, được thúc đẩy bởi một niềm đam mê không ngừng nghỉ để định hình và thúc đẩy tương lai của AI và robot. Là một doanh nhân liên tục, ông tin rằng AI sẽ gây ra sự gián đoạn cho xã hội giống như điện, và thường bị bắt gặp nói về tiềm năng của các công nghệ gây gián đoạn và AGI.
Như một futurist, ông dành để khám phá cách những đổi mới này sẽ định hình thế giới của chúng ta. Ngoài ra, ông là người sáng lập của Securities.io, một nền tảng tập trung vào đầu tư vào các công nghệ tiên tiến đang định nghĩa lại tương lai và thay đổi toàn bộ lĩnh vực.