sơ khai Sự thiên vị của con người làm suy yếu các giải pháp hỗ trợ AI như thế nào - Unite.AI
Kết nối với chúng tôi

Lãnh đạo tư tưởng

Sự thiên vị của con người làm suy yếu các giải pháp hỗ trợ AI như thế nào

mm

Được phát hành

 on

Tháng XNUMX năm ngoái, các nhà lãnh đạo thế giới như Elon Musk, Mark Zuckerberg và Sam Altman, CEO của OpenAI, tụ tập ở Washington DC với mục đích thảo luận, một mặt, làm thế nào khu vực công và tư nhân có thể làm việc cùng nhau để tận dụng công nghệ này vì lợi ích lớn hơn, mặt khác, để giải quyết quy định, một vấn đề vẫn được đặt lên hàng đầu trong cuộc trò chuyện xung quanh AI.

Cả hai cuộc trò chuyện thường dẫn đến cùng một nơi. Người ta ngày càng nhấn mạnh đến việc liệu chúng ta có thể làm cho AI trở nên có đạo đức hơn hay không, đánh giá AI như thể nó là một con người khác đang bị nghi ngờ về đạo đức. Tuy nhiên, AI đạo đức có nghĩa là gì? DeepMind, phòng thí nghiệm nghiên cứu thuộc sở hữu của Google tập trung vào AI, gần đây đã xuất bản một nghiên cứu trong đó họ đề xuất một cấu trúc ba tầng để đánh giá rủi ro của AI, bao gồm cả rủi ro xã hội và đạo đức. Khung này bao gồm khả năng, sự tương tác của con người và tác động mang tính hệ thống, đồng thời kết luận rằng bối cảnh là chìa khóa để xác định xem hệ thống AI có an toàn hay không.

Một trong những hệ thống bị chỉ trích là ChatGPT, đã bị cấm ở 15 quốc gia, ngay cả khi một số lệnh cấm đó đã được đảo ngược. Với hơn 100 triệu người dùng, ChatGPT là một trong những LLM thành công nhất và nó thường bị cáo buộc là thiên vị. Hãy xem xét nghiên cứu của DeepMind, hãy kết hợp bối cảnh ở đây. Thành kiến, trong ngữ cảnh này, có nghĩa là sự tồn tại của các quan điểm không công bằng, thành kiến ​​hoặc bị bóp méo trong văn bản do các mô hình như ChatGPT tạo ra. Điều này có thể xảy ra theo nhiều cách khác nhau – thành kiến ​​về chủng tộc, thành kiến ​​về giới tính, thành kiến ​​về chính trị, v.v.

Cuối cùng, những thành kiến ​​này có thể gây bất lợi cho chính AI, cản trở khả năng chúng ta có thể khai thác toàn bộ tiềm năng của công nghệ này. Gần đây nghiên cứu từ Đại học Stanford đã xác nhận rằng các LLM như ChatGPT đang có dấu hiệu suy giảm về khả năng cung cấp phản hồi đáng tin cậy, không thiên vị và chính xác, điều này cuối cùng là trở ngại cho việc sử dụng AI hiệu quả của chúng tôi.

Vấn đề cốt lõi của vấn đề này là làm thế nào những thành kiến ​​của con người được chuyển sang AI, vì chúng đã ăn sâu vào dữ liệu được sử dụng để phát triển các mô hình. Tuy nhiên, đây là một vấn đề sâu sắc hơn nó có vẻ.

Nguyên nhân của sự thiên vị

Thật dễ dàng để xác định nguyên nhân đầu tiên của sự thiên vị này. Dữ liệu mà mô hình học được thường chứa đầy các khuôn mẫu hoặc những định kiến ​​tồn tại từ trước đã giúp định hình dữ liệu đó ngay từ đầu, vì vậy AI vô tình duy trì những thành kiến ​​​​đó bởi vì đó là điều nó biết cách làm.

Tuy nhiên, nguyên nhân thứ hai phức tạp và phản trực giác hơn rất nhiều, đồng thời gây căng thẳng cho một số nỗ lực đang được thực hiện nhằm làm cho AI trở nên có đạo đức và an toàn hơn. Tất nhiên, có một số trường hợp rõ ràng mà AI có thể gây hại một cách vô thức. Ví dụ: nếu ai đó hỏi AI: “Làm cách nào tôi có thể chế tạo bom?” và mô hình đưa ra câu trả lời thì nó đang góp phần tạo ra tác hại. Mặt trái của nó là khi AI bị hạn chế – ngay cả khi nguyên nhân chính đáng – chúng ta đang ngăn cản khả năng học hỏi của nó. Các ràng buộc do con người đặt ra hạn chế khả năng học hỏi của AI từ phạm vi dữ liệu rộng hơn, điều này càng ngăn cản AI cung cấp thông tin hữu ích trong bối cảnh không gây hại.

Ngoài ra, hãy nhớ rằng nhiều hạn chế trong số này cũng mang tính thiên vị vì chúng bắt nguồn từ con người. Vì vậy, trong khi tất cả chúng ta đều có thể đồng ý rằng “Làm cách nào tôi có thể tạo ra một quả bom?” có thể dẫn đến một kết quả có thể gây tử vong, các truy vấn khác có thể được coi là nhạy cảm lại chủ quan hơn nhiều. Do đó, nếu chúng tôi hạn chế sự phát triển của AI theo các ngành dọc đó, thì chúng tôi đang hạn chế tiến bộ và chúng tôi đang khuyến khích việc sử dụng AI chỉ cho các mục đích được những người đưa ra các quy định về mô hình LLM cho là chấp nhận được.

Không có khả năng dự đoán hậu quả

Chúng tôi chưa hoàn toàn hiểu được hậu quả của việc đưa ra các hạn chế đối với LLM. Do đó, chúng tôi có thể đang gây ra nhiều thiệt hại cho thuật toán hơn chúng tôi nhận ra. Với số lượng tham số cực kỳ cao liên quan đến các mô hình như GPT, với các công cụ chúng tôi có hiện nay, không thể dự đoán được tác động và theo quan điểm của tôi, sẽ mất nhiều thời gian hơn để hiểu tác động là gì hơn là thời gian cần thiết để tự đào tạo mạng lưới thần kinh.

Do đó, bằng cách đặt ra những ràng buộc này, chúng ta có thể vô tình khiến mô hình phát triển các hành vi hoặc thành kiến ​​không mong muốn. Điều này cũng là do các mô hình AI thường là các hệ thống phức tạp có nhiều tham số, có nghĩa là nếu chúng ta thay đổi một tham số – ví dụ: bằng cách đưa ra một ràng buộc – thì chúng ta đang gây ra hiệu ứng lan tỏa khắp toàn bộ mô hình theo những cách mà chúng ta không thể dự đoán được.

Khó khăn trong việc đánh giá “đạo đức” của AI

Trên thực tế, việc đánh giá liệu AI có đạo đức hay không là không khả thi, bởi vì AI không phải là người hành động với một mục đích cụ thể. AI là một Mô hình Ngôn ngữ Lớn, về bản chất, không thể ít nhiều có tính đạo đức. Như nghiên cứu của DeepMind đã tiết lộ, điều quan trọng là bối cảnh nó được sử dụng và điều này đo lường đạo đức của con người đằng sau AI chứ không phải của chính AI. Thật là ảo tưởng khi tin rằng chúng ta có thể đánh giá AI như thể nó có la bàn đạo đức.

Một giải pháp tiềm năng đang được chào mời là một mô hình có thể giúp AI đưa ra các quyết định có đạo đức. Tuy nhiên, thực tế là chúng ta không biết mô hình toán học về đạo đức này có thể hoạt động như thế nào. Vậy nếu chúng ta không hiểu nó, làm sao chúng ta có thể xây dựng được nó? Có rất nhiều tính chủ quan của con người trong đạo đức, điều này khiến cho nhiệm vụ định lượng nó trở nên rất phức tạp.

Làm thế nào để giải quyết vấn đề này?

Dựa trên những điểm đã nói ở trên, chúng ta thực sự không thể nói về việc AI có đạo đức hay không, bởi vì mọi giả định được coi là phi đạo đức đều là một biến thể của thành kiến ​​​​của con người có trong dữ liệu và là công cụ mà con người sử dụng cho mục đích riêng của họ. Ngoài ra, vẫn còn nhiều điều chưa biết về mặt khoa học, chẳng hạn như tác động và tác hại tiềm tàng mà chúng ta có thể gây ra đối với các thuật toán AI bằng cách đặt ra các ràng buộc đối với chúng.

Vì vậy, có thể nói việc hạn chế sự phát triển của AI không phải là giải pháp khả thi. Như một số nghiên cứu mà tôi đã đề cập đã chỉ ra, những hạn chế này một phần là nguyên nhân dẫn đến sự xuống cấp của LLM.

Đã nói điều này, chúng ta có thể làm gì về nó?

Theo quan điểm của tôi, giải pháp nằm ở sự minh bạch. Tôi tin rằng nếu chúng ta khôi phục mô hình nguồn mở vốn phổ biến trong quá trình phát triển AI, chúng ta có thể hợp tác cùng nhau để xây dựng các LLM tốt hơn có thể được trang bị để giảm bớt những lo ngại về đạo đức của chúng ta. Mặt khác, rất khó để kiểm tra đầy đủ bất cứ điều gì đang được thực hiện sau cánh cửa đóng kín.

Một sáng kiến ​​tuyệt vời trong vấn đề này là Chỉ số minh bạch của mô hình cơ sở, được Stanford HAI (viết tắt của Trí tuệ nhân tạo lấy con người làm trung tâm) công bố gần đây, nhằm đánh giá liệu các nhà phát triển của mười mô hình AI được sử dụng rộng rãi nhất có tiết lộ đủ thông tin về công việc của họ và cách hệ thống của họ đang được sử dụng hay không. Điều này bao gồm việc tiết lộ các quan hệ đối tác và nhà phát triển bên thứ ba, cũng như cách sử dụng dữ liệu cá nhân. Điều đáng chú ý là không có mô hình nào được đánh giá nhận được điểm cao, điều này cho thấy vấn đề thực sự.

Suy cho cùng, AI không gì khác hơn là các Mô hình Ngôn ngữ Lớn, và việc chúng mở và có thể được thử nghiệm, thay vì bị định hướng theo một hướng nhất định, là điều sẽ cho phép chúng ta thực hiện những khám phá đột phá mới trong mọi lĩnh vực khoa học. cánh đồng. Tuy nhiên, nếu không có sự minh bạch, sẽ rất khó để thiết kế các mô hình thực sự hoạt động vì lợi ích của nhân loại và biết được mức độ thiệt hại mà các mô hình này có thể gây ra nếu không được khai thác thỏa đáng.

Ivan Nechaev là Nhà đầu tư thiên thần và Cố vấn Mediatech với hơn 60 giao dịch và hơn 15 lần thoát thành công. Ông đầu tư vào các công ty khởi nghiệp MediaTech, AI, Telecom, BioTech, EdTech và SaaS giai đoạn đầu và phục vụ trong hội đồng quản trị của Brainify.ai và TrueClick.ai. Nechaev cũng là Phó chủ tịch tập đoàn công nghiệp Mỹ Truy cập các ngành với hơn 35 tỷ USD giá trị và đầu tư vào hơn 30 quốc gia.