Kết nối với chúng tôi

Sử dụng AI có đạo đức không chỉ là điều đúng đắn cần làm mà còn là một hoạt động kinh doanh tốt

Lãnh đạo tư tưởng

Sử dụng AI có đạo đức không chỉ là điều đúng đắn cần làm mà còn là một hoạt động kinh doanh tốt

mm

Được phát hành

 on

Khi việc áp dụng AI tăng vọt và các tổ chức trong mọi ngành công nghiệp đều áp dụng các công cụ và ứng dụng dựa trên AI, thì không có gì ngạc nhiên khi tội phạm mạng đã tìm ra cách nhắm mục tiêu và khai thác các công cụ đó để phục vụ cho lợi ích của riêng chúng. Nhưng trong khi việc bảo vệ AI khỏi các cuộc tấn công mạng tiềm ẩn là rất quan trọng, thì vấn đề rủi ro AI còn vượt xa vấn đề bảo mật. Trên toàn cầu, các chính phủ đang bắt đầu quản lý cách thức phát triển và sử dụng AI—và các doanh nghiệp có thể phải chịu thiệt hại đáng kể về uy tín nếu bị phát hiện sử dụng AI theo cách không phù hợp. Các doanh nghiệp ngày nay đang khám phá ra rằng việc sử dụng AI theo cách có đạo đức và có trách nhiệm không chỉ là điều đúng đắn cần làm—mà còn rất quan trọng để xây dựng lòng tin, duy trì sự tuân thủ và thậm chí cải thiện chất lượng sản phẩm của họ.

Thực tế pháp lý xung quanh AI

Bối cảnh pháp lý đang thay đổi nhanh chóng nên là mối quan tâm nghiêm trọng đối với các nhà cung cấp giải pháp dựa trên AI. Ví dụ, Đạo luật AI của EU, được thông qua vào năm 2024, áp dụng cách tiếp cận dựa trên rủi ro đối với quy định về AI và coi các hệ thống tham gia vào các hoạt động như chấm điểm xã hội, hành vi thao túng và các hoạt động có khả năng phi đạo đức khác là "không thể chấp nhận được". Các hệ thống đó bị cấm hoàn toàn, trong khi các hệ thống AI "rủi ro cao" khác phải tuân theo các nghĩa vụ nghiêm ngặt hơn liên quan đến đánh giá rủi ro, chất lượng dữ liệu và tính minh bạch. Các hình phạt cho hành vi không tuân thủ rất nghiêm khắc: các công ty bị phát hiện sử dụng AI theo những cách không thể chấp nhận được có thể bị phạt tới 35 triệu euro hoặc 7% doanh thu hàng năm của họ.

Đạo luật AI của EU chỉ là một văn bản luật, nhưng nó minh họa rõ ràng cái giá đắt phải trả khi không đáp ứng được một số ngưỡng đạo đức nhất định. Các tiểu bang như California, New York, Colorado và các tiểu bang khác đều đã ban hành hướng dẫn AI của riêng họ, phần lớn tập trung vào các yếu tố như minh bạch, quyền riêng tư dữ liệu và ngăn ngừa thiên vị. Và mặc dù Liên hợp quốc thiếu các cơ chế thực thi mà các chính phủ được hưởng, nhưng điều đáng chú ý là tất cả 193 thành viên của Liên hợp quốc nhất trí khẳng định rằng “quyền con người và các quyền tự do cơ bản phải được tôn trọng, bảo vệ và thúc đẩy trong suốt vòng đời của các hệ thống trí tuệ nhân tạo” trong một nghị quyết năm 2024. Trên toàn thế giới, quyền con người và các cân nhắc về đạo đức ngày càng được quan tâm hàng đầu khi nói đến AI.

Tác động đến danh tiếng của đạo đức AI kém

Mặc dù các mối quan ngại về tuân thủ là rất thực tế, nhưng câu chuyện không dừng lại ở đó. Thực tế là, việc ưu tiên hành vi đạo đức có thể cải thiện cơ bản chất lượng của các giải pháp AI. Nếu một hệ thống AI có thành kiến ​​cố hữu, điều đó không tốt vì lý do đạo đức—nhưng nó cũng có nghĩa là sản phẩm không hoạt động tốt như mong đợi. Ví dụ, một số công nghệ nhận dạng khuôn mặt đã bị chỉ trích vì không xác định được khuôn mặt da ngăm đen cũng như khuôn mặt da sáng. Nếu giải pháp nhận dạng khuôn mặt không thể xác định được một phần đáng kể các đối tượng, điều đó gây ra vấn đề đạo đức nghiêm trọng—nhưng nó cũng có nghĩa là bản thân công nghệ không mang lại lợi ích như mong đợi và khách hàng sẽ không hài lòng. Giải quyết vấn đề thiên vị vừa làm giảm bớt các mối quan ngại về đạo đức vừa cải thiện chất lượng của chính sản phẩm.

Mối quan ngại về sự thiên vị, phân biệt đối xử và công bằng có thể khiến các nhà cung cấp gặp rắc rối với các cơ quan quản lý, nhưng chúng cũng làm xói mòn lòng tin của khách hàng. Tốt nhất là nên có một số "ranh giới đỏ" nhất định khi nói đến cách AI được sử dụng và nhà cung cấp nào sẽ hợp tác. Các nhà cung cấp AI liên quan đến thông tin sai lệch, giám sát hàng loạt, chấm điểm xã hội, chính phủ áp bức hoặc thậm chí chỉ là thiếu trách nhiệm chung có thể khiến khách hàng cảm thấy khó chịu và các nhà cung cấp cung cấp giải pháp dựa trên AI nên ghi nhớ điều đó khi cân nhắc hợp tác với ai. Minh bạch hầu như luôn tốt hơn—những người từ chối tiết lộ cách AI đang được sử dụng hoặc đối tác của họ là ai trông giống như họ đang che giấu điều gì đó, điều này thường không thúc đẩy tình cảm tích cực trên thị trường.

Xác định và giảm thiểu các lá cờ đỏ về đạo đức

Khách hàng ngày càng học cách tìm kiếm các dấu hiệu của hành vi AI phi đạo đức. Các nhà cung cấp hứa hẹn quá mức nhưng lại giải thích không đầy đủ về khả năng AI của họ có thể không trung thực về những gì giải pháp của họ thực sự có thể làm. Các hoạt động dữ liệu kém, chẳng hạn như thu thập dữ liệu quá mức hoặc không thể từ chối đào tạo mô hình AI, cũng có thể gây ra những dấu hiệu đáng ngờ. Ngày nay, các nhà cung cấp sử dụng AI trong các sản phẩm và dịch vụ của họ phải có khuôn khổ quản trị rõ ràng, công khai với các cơ chế giải trình. Những nhà cung cấp yêu cầu trọng tài cưỡng bức—hoặc tệ hơn là không cung cấp bất kỳ biện pháp khắc phục nào—có thể sẽ không phải là đối tác tốt. Điều tương tự cũng xảy ra với các nhà cung cấp không muốn hoặc không có khả năng cung cấp các số liệu mà họ đánh giá và giải quyết sự thiên vị trong các mô hình AI của mình. Khách hàng ngày nay không tin tưởng các giải pháp hộp đen—họ muốn biết khi nào và như thế nào AI được triển khai trong các giải pháp mà họ dựa vào.

Đối với các nhà cung cấp sử dụng AI trong sản phẩm của họ, điều quan trọng là phải truyền đạt cho khách hàng rằng các cân nhắc về mặt đạo đức là ưu tiên hàng đầu. Những người đào tạo mô hình AI của riêng họ cần có quy trình ngăn ngừa thiên vị mạnh mẽ và những người dựa vào các nhà cung cấp AI bên ngoài phải ưu tiên các đối tác có uy tín về hành vi công bằng. Điều quan trọng nữa là phải cung cấp cho khách hàng quyền lựa chọn: nhiều người vẫn không thoải mái khi tin tưởng dữ liệu của họ cho các giải pháp AI và việc cung cấp "quyền từ chối" cho các tính năng AI cho phép họ thử nghiệm theo tốc độ của riêng mình. Việc minh bạch về nguồn gốc của dữ liệu đào tạo cũng rất quan trọng. Một lần nữa, điều này là đạo đức, nhưng cũng là một hoạt động kinh doanh tốt - nếu khách hàng thấy rằng giải pháp mà họ dựa vào được đào tạo trên dữ liệu có bản quyền, điều đó sẽ khiến họ phải chịu hành động theo quy định hoặc pháp lý. Bằng cách công khai mọi thứ, các nhà cung cấp có thể xây dựng lòng tin với khách hàng và giúp họ tránh được những kết quả tiêu cực.

Ưu tiên đạo đức là quyết định kinh doanh thông minh

Niềm tin luôn là một phần quan trọng trong mọi mối quan hệ kinh doanh. AI không thay đổi điều đó—nhưng nó đã đưa ra những cân nhắc mới mà các nhà cung cấp cần giải quyết. Các mối quan tâm về đạo đức không phải lúc nào cũng được các nhà lãnh đạo doanh nghiệp quan tâm hàng đầu, nhưng khi nói đến AI, hành vi phi đạo đức có thể gây ra hậu quả nghiêm trọng—bao gồm tổn hại đến danh tiếng và các hành vi vi phạm quy định và tuân thủ tiềm ẩn. Tệ hơn nữa, việc thiếu chú ý đến các cân nhắc về đạo đức như giảm thiểu định kiến ​​có thể gây hại tích cực đến chất lượng sản phẩm và dịch vụ của nhà cung cấp. Khi việc áp dụng AI tiếp tục tăng tốc, các nhà cung cấp ngày càng nhận ra rằng việc ưu tiên hành vi đạo đức không chỉ là điều đúng đắn cần làm—mà còn là hoạt động kinh doanh tốt.

Nick Kathmann là CISO tại Cổng logic. Với hơn 20 năm kinh nghiệm trong lĩnh vực CNTT, Nick đã dành 18 năm giúp các doanh nghiệp ở mọi quy mô củng cố thế trận an ninh mạng của họ. Ông đã xây dựng và lãnh đạo một số nhóm cung cấp các giải pháp an ninh mạng cho các môi trường phức tạp, quan trọng đối với doanh nghiệp, từ SMB đến các công ty Fortune 100 có trụ sở tại cơ sở trong các trung tâm dữ liệu truyền thống hoặc trên đám mây. Ông cũng có kinh nghiệm trong nhiều ngành, bao gồm dịch vụ chăm sóc sức khỏe và tài chính.