Connect with us

Lãnh đạo tư tưởng

Mở Hộp Đen về Tính Giải Thích của Trí Tuệ Nhân Tạo

mm

Trí Tuệ Nhân Tạo (AI) đã trở thành một phần không thể thiếu trong gần như tất cả các khía cạnh của cuộc sống hàng ngày, từ các khuyến nghị được cá nhân hóa đến việc ra quyết định quan trọng. Điều đó là chắc chắn rằng AI sẽ tiếp tục phát triển, và cùng với đó, các mối đe dọa liên quan đến AI cũng sẽ trở nên tinh vi hơn. Khi các doanh nghiệp triển khai các biện pháp phòng thủ được AI hỗ trợ để đáp ứng với sự phức tạp ngày càng tăng, bước tiếp theo để thúc đẩy một văn hóa an ninh toàn diện trong tổ chức là nâng cao tính giải thích của AI.

Mặc dù các hệ thống này cung cấp các khả năng ấn tượng, chúng thường hoạt động như “hộp đen” – tạo ra kết quả mà không có cái nhìn rõ ràng về cách mô hình đến được kết luận mà nó đã đưa ra. Vấn đề của các hệ thống AI đưa ra các tuyên bố sai hoặc thực hiện các hành động sai có thể gây ra các vấn đề và gián đoạn kinh doanh tiềm năng. Khi các công ty mắc sai lầm do AI, khách hàng và người tiêu dùng của họ yêu cầu một lời giải thích và ngay sau đó, một giải pháp.

Nhưng điều gì là nguyên nhân? Thường thì dữ liệu xấu được sử dụng để đào tạo. Ví dụ, hầu hết các công nghệ GenAI công khai được đào tạo trên dữ liệu có sẵn trên Internet, thường không được xác minh và không chính xác. Mặc dù AI có thể tạo ra các phản hồi nhanh, nhưng độ chính xác của các phản hồi đó phụ thuộc vào chất lượng dữ liệu mà nó được đào tạo.

Các sai lầm của AI có thể xảy ra trong các trường hợp khác nhau, bao gồm việc tạo kịch bản với các lệnh không chính xác và các quyết định bảo mật sai, hoặc từ chối một nhân viên làm việc trên các hệ thống kinh doanh của họ vì các cáo buộc sai được đưa ra bởi hệ thống AI. Tất cả đều có khả năng gây ra các gián đoạn kinh doanh đáng kể. Đây chỉ là một trong nhiều lý do tại sao việc đảm bảo tính minh bạch là chìa khóa để xây dựng niềm tin vào các hệ thống AI.

Xây Dựng Niềm Tin

Chúng ta tồn tại trong một văn hóa nơi chúng ta đặt niềm tin vào tất cả các nguồn và thông tin. Nhưng đồng thời, chúng ta yêu cầu bằng chứng và xác thực ngày càng nhiều, cần phải liên tục xác thực tin tức, thông tin và tuyên bố. Khi nói đến AI, chúng ta đang đặt niềm tin vào một hệ thống có khả năng không chính xác. Quan trọng hơn, nó là không thể biết được liệu các hành động của hệ thống AI có chính xác hay không mà không có sự minh bạch về cơ sở mà các quyết định được đưa ra. Điều gì nếu hệ thống AI an ninh của bạn tắt máy, nhưng nó đã sai khi giải thích các dấu hiệu? Không có cái nhìn sâu sắc vào thông tin dẫn đến quyết định đó, không có cách nào để biết liệu nó đã đưa ra quyết định đúng hay không.

Mặc dù sự gián đoạn kinh doanh là khó chịu, một trong những mối quan ngại lớn hơn về việc sử dụng AI là quyền riêng tư của dữ liệu. Các hệ thống AI, như ChatGPT, là các mô hình học máy lấy nguồn từ dữ liệu mà nó nhận được. Do đó, nếu người dùng hoặc nhà phát triển vô tình cung cấp thông tin nhạy cảm, mô hình học máy có thể sử dụng dữ liệu đó để tạo ra phản hồi cho người dùng khác mà tiết lộ thông tin bí mật. Những sai lầm này có khả năng làm gián đoạn nghiêm trọng hiệu quả, lợi nhuận và quan trọng nhất là niềm tin của khách hàng. Các hệ thống AI được thiết kế để tăng hiệu quả và简化 quy trình, nhưng trong trường hợp cần phải xác thực liên tục vì đầu ra không thể tin cậy, các tổ chức không chỉ lãng phí thời gian mà còn mở cửa cho các lỗ hổng tiềm năng.

Đào Tạo Đội Ngũ để Sử Dụng AI có Trách Nhiệm

Để bảo vệ các tổ chức khỏi các rủi ro tiềm năng của việc sử dụng AI, các chuyên gia CNTT có trách nhiệm quan trọng là đào tạo đầy đủ cho các đồng nghiệp của họ để đảm bảo rằng AI được sử dụng một cách có trách nhiệm. Bằng cách này, họ giúp giữ cho tổ chức của mình an toàn khỏi các cuộc tấn công mạng đe dọa đến tính khả thi và lợi nhuận của họ.

Tuy nhiên, trước khi đào tạo đội ngũ, các nhà lãnh đạo CNTT cần phải thống nhất nội bộ để xác định các hệ thống AI nào sẽ phù hợp với tổ chức của họ. Việc vội vàng vào AI sẽ chỉ gây ra hậu quả sau này, vì vậy hãy bắt đầu từ từ, tập trung vào nhu cầu của tổ chức. Đảm bảo rằng các tiêu chuẩn và hệ thống được chọn phù hợp với ngăn xếp công nghệ hiện tại và mục tiêu của công ty, và các hệ thống AI đáp ứng các tiêu chuẩn bảo mật giống như bất kỳ nhà cung cấp nào khác mà họ chọn.

Một khi hệ thống đã được chọn, các chuyên gia CNTT có thể bắt đầu đưa đội ngũ của họ đến với các hệ thống này để đảm bảo thành công. Bắt đầu bằng cách sử dụng AI cho các nhiệm vụ nhỏ và xem nơi nó hoạt động tốt và nơi nó không, và học hỏi những gì là nguy cơ hoặc xác thực tiềm năng cần được áp dụng. Sau đó, giới thiệu việc sử dụng AI để tăng cường công việc, cho phép giải quyết tự phục vụ nhanh hơn, bao gồm cả các câu hỏi “làm thế nào” đơn giản. Từ đó, có thể dạy cách đặt các điều kiện và xác thực. Điều này rất có giá trị vì chúng ta sẽ bắt đầu thấy nhiều công việc trở nên về việc đặt các điều kiện và xác thực, và thậm chí đã thấy trong các công việc như sử dụng AI để hỗ trợ viết phần mềm.

Ngoài các bước thực hiện để đào tạo thành viên đội ngũ, việc khởi xướng và khuyến khích các cuộc thảo luận cũng rất quan trọng. Khuyến khích đối thoại cởi mở, dựa trên dữ liệu, về cách AI đang phục vụ nhu cầu của người dùng – liệu nó có giải quyết vấn đề một cách chính xác và nhanh hơn, chúng ta có đang thúc đẩy năng suất cho cả công ty và người dùng cuối cùng, liệu điểm số NPS của khách hàng có tăng lên nhờ các công cụ AI này? Hãy rõ ràng về lợi tức đầu tư (ROI) và giữ nó ở vị trí trung tâm. Sự giao tiếp rõ ràng sẽ cho phép nhận thức về việc sử dụng AI có trách nhiệm phát triển, và khi thành viên đội ngũ hiểu rõ hơn về cách các hệ thống AI hoạt động, họ sẽ có nhiều khả năng sử dụng chúng một cách có trách nhiệm.

Làm Thế Nào để Đạt được Tính Minh Bạch trong AI

Mặc dù việc đào tạo đội ngũ và tăng cường nhận thức là quan trọng, để đạt được tính minh bạch trong AI, điều quan trọng là phải có thêm ngữ cảnh xung quanh dữ liệu được sử dụng để đào tạo các mô hình, đảm bảo rằng chỉ có dữ liệu chất lượng được sử dụng. Hy vọng rằng, sẽ có một cách để xem hệ thống lý luận như thế nào để chúng ta có thể hoàn toàn tin tưởng nó. Nhưng cho đến lúc đó, chúng ta cần các hệ thống có thể làm việc với các xác thực và rào cản và chứng minh rằng chúng tuân thủ chúng.

Mặc dù tính minh bạch toàn diện sẽ không thể tránh khỏi đạt được trong thời gian , sự phát triển nhanh của AI sự sử dụng làm cho cần thiết để làm việc nhanh. Khi các mô hình AI tiếp tục tăng độ phức tạp, chúng có sức mạnh để tạo ra một sự khác biệt lớn cho nhân loại, nhưng hậu quả của các sai lầm của chúng cũng tăng lên. Do đó, việc hiểu cách các hệ thống này đưa ra quyết định của chúng là rất có giá trị và cần thiết để duy trì hiệu quả và đáng tin cậy. Bằng cách tập trung vào các hệ thống AI minh bạch, chúng ta có thể đảm bảo rằng công nghệ này hữu ích như nó được thiết kế để làm trong khi vẫn không bị thiên vị, đạo đức, hiệu quả và chính xác.

Manny Rivelo là CEO của ConnectWise, nơi ông cam kết thực hiện sứ mệnh của công ty trong việc trao quyền cho các nhà cung cấp dịch vụ quản lý (MSPs) với phần mềm, dịch vụ và cộng đồng không thể sánh được để đạt được tầm nhìn thành công tham vọng nhất. Là cựu CEO của Forcepoint, Rivelo đã lãnh đạo sự chuyển đổi của doanh nghiệp thành một người chơi lớn trong không gian an ninh mạng, thúc đẩy tăng trưởng và đổi mới trước những mối đe dọa mạng ngày càng phát triển. Trong suốt sự nghiệp của mình, Manny Rivelo đã tạo dựng được danh tiếng là một nhà lãnh đạo tập trung vào kết quả, người tạo ra các mô hình kinh doanh bền vững và thúc đẩy giá trị lâu dài trong một cảnh quan công nghệ thay đổi nhanh chóng.