Phỏng vấn
Navrina Singh, Giám đốc điều hành và Người sáng lập Credo AI – Loạt bài phỏng vấn

Navrina Singh là Giám đốc điều hành và Người sáng lập của trí tuệ nhân tạo, một công ty thiết kế nền tảng SaaS quản trị AI toàn diện đầu tiên cho phép các công ty và cá nhân hiểu rõ hơn và cung cấp AI đáng tin cậy và có đạo đức, đi trước các quy định và chính sách mới, đồng thời tạo hồ sơ AI có thể kiểm tra và minh bạch trong toàn tổ chức. Công ty đã hoạt động lén lút và âm thầm xây dựng một danh mục khách hàng ấn tượng bao gồm một trong những nhà thầu chính phủ và công ty dịch vụ tài chính lớn nhất thế giới, cùng với các thương hiệu khác trong danh sách Fortune 100.
Bạn lớn lên ở một thị trấn nhỏ ở Ấn Độ với khởi đầu khiêm tốn, làm thế nào bạn thấy mình bị thu hút bởi kỹ thuật và lĩnh vực AI?
Tôi xuất thân từ một gia đình trung lưu; bố tôi đã ở trong quân đội trong bốn thập kỷ và mẹ tôi là một giáo viên đã trở thành nhà thiết kế thời trang. Ngay từ khi còn nhỏ, họ luôn khuyến khích tôi tò mò, yêu thích khám phá khoa học và cung cấp cho tôi một nơi an toàn để khám phá “điều gì sẽ xảy ra nếu như”.
Khi tôi lớn lên ở Ấn Độ, phụ nữ không có nhiều cơ hội như nam giới. Rất nhiều quyết định đã được đưa ra cho một cô gái, dựa trên những gì được xã hội chấp nhận. Cách duy nhất để thoát khỏi và mang lại cuộc sống tốt đẹp cho gia đình bạn là thông qua giáo dục.
Sau khi tốt nghiệp trung học, tôi sở hữu chiếc máy tính đầu tiên, nó là cửa sổ nhìn ra thế giới của tôi. Tôi thực sự đam mê phần cứng và đã dành hàng giờ trực tuyến để học cách tháo rời bo mạch chủ, xây dựng các ứng dụng rô-bốt, học cách viết mã, sửa chữa điện trong nhà (yike!) và hơn thế nữa. Kỹ thuật trở thành không gian an toàn của tôi, nơi tôi có thể thử nghiệm, khám phá, xây dựng và trải nghiệm một thế giới mà tôi muốn trở thành một phần trong đó thông qua các phát minh của mình. Tôi đã được truyền cảm hứng và phấn khích về cách công nghệ có thể trở thành một công cụ mạnh mẽ để tác động đến sự thay đổi, đặc biệt là đối với phụ nữ.
Lớn lên, phương tiện của tôi bị hạn chế, nhưng khả năng thì không. Tôi luôn mơ ước được đến Hoa Kỳ để xây dựng một nền tảng công nghệ vững chắc hơn nhằm giải quyết những thách thức lớn nhất mà nhân loại đang phải đối mặt. Tôi nhập cư vào đây vào năm 2001 để tiếp tục hành trình kỹ sư của mình tại Đại học Wisconsin Madison.
Trong gần hai thập kỷ làm kỹ sư, tôi có vinh dự được làm việc trên nhiều công nghệ tiên tiến, từ di động đến thực tế tăng cường.
Năm 2011, tôi bắt đầu khám phá Trí tuệ nhân tạo để xây dựng các doanh nghiệp mới nổi tại Qualcomm. Tôi cũng đã dành thời gian xây dựng các doanh nghiệp và ứng dụng về AI thông qua lời nói, tầm nhìn và NLP tại Microsoft và Qualcomm trong thập kỷ qua. Khi tôi tìm hiểu thêm về AI và học máy, tôi thấy rõ rằng công nghệ tiên tiến này sẽ làm thay đổi cuộc sống của chúng ta một cách ồ ạt ngoài những gì chúng ta có thể tưởng tượng.
Việc xây dựng Trí tuệ nhân tạo ở quy mô doanh nghiệp cũng khiến tôi nhận ra rằng công nghệ này có thể gây hại và gây hại cho con người cũng như cộng đồng của chúng ta như thế nào nếu không được kiểm soát. Chúng ta, với tư cách là những người lãnh đạo, phải chịu trách nhiệm cao nhất về những công nghệ mà chúng ta đang xây dựng. Chúng ta phải chủ động trong việc tối đa hóa lợi ích của nó cho nhân loại và giảm thiểu rủi ro của nó. Xét cho cùng “Những gì chúng tôi tạo ra, tạo nên chúng tôi”. Vì vậy, việc xây dựng một cách có trách nhiệm là rất quan trọng, điều này đã truyền cảm hứng cho giai đoạn tiếp theo trong sự nghiệp xây dựng quản trị AI của tôi.
Lần đầu tiên bạn bắt đầu suy nghĩ nghiêm túc về quản trị AI là khi nào?
Trong khi tôi là người đứng đầu bộ phận đổi mới tại Qualcomm, chúng tôi đã khám phá những khả năng mà AI có thể mang lại cho các doanh nghiệp mới nổi của chúng tôi. Công việc ban đầu của chúng tôi tập trung vào các robot cộng tác được sử dụng trong chuỗi cung ứng. Đây là lần đầu tiên tôi tiếp xúc với những rủi ro “thực sự” của AI, đặc biệt là liên quan đến sự an toàn về thể chất của những người đang vận hành cùng với các hệ thống rô-bốt này.
Trong thời gian này, chúng tôi đã dành thời gian đáng kể cho các công ty khởi nghiệp, chẳng hạn như Soul Machines, tìm hiểu các trường hợp sử dụng mới và tìm cách hợp tác với họ để đẩy nhanh công việc của chúng tôi. Soul Machines đã phát hành một phiên bản mới của hình đại diện con của họ, "Baby X". Quan sát em bé được hỗ trợ bởi mạng lưới thần kinh này, tích cực học hỏi từ thế giới xung quanh, khiến tôi phải dừng lại và suy ngẫm về những hậu quả không mong muốn của công nghệ này. Con gái Ziya của tôi được sinh ra cùng thời điểm và chúng tôi trìu mến đặt biệt danh cho nó là Bé “Z” theo tên Bé “X” của Soul Machines. Tôi đã nói về điều này khá nhiều kể cả tại Phụ nữ trong bài phát biểu quan trọng về sản phẩm năm 2019.
Hành trình học tập của Baby X và Baby Z giống nhau đến kỳ lạ! Khi Ziya lớn lên, chúng tôi đã cung cấp cho cô ấy vốn từ vựng ban đầu và các công cụ để học. Theo thời gian, cô ấy bắt đầu hiểu thế giới và tự mình sắp xếp mọi thứ lại với nhau. Baby X, em bé mạng lưới thần kinh, cũng học hỏi tương tự thông qua cảm biến hình ảnh và nhận dạng giọng nói, đồng thời nhanh chóng xây dựng hiểu biết sâu sắc về thế giới loài người.
Những khoảnh khắc AI ban đầu này cho tôi thấy rõ rằng điều quan trọng là phải tìm cách quản lý rủi ro và đặt các biện pháp bảo vệ hiệu quả xung quanh công nghệ mạnh mẽ này để đảm bảo nó được triển khai lâu dài.
Bạn có thể chia sẻ câu chuyện nguồn gốc đằng sau Credo AI không?
Sau Qualcomm, tôi được tuyển dụng để lãnh đạo việc thương mại hóa các công nghệ AI tại Microsoft trong nhóm phát triển kinh doanh và sau đó là trong nhóm sản phẩm. Trong nhiệm kỳ của mình, tôi đã may mắn được làm việc trên nhiều công nghệ AI với các ứng dụng trong các trường hợp sử dụng từ AI đàm thoại đến trí thông minh hợp đồng và từ kiểm tra trực quan đến khám phá sản phẩm hỗ trợ giọng nói.
Tuy nhiên, hạt giống quản trị AI được gieo trồng tại Qualcomm vẫn tiếp tục phát triển khi tôi tiếp tục chứng kiến “sự thiếu giám sát” ngày càng tăng trong quá trình phát triển các công nghệ Trí tuệ nhân tạo. Với tư cách là nhà lãnh đạo sản phẩm làm việc với nhóm kỹ thuật và khoa học dữ liệu, chúng tôi có động lực xây dựng một ứng dụng AI hiệu suất cao được hỗ trợ bởi máy học và triển khai ứng dụng đó một cách nhanh chóng trên thị trường.
Chúng tôi coi việc tuân thủ và quản trị là hoạt động kiểm tra cổng làm chậm tốc độ đổi mới. Tuy nhiên, mối lo ngại ngày càng tăng của tôi về sự thiếu hụt quản trị giữa các chuyên gia kỹ thuật và giám sát về rủi ro, tuân thủ, kiểm toán đã thúc đẩy tôi tiếp tục khám phá những thách thức trong việc thực hiện quản trị AI.
Tất cả các câu hỏi chưa được trả lời về quản trị AI đã thôi thúc tôi tìm kiếm câu trả lời. Vì vậy, tôi bắt đầu đặt nền móng cho một tổ chức phi lợi nhuận có tên MERAT (Thị trường dành cho các công cụ AI có trách nhiệm và đạo đức) với mục tiêu tạo ra một hệ sinh thái cho các công ty mới thành lập và những năm 2000 trên toàn cầu tập trung vào việc phát triển AI có trách nhiệm.
Thông qua thử nghiệm ban đầu tại MERAT, rõ ràng là không có công ty mới thành lập nào cho phép các công cụ nhiều bên liên quan hỗ trợ quản trị toàn diện các ứng dụng AI và ML – cho đến Credo AI. Khoảng cách này là cơ hội để tôi nhận ra sứ mệnh hướng dẫn AI một cách có chủ đích. Giả thuyết của tôi tiếp tục được xác thực rằng biên giới tiếp theo của cuộc cách mạng AI sẽ được hướng dẫn bởi quản trị. Các doanh nghiệp chấp nhận quản trị sẽ nổi lên như những người dẫn đầu về các thương hiệu đáng tin cậy.
Quỹ AI, một vườn ươm được thành lập bởi Andrew Ng, một chuyên gia nổi tiếng về AI, đã tiếp cận tôi. Quỹ AI đã tập trung vào các chủ đề tương tự về khả năng kiểm toán và quản trị AI mà tôi đã say mê trong thập kỷ qua.
Credo AI được thành lập vào ngày 28 tháng XNUMXth, 2020, với sự tài trợ của Quỹ AI.
Credo có nghĩa là “một tập hợp các giá trị hướng dẫn hành động của bạn.” Với Credo AI, tầm nhìn của chúng tôi là trao quyền cho các doanh nghiệp tạo ra AI với các tiêu chuẩn đạo đức cao nhất.
Trong một phỏng vấn trước, bạn đã thảo luận về cách các thương hiệu trong tương lai sẽ được tin tưởng không phải “Chỉ” dựa trên cách họ xây dựng và triển khai AI, mà dựa trên cách họ mở rộng quy mô AI để nó phục vụ nhân loại. Bạn có thể giải thích về điều này?
Trí tuệ nhân tạo là một trong những công nghệ thay đổi cuộc chơi của thế kỷ này và mang đến những cơ hội biến đổi cho nền kinh tế và xã hội. Nó đang trên đà đóng góp gần 16 nghìn tỷ đô la cho nền kinh tế toàn cầu vào năm 2030.
Tuy nhiên, trong vài năm qua, các mối đe dọa AI lớn đã được chú ý (và không, đó không phải là chúa tể rô-bốt!) đã có ở đây. Ví dụ: các thuật toán tư pháp tối ưu hóa để hạn chế tái phạm (tái phạm hành vi phạm tội) có thể gây ra sự thiên vị và từ chối ân xá cho những người xứng đáng.
Các thuật toán xã hội tối ưu hóa cho sự tham gia có thể chia rẽ một quốc gia.
Các thuật toán không công bằng có thể là lý do khiến bạn không kiếm được việc làm hoặc không được nhận vào trường đại học.
Chúng ta càng trao quyền tự chủ cho các công cụ của mình thì phạm vi hậu quả không mong muốn càng rộng. Quy mô phi thường tạo ra tác động phi thường, nhưng không phải lúc nào cũng là tác động mà chúng ta mong muốn (tôi viết về điều này trong Tuyên ngôn AI của Credo).
Tôi dự đoán rằng các doanh nghiệp đầu tư vào quản trị AI để giúp họ xây dựng công nghệ một cách có trách nhiệm và cam kết sử dụng dữ liệu một cách có đạo đức sẽ có thể tạo được lòng tin giữa các bên liên quan – khách hàng, người tiêu dùng, nhà đầu tư, nhân viên và những người khác.
Credo AI giúp các công ty có trách nhiệm như thế nào?
Trách nhiệm giải trình có nghĩa là nghĩa vụ chấp nhận trách nhiệm đối với hành động của một người. Trong bối cảnh phát triển và triển khai AI, điều này có nghĩa là các doanh nghiệp không chỉ cần phù hợp với những gì “có vẻ tốt đối với họ”, mà còn thực hiện các bước có chủ ý để chứng minh hành động đối với các mục tiêu phù hợp đó và chịu trách nhiệm về kết quả.
Credo AI đặt mục tiêu trở thành người hỗ trợ cho các doanh nghiệp trong các sáng kiến AI có đạo đức và có trách nhiệm để buộc họ phải chịu trách nhiệm trước các bên liên quan khác nhau: người dùng, nhân viên, cơ quan quản lý, kiểm toán viên, nhà đầu tư, giám đốc điều hành và những người khác. Do đó, Credo AI đã đi tiên phong trong một giải pháp thời gian thực, theo ngữ cảnh, toàn diện và liên tục để cung cấp AI có đạo đức và có trách nhiệm trên quy mô lớn.
Xây dựng trách nhiệm giải trình và niềm tin vào AI là một quá trình năng động. Các tổ chức phải phù hợp với các giá trị doanh nghiệp, mã hóa các giá trị đó, xây dựng chúng thành cơ sở hạ tầng của tổ chức, quan sát tác động và lặp lại quy trình với các tiếng nói đa dạng cung cấp đầu vào ở mọi giai đoạn. Credo AI cho phép trách nhiệm giải trình này thông qua một giải pháp toàn diện và theo thời gian thực để quản lý việc tuân thủ và đo lường rủi ro đối với việc triển khai AI trên quy mô lớn.
Sử dụng giải pháp quản trị Credo AI, doanh nghiệp có thể:
- Phù hợp với các yêu cầu quản trị đối với các trường hợp và mô hình sử dụng AI của họ, với các gói chính sách có thể tùy chỉnh và các công cụ hỗ trợ ra quyết định để chọn các chỉ số đánh giá mô hình.
- Đánh giá và thẩm vấn dữ liệu và mô hình ML dựa trên các mục tiêu phù hợp đó
- Phân tích thông số kỹ thuật thành tác động rủi ro có thể hành động đối với doanh nghiệp ở mọi giai đoạn phát triển và triển khai mô hình, để bạn có thể nắm bắt và khắc phục các sự cố quản trị trước khi chúng trở thành sự cố nghiêm trọng
Bằng cách ghi lại các quyết định và hành động tại mọi thời điểm, Credo AI nắm bắt nguồn gốc của các quyết định dẫn đến việc tạo ra các mô hình làm bằng chứng. Bằng chứng này sẽ là một bản ghi được chia sẻ nội bộ với các bên liên quan trong doanh nghiệp và bên ngoài với các kiểm toán viên để tạo niềm tin vào ý định của AI.
Bằng chứng này sẽ giúp các nhóm phát triển dự đoán và ngăn chặn những hậu quả không mong muốn, đồng thời sẽ chuẩn hóa cách chúng tôi đánh giá hiệu quả và độ tin cậy của các mô hình AI.
Chúng tôi đang ở giai đoạn đầu cho phép quản trị AI thông qua các đánh giá và đảm bảo toàn diện, đồng thời rất vui mừng được làm việc với nhiều doanh nghiệp hơn để thúc đẩy trách nhiệm giải trình.
Credo AI giúp các công ty tránh xa việc quản trị AI như thế nào?
Trong thế giới ngày nay, không có sự rõ ràng xung quanh AI thực sự “có trách nhiệm”, “có đạo đức” và “đáng tin cậy” là gì cũng như cách các doanh nghiệp có thể cung cấp AI. Chúng tôi giúp điều chỉnh lại câu hỏi quan trọng này cho các doanh nghiệp, bằng cách sử dụng nền tảng Credo AI SaaS để chứng minh “tính kinh tế của đạo đức”.
Với Credo AI, các doanh nghiệp không chỉ có thể cung cấp AI công bằng, tuân thủ và có thể kiểm tra được mà còn có thể xây dựng lòng tin của khách hàng.
Xây dựng niềm tin của người tiêu dùng có thể mở rộng cơ sở khách hàng của công ty và mở ra nhiều doanh số bán hàng hơn. Ví dụ: các công ty có thể cung cấp trải nghiệm khách hàng tốt nhất có thể bằng cách sử dụng AI có đạo đức trong chatbot dịch vụ khách hàng của họ hoặc sử dụng AI một cách có trách nhiệm để hiểu hoạt động của người dùng và đề xuất nội dung hoặc sản phẩm bổ sung cho họ. Những khách hàng cực kỳ hài lòng sau đó đưa ra quảng cáo tốt nhất bằng cách chia sẻ trải nghiệm của họ với bạn bè và gia đình.
Ngoài ra, doanh nghiệp cũng có thể thấy sự cộng tác giữa các chức năng kỹ thuật và giám sát có thể giúp họ tiết kiệm chi phí như thế nào nhờ thời gian tuân thủ nhanh hơn, quản lý rủi ro được thông báo, giảm rủi ro thương hiệu và quy định. Chúng tôi giúp các tổ chức triển khai AI có đạo đức bằng cách xây dựng cầu nối giữa các chỉ số kỹ thuật và kết quả kinh doanh hữu hình. Khi ngày càng có nhiều người nhận ra, việc ủng hộ AI có đạo đức liên quan đến nhiều thứ hơn là đánh dấu vào ô “tuân thủ quy định”. Nhưng nó có khả năng mang lại nhiều hơn là đóng góp cho một thế giới công bằng hơn, bản thân nó sẽ là một kết quả xứng đáng.
Khi một công ty duy trì các tiêu chuẩn đạo đức cao, nó có thể mong đợi kết quả kinh doanh thực tế, chẳng hạn như tăng doanh thu. Chuyển quan điểm từ một khái niệm “mềm” trừu tượng sang một quyết định kinh doanh khách quan là một cách quan trọng để chúng tôi giúp định vị quản trị AI như một phần quan trọng trong động cơ kinh tế và xã hội của công ty.
Gần đây, Chính quyền Biden đã thành lập Ủy ban Cố vấn Trí tuệ Nhân tạo Quốc gia. Theo quan điểm của bạn, điều này có ý nghĩa gì đối với các doanh nghiệp AI?
Các chính phủ trên toàn cầu đang nỗ lực hết sức để quản lý AI, và các doanh nghiệp cần phải sẵn sàng. Việc chính quyền Biden chu đáo thành lập Ủy ban Cố vấn AI Quốc gia và đầu tư vào Chương trình Phát triển Quốc gia (OSTP) của Nhà Trắng là bước khởi đầu tốt đẹp để thúc đẩy các cuộc thảo luận xung quanh Dự luật Quyền Quản lý Hệ thống AI. Tuy nhiên, vẫn còn nhiều việc phải làm để hiện thực hóa ý nghĩa của AI Có Trách nhiệm đối với đất nước và nền kinh tế của chúng ta.
Tôi tin rằng năm 2022 được định vị là năm hành động vì AI có trách nhiệm. Đó là hồi chuông cảnh tỉnh cho các doanh nghiệp đang tìm cách triển khai hoặc củng cố khuôn khổ đạo đức AI của họ. Bây giờ là lúc để các công ty đánh giá khuôn khổ hiện có của họ để tìm những lỗ hổng hoặc đối với các công ty thiếu phương pháp tiếp cận, triển khai một khuôn khổ vững chắc cho AI đáng tin cậy để giúp họ thành công dẫn đầu trong thời đại AI.
Chúng ta nên kỳ vọng sẽ xuất hiện nhiều quy định cứng và mềm hơn. Ngoài các hành động của Nhà Trắng, còn có rất nhiều động lực đến từ các cơ quan và nhà hoạch định chính sách khác, chẳng hạn như dự thảo Đạo luật Trách nhiệm giải trình thuật toán của Thượng viện, hướng dẫn của Ủy ban Thương mại Liên bang (FTC) về xu hướng AI, v.v.
Nếu chúng ta tiến nhanh đến tương lai, đạo đức AI và quản trị AI sẽ quan trọng như thế nào trong XNUMX năm nữa?
Chúng ta đang ở giai đoạn đầu của quản trị AI. Để nhấn mạnh tầm quan trọng của quản trị AI, đây là một số dự đoán của tôi trong vài năm tới:
- Quản trị AI có đạo đức sẽ trở thành ưu tiên hàng đầu của tổ chức
Các doanh nghiệp tiếp tục đầu tư và gặt hái những lợi ích từ việc sử dụng AI trong doanh nghiệp của họ. IDC đã dự kiến khoản chi 340 tỷ đô la cho AI vào năm 2022. Nếu không có quản trị, các doanh nghiệp sẽ miễn cưỡng đầu tư vào AI vì lo ngại về sự sai lệch, bảo mật, độ chính xác và tuân thủ của các hệ thống này.
Nếu không có niềm tin, người tiêu dùng cũng sẽ miễn cưỡng chấp nhận các sản phẩm dựa trên AI hoặc chia sẻ dữ liệu để xây dựng các hệ thống này. Trong XNUMX năm tới, quản trị AI có đạo đức sẽ trở thành ưu tiên hàng đầu của hội đồng quản trị và là thước đo quan trọng mà các công ty sẽ phải tiết lộ và báo cáo để xây dựng lòng tin giữa các bên liên quan của họ.
- Các loại công việc kỹ thuật xã hội mới sẽ xuất hiện trong một doanh nghiệp
Chúng ta đã thấy các tổ chức hướng tới đạo đức đầu tư đáng kể vào việc chứng minh sự phát triển của họ trong tương lai để đảm bảo các ứng dụng AI công bằng, tuân thủ và có thể kiểm tra được.
Để dẫn đầu về AI, các doanh nghiệp sẽ cần đẩy nhanh hơn nữa việc tìm hiểu về bối cảnh quản lý AI và triển khai các cấu trúc trách nhiệm trên quy mô lớn. Khi lĩnh vực triển khai AI có đạo đức mới nổi phát triển, một loại công việc kỹ thuật xã hội mới có thể phát sinh để tạo điều kiện thuận lợi cho những cuộc trò chuyện này và chịu trách nhiệm trong lĩnh vực này. Thành phần mới này của lực lượng lao động có thể đóng vai trò trung gian giữa kỹ thuật và giám sát, giúp phát triển các tiêu chuẩn và mục tiêu chung.
- Những trải nghiệm mới được hỗ trợ bởi AI sẽ yêu cầu quản trị chặt chẽ hơn
Quản lý hệ quả dự kiến và không lường trước của trí tuệ nhân tạo là rất quan trọng, đặc biệt là khi chúng ta bước vào thế giới Metaverse và web3. Rủi ro của AI tồn tại trong thế giới thực và thế giới ảo, nhưng càng được khuếch đại trong thế giới ảo.
Bằng cách đi sâu vào đầu Metaverse mà thiếu sự giám sát của AI, các doanh nghiệp khiến khách hàng của họ gặp rủi ro trước những thách thức như trộm danh tính và gian lận. Điều tối quan trọng là các vấn đề về quản trị và AI hiện được giải quyết trong thế giới thực để giữ an toàn cho người tiêu dùng trong Metaverse.
- Các hệ sinh thái mới trong quản trị AI có đạo đức sẽ xuất hiện
Thế giới đã thức tỉnh với ý tưởng rằng quản trị AI đại diện cho khối xây dựng cơ bản để vận hành AI có trách nhiệm. Trong vài năm tới, chúng ta sẽ chứng kiến một thị trường cạnh tranh và năng động của các nhà cung cấp dịch vụ xuất hiện để cung cấp các công cụ, dịch vụ, giáo dục và các khả năng khác nhằm hỗ trợ nhu cầu to lớn này.
Ngoài ra, chúng ta cũng sẽ chứng kiến sự hợp nhất và mở rộng các nền tảng MLops và GRC hiện có để mang lại khả năng quản trị và đánh giá cho AI.
Có điều gì khác mà bạn muốn chia sẻ về Credo AI không?
Quản trị AI có đạo đức là một khoản đầu tư được chứng minh trong tương lai mà bạn không đủ khả năng không để thực hiện, và hôm nay là ngày tốt nhất để bắt đầu.
Cảm ơn bạn về cuộc phỏng vấn chi tiết và chia sẻ tất cả những hiểu biết của bạn về quản trị và đạo đức AI, những độc giả muốn tìm hiểu thêm nên truy cập trí tuệ nhân tạo.












