sơ khai Làm thế nào để Vận hành Đạo đức AI? - Đoàn kết.AI
Kết nối với chúng tôi

Lãnh đạo tư tưởng

Làm thế nào để Vận hành Đạo đức AI?

mm

Được phát hành

 on

AI liên quan đến việc tối ưu hóa các quy trình chứ không phải loại bỏ con người khỏi chúng. Trách nhiệm giải trình vẫn rất quan trọng trong ý tưởng bao trùm rằng AI có thể thay thế con người. Trong khi công nghệ và các hệ thống tự động đã giúp chúng ta đạt được kết quả kinh tế tốt hơn trong thế kỷ qua, liệu chúng có thực sự thay thế được các dịch vụ, sự sáng tạo và kiến ​​thức chuyên sâu không? Tôi vẫn tin rằng họ không thể, nhưng họ có thể tối ưu hóa thời gian dành cho việc phát triển những lĩnh vực này.

Trách nhiệm giải trình chủ yếu dựa vào quyền sở hữu trí tuệ, thấy trước tác động của công nghệ đối với quyền tập thể và cá nhân, đồng thời đảm bảo an toàn và bảo vệ dữ liệu được sử dụng trong đào tạo và chia sẻ trong khi phát triển các mô hình mới. Khi chúng ta tiếp tục phát triển công nghệ, chủ đề về đạo đức AI ngày càng trở nên phù hợp. Điều này đặt ra những câu hỏi quan trọng về cách chúng ta điều chỉnh và tích hợp AI vào xã hội đồng thời giảm thiểu rủi ro tiềm ẩn.

Tôi hợp tác chặt chẽ với một khía cạnh của AI—nhân bản giọng nói. Giọng nói là một phần quan trọng trong dữ liệu sinh trắc học và chân dung của một cá nhân được sử dụng để huấn luyện các mẫu giọng nói. Việc bảo vệ sự giống nhau (câu hỏi về pháp lý và chính sách), bảo mật dữ liệu giọng nói (chính sách quyền riêng tư và an ninh mạng) và thiết lập các giới hạn của ứng dụng sao chép giọng nói (câu hỏi về đạo đức đo lường tác động) là điều cần thiết để xem xét khi xây dựng sản phẩm.

Chúng ta phải đánh giá cách AI phù hợp với các chuẩn mực và giá trị của xã hội. AI phải được điều chỉnh để phù hợp với khuôn khổ đạo đức hiện có của xã hội, đảm bảo nó không gây thêm rủi ro hoặc đe dọa các chuẩn mực xã hội đã được thiết lập. Tác động của công nghệ bao gồm các lĩnh vực mà AI trao quyền cho một nhóm cá nhân trong khi loại bỏ những nhóm khác. Tình trạng tiến thoái lưỡng nan hiện sinh này nảy sinh ở mọi giai đoạn phát triển của chúng ta và sự tăng trưởng hay suy thoái của xã hội. AI có thể đưa thêm thông tin sai lệch vào hệ sinh thái thông tin không? Đúng. Làm cách nào để chúng tôi quản lý rủi ro đó ở cấp độ sản phẩm và làm cách nào để giáo dục người dùng và các nhà hoạch định chính sách về rủi ro đó? Câu trả lời không nằm ở sự nguy hiểm của bản thân công nghệ, mà nằm ở cách chúng ta đưa nó vào các sản phẩm và dịch vụ. Nếu chúng tôi không có đủ nhân lực trong các nhóm sản phẩm để nhìn xa hơn và đánh giá tác động của công nghệ, chúng tôi sẽ bị mắc kẹt trong một chu kỳ sửa chữa mớ hỗn độn.

Việc tích hợp AI vào các sản phẩm đặt ra câu hỏi về tính an toàn của sản phẩm và ngăn ngừa tác hại liên quan đến AI. Việc phát triển và triển khai AI nên ưu tiên các cân nhắc về an toàn và đạo đức, điều này đòi hỏi phải phân bổ nguồn lực cho các nhóm có liên quan.

Để tạo điều kiện thuận lợi cho cuộc thảo luận mới nổi về việc vận hành đạo đức AI, tôi đề xuất chu trình cơ bản này để làm cho AI trở nên đạo đức ở cấp độ sản phẩm:

1. Điều tra các khía cạnh pháp lý của AI và cách chúng tôi điều chỉnh nó, nếu có quy định. Chúng bao gồm Đạo luật về AI của EU, Đạo luật dịch vụ kỹ thuật số, Dự luật an toàn trực tuyến của Vương quốc Anh và GDPR về quyền riêng tư dữ liệu. Các khuôn khổ đang được tiến hành và cần đầu vào từ những người đi đầu trong ngành (công nghệ mới nổi) và các nhà lãnh đạo. Xem điểm (4) hoàn thành chu trình được đề xuất.

2. Xem xét cách chúng tôi điều chỉnh các sản phẩm dựa trên AI cho phù hợp với chuẩn mực của xã hội mà không gây thêm rủi ro. Nó có ảnh hưởng đến bảo mật thông tin hoặc lĩnh vực công việc hay nó có vi phạm bản quyền và quyền sở hữu trí tuệ không? Tạo ma trận dựa trên kịch bản khủng hoảng. Tôi rút ra điều này từ nền tảng an ninh quốc tế của mình.

3. Xác định cách tích hợp những điều trên vào các sản phẩm dựa trên AI. Khi AI trở nên phức tạp hơn, chúng ta phải đảm bảo rằng nó phù hợp với các giá trị và chuẩn mực của xã hội. Chúng ta cần chủ động giải quyết các cân nhắc về đạo đức và tích hợp chúng vào quá trình phát triển và triển khai AI. Nếu các sản phẩm dựa trên AI, chẳng hạn như AI tổng quát, có nguy cơ lan truyền nhiều thông tin sai lệch hơn, thì chúng ta phải giới thiệu các tính năng giảm thiểu, kiểm duyệt, hạn chế quyền truy cập vào công nghệ cốt lõi và giao tiếp với người dùng. Điều quan trọng là phải có các nhóm an toàn và đạo đức AI trong các sản phẩm dựa trên AI, điều này đòi hỏi nguồn lực và tầm nhìn của công ty.

Xem xét cách chúng ta có thể đóng góp và định hình khung pháp lý. Các phương pháp hay nhất và khung chính sách không chỉ là những từ thông dụng; chúng là những công cụ thiết thực giúp công nghệ mới hoạt động như những công cụ hỗ trợ hơn là những mối đe dọa tiềm tàng. Kết hợp các nhà hoạch định chính sách, nhà nghiên cứu, công nghệ lớn và công nghệ mới nổi với nhau là điều cần thiết để cân bằng lợi ích xã hội và doanh nghiệp xung quanh AI. Các khung pháp lý phải thích ứng với công nghệ AI mới nổi, đảm bảo rằng chúng bảo vệ các cá nhân và xã hội đồng thời thúc đẩy sự đổi mới và tiến bộ.

4. Nghĩ về cách chúng ta đóng góp vào các khuôn khổ pháp lý và định hình chúng. Các phương pháp hay nhất và khung chính sách không phải là những từ thông dụng trống rỗng mà là những công cụ khá thiết thực để làm cho công nghệ mới hoạt động như những công cụ hỗ trợ chứ không phải là những mối đe dọa lờ mờ. Có các nhà hoạch định chính sách, nhà nghiên cứu, công nghệ lớn và công nghệ mới nổi trong một phòng là điều cần thiết để cân bằng lợi ích xã hội và kinh doanh xung quanh AI. Các khung pháp lý phải thích ứng với công nghệ AI mới nổi. Chúng ta cần đảm bảo rằng các khuôn khổ này bảo vệ các cá nhân và xã hội đồng thời tạo điều kiện cho sự đổi mới và tiến bộ.

Tổng kết

Đây là một vòng tròn thực sự cơ bản để tích hợp các công nghệ mới nổi dựa trên Ai vào xã hội của chúng ta. Khi chúng ta tiếp tục vật lộn với sự phức tạp của đạo đức AI, điều cần thiết là tiếp tục cam kết tìm kiếm các giải pháp ưu tiên sự an toàn, đạo đức và phúc lợi xã hội. Và đây không phải là những từ trống rỗng mà là công việc khó khăn khi ghép tất cả các câu đố lại với nhau hàng ngày.

Những lời này dựa trên kinh nghiệm và kết luận của riêng tôi.

Anna là Trưởng phòng Đạo đức và Quan hệ đối tác tại người trả lời, một công nghệ nhân bản giọng nói được trao giải Emmy có trụ sở tại Ukraine. Anna là cựu Cố vấn chính sách tại Reface, một ứng dụng phương tiện tổng hợp được hỗ trợ bởi AI và là người đồng sáng lập công nghệ của công cụ truy cập thông tin sai lệch Capture do chương trình tăng tốc Startup Wise Guys tài trợ. Anna có 11 năm kinh nghiệm về chính sách an ninh và quốc phòng, công nghệ và xây dựng khả năng phục hồi. Bà là cựu Nghiên cứu viên tại Trung tâm Quốc phòng và An ninh Quốc tế ở Tallinn và Viện Nghiên cứu An ninh Praha. Cô cũng đã tư vấn cho các công ty lớn của Ukraine về xây dựng khả năng phục hồi như một phần của Lực lượng đặc nhiệm chiến tranh hỗn hợp tại Trường Kinh tế Kyiv.