Connect with us

Lãnh đạo tư tưởng

Làm thế nào để vận hành hóa Đạo đức Trí tuệ Nhân tạo?

mm

Trí tuệ Nhân tạo là về tối ưu hóa các quy trình, không phải là loại bỏ con người khỏi chúng. Trách nhiệm vẫn rất quan trọng trong ý tưởng tổng thể rằng Trí tuệ Nhân tạo có thể thay thế con người. Trong khi công nghệ và hệ thống tự động đã giúp chúng ta đạt được kết quả kinh tế tốt hơn trong thế kỷ qua, liệu chúng có thể thay thế dịch vụ, sáng tạo và kiến thức sâu sắc? Tôi vẫn tin rằng chúng không thể, nhưng chúng có thể tối ưu hóa thời gian dành cho việc phát triển những lĩnh vực này.

Trách nhiệm phụ thuộc nặng nề vào quyền sở hữu trí tuệ, dự đoán tác động của công nghệ đối với quyền tập thể và cá nhân, và đảm bảo an toàn và bảo vệ dữ liệu được sử dụng trong đào tạo và chia sẻ khi phát triển các mô hình mới. Khi chúng ta tiếp tục phát triển công nghệ, chủ đề về đạo đức Trí tuệ Nhân tạo đã trở nên ngày càng liên quan. Điều này đặt ra những câu hỏi quan trọng về cách chúng ta quản lý và tích hợp Trí tuệ Nhân tạo vào xã hội trong khi giảm thiểu rủi ro tiềm năng.

Tôi làm việc chặt chẽ với một khía cạnh của Trí tuệ Nhân tạo – nhân bản giọng nói. Giọng nói là một phần quan trọng của sự tương đồng của một cá nhân và dữ liệu sinh trắc học được sử dụng để đào tạo mô hình giọng nói. Sự bảo vệ sự tương đồng (câu hỏi pháp lý và chính sách), bảo mật dữ liệu giọng nói (chính sách bảo mật và an ninh mạng), và thiết lập giới hạn của ứng dụng nhân bản giọng nói (câu hỏi đạo đức đo lường tác động) là những yếu tố quan trọng cần xem xét khi xây dựng sản phẩm.

Chúng ta phải đánh giá cách Trí tuệ Nhân tạo phù hợp với các chuẩn mực và giá trị của xã hội. Trí tuệ Nhân tạo phải được thích nghi để phù hợp với khuôn khổ đạo đức hiện có của xã hội, đảm bảo nó không áp đặt thêm rủi ro hoặc đe dọa đến các chuẩn mực xã hội đã thiết lập. Tác động của công nghệ bao gồm các lĩnh vực mà Trí tuệ Nhân tạo trao quyền cho một nhóm cá nhân trong khi loại bỏ những người khác. Nghiịch cảnh tồn tại này xuất hiện tại mọi giai đoạn của sự phát triển và tăng trưởng hoặc suy giảm xã hội. Trí tuệ Nhân tạo có thể giới thiệu thêm thông tin sai lệch vào hệ sinh thái thông tin? Có. Làm thế nào chúng ta quản lý rủi ro đó ở cấp độ sản phẩm, và làm thế nào chúng ta giáo dục người dùng và nhà hoạch định chính sách về nó? Câu trả lời nằm không ở trong bản thân công nghệ, mà ở cách chúng ta đóng gói nó vào sản phẩm và dịch vụ. Nếu chúng ta không có đủ nhân lực trong các đội sản phẩm để nhìn vượt ra ngoài và đánh giá tác động của công nghệ, chúng ta sẽ bị kẹt trong chu kỳ sửa chữa sự混乱.

Việc tích hợp Trí tuệ Nhân tạo vào sản phẩm đặt ra câu hỏi về an toàn sản phẩm và ngăn chặn thiệt hại liên quan đến Trí tuệ Nhân tạo. Việc phát triển và triển khai Trí tuệ Nhân tạo nên ưu tiên an toàn và xem xét đạo đức, điều này đòi hỏi phân bổ tài nguyên cho các đội liên quan.

Để tạo điều kiện cho cuộc thảo luận mới về việc vận hành hóa đạo đức Trí tuệ Nhân tạo, tôi đề xuất chu kỳ cơ bản này để làm cho Trí tuệ Nhân tạo trở nên đạo đức ở cấp độ sản phẩm:

1. Điều tra các khía cạnh pháp lý của Trí tuệ Nhân tạo và cách chúng ta quản lý nó, nếu quy định tồn tại. Điều này bao gồm Đạo luật về Trí tuệ Nhân tạo của EU, Đạo luật Dịch vụ Kỹ thuật số, Dự luật An toàn Trực tuyến của Vương quốc Anh, và GDPR về quyền riêng tư dữ liệu. Các khuôn khổ này đang được hoàn thiện và cần sự đóng góp từ các công ty tiên phong (công nghệ mới nổi) và các nhà lãnh đạo. Xem điểm (4) mà hoàn thành chu kỳ đề xuất.

2. Xem xét cách chúng ta thích nghi sản phẩm dựa trên Trí tuệ Nhân tạo với các chuẩn mực của xã hội mà không áp đặt thêm rủi ro. Nó có ảnh hưởng đến bảo mật thông tin hoặc lĩnh vực việc làm, hoặc nó xâm phạm bản quyền và quyền sở hữu trí tuệ? Tạo một ma trận dựa trên kịch bản khủng hoảng. Tôi rút ra điều này từ kinh nghiệm an ninh quốc tế của mình.

3. Xác định cách tích hợp những điều trên vào sản phẩm dựa trên Trí tuệ Nhân tạo. Khi Trí tuệ Nhân tạo trở nên tinh vi hơn, chúng ta phải đảm bảo nó phù hợp với các giá trị và chuẩn mực của xã hội. Chúng ta cần chủ động giải quyết các vấn đề đạo đức và tích hợp chúng vào phát triển và triển khai Trí tuệ Nhân tạo. Nếu sản phẩm dựa trên Trí tuệ Nhân tạo, như Trí tuệ Nhân tạo sinh, đe dọa lan truyền thêm thông tin sai lệch, chúng ta phải giới thiệu các tính năng giảm thiểu, điều tiết, hạn chế truy cập vào công nghệ cốt lõi, và giao tiếp với người dùng. Điều quan trọng là phải có các đội về đạo đức và an toàn Trí tuệ Nhân tạo trong sản phẩm dựa trên Trí tuệ Nhân tạo, điều này đòi hỏi tài nguyên và tầm nhìn của công ty.

Xem xét cách chúng ta có thể đóng góp và định hình các khuôn khổ pháp lý. Các khuôn khổ và chính sách tốt nhất không chỉ là những từ ngữ thời thượng; chúng là những công cụ thực tế giúp công nghệ mới hoạt động như các công cụ hỗ trợ chứ không phải là những mối đe dọa. Việc đưa các nhà hoạch định chính sách, nhà nghiên cứu, công nghệ lớn và công nghệ mới nổi vào một phòng là điều cần thiết để cân bằng lợi ích xã hội và kinh doanh xung quanh Trí tuệ Nhân tạo. Các khuôn khổ pháp lý phải thích nghi với công nghệ Trí tuệ Nhân tạo mới nổi, đảm bảo rằng chúng bảo vệ cá nhân và xã hội đồng thời thúc đẩy đổi mới và tiến bộ.

4. Nghĩ về cách chúng ta đóng góp vào các khuôn khổ pháp lý và định hình chúng. Các khuôn khổ và chính sách tốt nhất không chỉ là những từ ngữ rỗng; chúng là những công cụ thực tế giúp công nghệ mới hoạt động như các công cụ hỗ trợ, không phải là những mối đe dọa. Việc có các nhà hoạch định chính sách, nhà nghiên cứu, công nghệ lớn và công nghệ mới nổi trong một phòng là điều cần thiết để cân bằng lợi ích xã hội và kinh doanh xung quanh Trí tuệ Nhân tạo. Các khuôn khổ pháp lý phải thích nghi với công nghệ Trí tuệ Nhân tạo mới nổi. Chúng ta cần đảm bảo rằng các khuôn khổ này bảo vệ cá nhân và xã hội đồng thời thúc đẩy đổi mới và tiến bộ.

Tóm tắt

Đây là một vòng tròn cơ bản để tích hợp công nghệ mới nổi dựa trên Trí tuệ Nhân tạo vào xã hội của chúng ta. Khi chúng ta tiếp tục vật lộn với những phức tạp của đạo đức Trí tuệ Nhân tạo, điều quan trọng là phải cam kết tìm kiếm các giải pháp ưu tiên an toàn, đạo đức và phúc lợi xã hội. Và những từ ngữ này không phải là những lời nói rỗng mà là công việc khó khăn của việc ghép tất cả các mảnh ghép lại với nhau hàng ngày.

Những từ ngữ này dựa trên kinh nghiệm và kết luận của riêng tôi.

Anna là Trưởng bộ phận Đạo đức và Đối tác tại Respeecher, một công nghệ nhân bản giọng nói được giải thưởng Emmy dựa tại Ukraine. Anna là một cựu Cố vấn Chính sách tại Reface, một ứng dụng truyền thông tổng hợp được hỗ trợ bởi AI và là đồng sáng lập công nghệ của công cụ chống thông tin sai lệch Cappture được tài trợ bởi chương trình tăng tốc Startup Wise Guys. Anna có 11 năm kinh nghiệm trong các chính sách an ninh và quốc phòng, công nghệ và xây dựng khả năng chống chịu. Cô là một cựu Nghiên cứu viên tại Trung tâm Quốc tế về Quốc phòng và An ninh ở Tallinn và Viện Nghiên cứu An ninh Prague. Cô cũng đã tư vấn cho các công ty lớn của Ukraine về xây dựng khả năng chống chịu như một phần của Lực lượng Đặc nhiệm Chiến tranh Hybrid tại Trường Kinh tế Kyiv.