Trí tuệ nhân tạo
OpenAI Thành Lập Hội Đồng An Toàn, Đào Tạo Mô Hình Trí Tuệ Nhân Tạo Thế Hệ Tiếp Theo Trong Bối Cảnh Tranh Cãi

OpenAI đã đạt được những bước tiến đáng kể trong việc phát triển các công nghệ trí tuệ nhân tạo, với thành tựu gần đây nhất là hệ thống GPT-4o cung cấp năng lượng cho trình trò chuyện ChatGPT phổ biến. Ngày hôm nay, OpenAI đã công bố việc thành lập một ủy ban an toàn mới, Hội Đồng An Toàn OpenAI, và tiết lộ rằng họ đã bắt đầu đào tạo một mô hình trí tuệ nhân tạo mới.
Ai Là Thành Viên Của Hội Đồng An Toàn OpenAI?
Hội Đồng An Toàn OpenAI mới thành lập nhằm cung cấp hướng dẫn và giám sát các quyết định an toàn và bảo mật quan trọng liên quan đến các dự án và hoạt động của công ty. Mục tiêu chính của hội đồng là đảm bảo rằng các thực tiễn phát triển trí tuệ nhân tạo của OpenAI ưu tiên an toàn và phù hợp với các nguyên tắc đạo đức. Ủy ban an toàn bao gồm một nhóm đa dạng các cá nhân, bao gồm các giám đốc điều hành của OpenAI, thành viên hội đồng quản trị và các chuyên gia kỹ thuật và chính sách.
Các Thành Viên Nổi Bật Của Hội Đồng An Toàn OpenAI Bao Gồm:
- Sam Altman, Giám Đốc Điều Hành Của OpenAI
- Bret Taylor, Chủ Tịch OpenAI
- Adam D’Angelo, Giám Đốc Điều Hành Của Quora và Thành Viên Hội Đồng Quản Trị OpenAI
- Nicole Seligman, Cựu Tổng Counsel Của Sony và Thành Viên Hội Đồng Quản Trị OpenAI
Trong giai đoạn đầu, ủy ban an toàn và bảo mật mới sẽ tập trung vào việc đánh giá và tăng cường các quy trình an toàn và biện pháp bảo vệ hiện có của OpenAI. Hội Đồng An Toàn OpenAI đã đặt ra thời hạn 90 ngày để cung cấp các khuyến nghị cho hội đồng quản trị về cách nâng cao các thực tiễn phát triển trí tuệ nhân tạo và hệ thống an toàn của công ty. Khi các khuyến nghị được thông qua, OpenAI dự định sẽ công bố chúng một cách công khai phù hợp với các xem xét về an toàn và bảo mật.
Đào Tạo Mô Hình Trí Tuệ Nhân Tạo Mới
Song song với việc thành lập Hội Đồng An Toàn OpenAI, OpenAI đã công bố rằng họ đã bắt đầu đào tạo mô hình trí tuệ nhân tạo thế hệ tiếp theo. Mô hình trí tuệ nhân tạo mới này dự kiến sẽ vượt qua khả năng của hệ thống GPT-4 hiện đang là nền tảng cho ChatGPT. Mặc dù chi tiết về mô hình trí tuệ nhân tạo mới còn hạn chế, OpenAI đã cho biết rằng nó sẽ dẫn đầu ngành công nghiệp về cả khả năng và an toàn.
Việc phát triển mô hình trí tuệ nhân tạo mới này nhấn mạnh tốc độ đổi mới nhanh chóng trong lĩnh vực trí tuệ nhân tạo và tiềm năng cho trí tuệ nhân tạo tổng quát (AGI). Khi các hệ thống trí tuệ nhân tạo trở nên tiên tiến và mạnh mẽ hơn, điều quan trọng là phải ưu tiên an toàn và đảm bảo rằng những công nghệ này được phát triển một cách có trách nhiệm.
Tranh Cãi Gần Đây và Sự Ra Đi Của OpenAI
Sự tập trung mới của OpenAI vào an toàn đến trong bối cảnh bất ổn nội bộ và sự giám sát của công chúng. Trong những tuần gần đây, công ty đã phải đối mặt với sự chỉ trích từ trong nội bộ, với nhà nghiên cứu Jan Leike từ chức và bày tỏ lo ngại rằng an toàn đã bị bỏ qua để phát triển “sản phẩm sáng bóng”. Sự từ chức của Leike đã được theo sau bởi sự ra đi của Ilya Sutskever, đồng sáng lập và trưởng nhóm khoa học của OpenAI.
Sự ra đi của Leike và Sutskever đã đặt ra câu hỏi về ưu tiên của công ty và cách tiếp cận của họ đối với an toàn trí tuệ nhân tạo. Hai nhà nghiên cứu này đã cùng lãnh đạo nhóm “siêu phù hợp” của OpenAI, chuyên giải quyết các rủi ro trí tuệ nhân tạo dài hạn. Sau khi họ từ chức, nhóm siêu phù hợp đã bị giải tán, làm dấy lên thêm lo ngại về cam kết an toàn của công ty.
Ngoài sự bất ổn nội bộ, OpenAI cũng phải đối mặt với cáo buộc về việc giả mạo giọng nói trong trình trò chuyện ChatGPT. Một số người dùng đã cho rằng giọng nói của trình trò chuyện này giống hệt với giọng nói của nữ diễn viên Scarlett Johansson. Mặc dù OpenAI đã phủ nhận việc giả mạo Johansson một cách cố ý, sự việc này đã khơi dậy một cuộc trò chuyện rộng lớn hơn về các ý nghĩa đạo đức của nội dung được tạo ra bởi trí tuệ nhân tạo và tiềm năng lạm dụng.
Một Cuộc Trò Chuyện Rộng Lớn Hơn Về Đạo Đức Trí Tuệ Nhân Tạo
Khi lĩnh vực trí tuệ nhân tạo tiếp tục phát triển nhanh chóng, điều quan trọng là các công ty như OpenAI phải tham gia vào cuộc trò chuyện và hợp tác liên tục với các nhà nghiên cứu, nhà hoạch định chính sách và công chúng để đảm bảo rằng các công nghệ trí tuệ nhân tạo được phát triển một cách có trách nhiệm và với các biện pháp bảo vệ mạnh mẽ. Các khuyến nghị được đưa ra bởi Hội Đồng An Toàn OpenAI và cam kết của OpenAI về tính minh bạch sẽ góp phần vào cuộc trò chuyện rộng lớn hơn về quản trị trí tuệ nhân tạo và giúp định hình tương lai của công nghệ chuyển đổi này, nhưng chỉ thời gian mới biết điều gì sẽ xảy ra.












