AGI
Làm Thế Nào Chúng Ta Có Thể Hưởng Lợi Từ Sự Tiến Bộ Của Trí Tuệ Nhân Tạo Phổ Quát (AGI)

Tạo ra một Trí Tuệ Nhân Tạo Phổ Quát (AGI) là điểm đến cuối cùng của nhiều chuyên gia AI. Một tác nhân AGI có thể được tận dụng để giải quyết vô số vấn đề của thế giới. Ví dụ, bạn có thể đưa ra một vấn đề cho một tác nhân AGI và AGI có thể sử dụng học tăng cường sâu kết hợp với ý thức mới nổi được giới thiệu của nó để đưa ra các quyết định trong đời thực. Sự khác biệt giữa một AGI và một thuật toán thông thường là khả năng AGI tự đặt ra những câu hỏi quan trọng. Một AGI có thể xây dựng giải pháp cuối cùng mà nó muốn đạt tới, mô phỏng các cách thức giả định để đạt được nó, và sau đó đưa ra quyết định sáng suốt về thực tế mô phỏng nào phù hợp nhất với các mục tiêu đã đặt ra. Cuộc tranh luận về cách một AGI có thể xuất hiện đã có từ khi thuật ngữ “trí tuệ nhân tạo” lần đầu tiên được giới thiệu tại hội nghị Dartmouth năm 1956. Kể từ đó, nhiều công ty đã cố gắng giải quyết thách thức AGI, OpenAI có lẽ là công ty được biết đến nhiều nhất. OpenAI được ra mắt với tư cách là một tổ chức phi lợi nhuận vào ngày 11 tháng 12 năm 2015 với tuyên bố sứ mệnh là đảm bảo rằng trí tuệ nhân tạo phổ quát (AGI)—mà chúng tôi hiểu là các hệ thống tự trị cao vượt trội hơn con người trong hầu hết các công việc có giá trị kinh tế—mang lại lợi ích cho toàn nhân loại. Tuyên bố sứ mệnh của OpenAI phác thảo rõ ràng những lợi ích tiềm năng mà một AGI có thể mang lại cho xã hội. Đột nhiên, những vấn đề quá phức tạp đối với con người và các hệ thống AI thông thường, giờ đây có thể được giải quyết. Những lợi ích tiềm năng của việc phát hành một AGI là vô cùng lớn. Bạn có thể đặt mục tiêu chữa khỏi mọi dạng ung thư, AGI sau đó có thể tự kết nối với internet để quét tất cả nghiên cứu hiện tại bằng mọi ngôn ngữ. AGI có thể bắt đầu vấn đề xây dựng các giải pháp, và sau đó mô phỏng tất cả các kết quả tiềm năng. Nó sẽ kết nối những lợi ích của ý thức mà con người hiện đang sở hữu, với kiến thức vô hạn của đám mây, sử dụng học sâu để nhận dạng mẫu của dữ liệu lớn này, và sử dụng học tăng cường để mô phỏng các môi trường/kết quả khác nhau. Tất cả điều này kết hợp với một ý thức không bao giờ cần thời gian nghỉ ngơi và có thể tập trung 100% vào nhiệm vụ hiện tại. Những mặt trái tiềm ẩn của AGI tất nhiên không thể xem nhẹ, bạn có thể có một AGI với mục tiêu liên tục nâng cấp chính nó và sau đó có thể nuốt chửng mọi thứ trên đường đi của nó để tối đa hóa tài nguyên máy tính và các nguyên tử mà nó cần để mãi mãi nâng cấp hệ thống của mình. Lý thuyết này đã được khám phá chi tiết bởi Giáo sư Nick Bostrom trong lập luận Paperclip Maximizer, trong kịch bản này, một AGI được cấu hình sai được hướng dẫn sản xuất kẹp giấy và làm như vậy cho đến khi không còn gì cả, theo nghĩa đen mọi tài nguyên trên trái đất đã bị tiêu thụ để tối đa hóa việc sản xuất kẹp giấy. Một quan điểm thực tế hơn là một AGI có thể bị kiểm soát bởi một quốc gia bất hảo hoặc một tập đoàn có đạo đức kém. Thực thể này có thể lập trình AGI để tối đa hóa lợi nhuận, và trong trường hợp này với việc lập trình kém và không có chút hối hận nào, nó có thể chọn làm phá sản đối thủ cạnh tranh, phá hủy chuỗi cung ứng, hack thị trường chứng khoán, thanh lý tài khoản ngân hàng, v.v. Do đó, một bộ quy tắc đạo đức cần được lập trình vào AGI ngay từ đầu. Một bộ quy tắc đạo đức đã được tranh luận bởi nhiều bộ óc và khái niệm này lần đầu tiên được giới thiệu đến công chúng dưới dạng 3 định luật robot của tác giả Isaac Asimov. 








