AGI
Charles J. Simon, Tác giả, Máy tính có thể nổi loạn? – Loạt phỏng vấn

Charles J. Simon, BSEE, MSCS, là một doanh nhân, nhà phát triển và quản lý phần mềm được công nhận trên toàn quốc. Với kiến thức quản lý và kỹ thuật rộng lớn và bằng cấp về cả Kỹ thuật Điện và Khoa học Máy tính, ông Simon có nhiều năm kinh nghiệm về máy tính trong ngành công nghiệp, bao gồm cả công việc tiên phong trong lĩnh vực Trí tuệ Nhân tạo (AI) và Thiết kế hỗ trợ máy tính (CAD) (hai thế hệ CAD).
Ông cũng là tác giả của cuốn sách ‘Liệu máy tính có nổi loạn’, cung cấp một cái nhìn sâu sắc về khả năng tương lai của Trí tuệ Nhân tạo Tổng quát (AGI).
Điều gì đã thu hút bạn đến với AI, và cụ thể là AGI?
Tôi đã bị thu hút bởi câu hỏi, “Liệu máy móc có thể suy nghĩ?” từ khi tôi đọc bài báo quan trọng năm 1950 của Alan Turing, bắt đầu bằng câu hỏi đó. Cho đến nay, câu trả lời rõ ràng là “Không”, nhưng không có lý do khoa học nào để không thể. Tôi gia nhập cộng đồng AI với sự bùng nổ của mạng nơ-ron đầu tiên vào cuối những năm 1980 và từ đó AI đã đạt được những bước tiến lớn. Tuy nhiên, ba thập kỷ qua chưa mang lại sự hiểu biết cho máy móc của chúng ta, một khả năng sẽ đưa nhiều ứng dụng lên tầm cao mới về sự hữu ích.
Bạn đã tuyên bố rằng bạn chia sẻ quan điểm của chuyên gia AI Rodney Brooks của MIT, người nói rằng, ‘không có sự tương tác với môi trường – không có cơ thể robot như bạn sẽ – máy móc sẽ không bao giờ thể hiện AGI.’ Điều này cơ bản nói rằng với đầu vào không đủ từ cơ thể robot, AI sẽ không bao giờ phát triển khả năng AGI. Ngoài tầm nhìn máy tính, những loại đầu vào nào cần thiết để phát triển AGI?
AI ngày nay cần được bổ sung bởi các khái niệm cơ bản như sự tồn tại vật lý của các đối tượng trong thực tế, sự lưu thông của thời gian, nguyên nhân và kết quả – những khái niệm rõ ràng với bất kỳ đứa trẻ ba tuổi nào. Một đứa trẻ sử dụng nhiều giác quan để học những khái niệm này bằng cách chạm và điều khiển đồ chơi, di chuyển trong nhà, học ngôn ngữ, v.v. Mặc dù có thể tạo ra một AGI với các giác quan hạn chế hơn, giống như có những người điếc và mù vẫn hoàn toàn thông minh, nhưng nhiều giác quan và khả năng tương tác hơn sẽ làm cho việc giải quyết vấn đề AGI trở nên dễ dàng hơn.
Để hoàn thiện, mô拟 của tôi có thể cung cấp các giác quan về mùi và vị. Điều còn lại để xem liệu những giác quan này cũng sẽ chứng minh là quan trọng đối với AGI.
Bạn đã tuyên bố rằng ‘Một yêu cầu quan trọng cho trí thông minh là một môi trường nằm bên ngoài trí thông minh’. Ví dụ bạn đưa ra là ‘không hợp lý khi mong đợi IBM’s Watson hiểu bất cứ điều gì nếu nó không có ý tưởng cơ bản về một ‘điều’ là gì’. Điều này rõ ràng chơi trong những hạn chế hiện tại của AI hẹp, đặc biệt là xử lý ngôn ngữ tự nhiên. Làm thế nào các nhà phát triển AI có thể vượt qua hạn chế hiện tại của AI?
Một yếu tố quan trọng là lưu trữ kiến thức không cụ thể là ngôn từ, hình ảnh hoặc xúc giác mà là các ‘đối tượng’ trừu tượng có thể có các thuộc tính ngôn từ, hình ảnh và xúc giác. Hãy xem xét một điều gì đó đơn giản như cụm từ, “quả bóng đỏ”. Bạn biết những từ này có nghĩa là gì vì những kinh nghiệm thị giác và xúc giác của bạn. Bạn cũng biết ý nghĩa của các hành động liên quan như ném, nảy, đá, v.v. mà tất cả đều xuất hiện trong tâm trí bạn đến một mức độ nào đó khi bạn nghe thấy cụm từ. Bất kỳ hệ thống AI nào cụ thể dựa trên từ hoặc hình ảnh sẽ bỏ lỡ các cấp độ hiểu biết khác.
Tôi đã thực hiện một Kho lưu trữ Kiến thức Toàn cầu, nơi lưu trữ bất kỳ loại thông tin nào trong một cấu trúc giống như não, nơi các ‘đối tượng’ tương tự như nơ-ron và có nhiều tham chiếu thuộc tính đến các ‘đối tượng’ khác – các tham chiếu tương tự như synap. Do đó, đỏ và bóng là các ‘đối tượng’ riêng biệt và một quả bóng đỏ là một ‘đối tượng’ có tham chiếu thuộc tính đến ‘đối tượng’ đỏ và ‘đối tượng’ bóng. Cả đỏ và bóng đều có tham chiếu đến các ‘đối tượng’ tương ứng cho các từ “đỏ” và “bóng”, mỗi từ trong số đó, đến lượt, có tham chiếu đến các ‘đối tượng’ khác định nghĩa cách các từ được nghe, nói, đọc hoặc viết cũng như các ‘đối tượng’ hành động có thể.
Bạn đã kết luận rằng mô phỏng não bộ của trí thông minh tổng quát là một chặng đường dài trong khi AGI có thể (tương đối)就在 chân trời. Dựa trên tuyên bố này, chúng ta nên chuyển sang việc cố gắng mô phỏng hoặc tạo mô hình não bộ con người và chỉ tập trung vào AGI?
Các công nghệ học sâu và liên quan ngày nay rất tuyệt vời cho các ứng dụng phù hợp nhưng sẽ không tự động dẫn đến sự hiểu biết. Để tiến những bước tiếp theo, chúng ta cần thêm các kỹ thuật cụ thể nhằm giải quyết các vấn đề nằm trong khả năng của bất kỳ đứa trẻ ba tuổi nào.
Sử dụng các khả năng vốn có của máy tính của chúng ta có thể hiệu quả hơn nhiều so với tương đương sinh học hoặc bất kỳ mô phỏng nào của nó. Ví dụ, não bộ của bạn có thể lưu trữ thông tin trong hóa học của các synap sinh học trong vài lần lặp lại, đòi hỏi 10-100 mili giây. Một máy tính có thể đơn giản lưu trữ giá trị synap mới trong một chu kỳ bộ nhớ, nhanh hơn một tỷ lần.
Trong việc phát triển phần mềm AGI, tôi đã thực hiện cả mô phỏng nơ-ron sinh học và các thuật toán hiệu quả hơn. Tiếp tục với Kho lưu trữ Kiến thức Toàn cầu, khi được mô phỏng trong nơ-ron sinh học mô phỏng, mỗi ‘đối tượng’ đòi hỏi tối thiểu 10 nơ-ron và thường nhiều hơn. Điều này đặt khả năng của não bộ con người vào khoảng từ mười đến một trăm triệu ‘đối tượng’. Nhưng có thể một AGI sẽ xuất hiện thông minh nếu nó hiểu chỉ một triệu ‘đối tượng’ – hoàn toàn trong phạm vi của máy tính để bàn cao cấp ngày nay.
Một yếu tố không rõ là bao nhiêu thời gian của robot nên được phân bổ cho việc xử lý và phản ứng với thế giới so với thời gian dành cho việc tưởng tượng và lập kế hoạch. Bạn có thể giải thích ngắn gọn tầm quan trọng của tưởng tượng đối với AGI?
Chúng ta có thể tưởng tượng nhiều điều và sau đó chỉ hành động trên những điều chúng ta thích, những điều phù hợp với mục tiêu nội bộ của chúng ta, nếu bạn muốn. Quyền lực thực sự của tưởng tượng là khả năng dự đoán tương lai – một đứa trẻ ba tuổi có thể tìm ra các chuỗi chuyển động nào sẽ dẫn nó đến một mục tiêu trong một phòng khác và một người lớn có thể suy đoán về các từ nào sẽ có tác động lớn nhất đến người khác.
Một AGI cũng sẽ được hưởng lợi từ việc vượt ra ngoài việc chỉ phản ứng để suy đoán về các hành động phức tạp và chọn hành động tốt nhất.
Bạn tin rằng ba luật của robotics của Asimov quá đơn giản và mơ hồ. Trong cuốn sách của bạn, bạn đã chia sẻ một số ý tưởng về các luật được đề xuất để lập trình trong robot. Những luật nào bạn cảm thấy quan trọng nhất để một robot tuân theo?

Các “luật của robotics” mới sẽ phát triển trong nhiều năm khi AGI xuất hiện. Tôi đề xuất một số khởi đầu:
- Tối đa hóa kiến thức và hiểu biết nội bộ về môi trường.
- Chia sẻ kiến thức đó một cách chính xác với người khác (cả AGI và con người).
- Tối đa hóa sự thịnh vượng của cả AGI và con người nói chung – không chỉ như một cá nhân.
Bạn có một số vấn đề với Bài kiểm tra Turing và khái niệm đằng sau nó. Bạn có thể giải thích làm thế nào bạn tin rằng Bài kiểm tra Turing bị lỗi?
Bài kiểm tra Turing đã phục vụ chúng ta trong năm mươi năm như một định nghĩa tạm thời về trí thông minh tổng quát, nhưng khi AGI gần kề, chúng ta cần tinh chỉnh định nghĩa và chúng ta cần một định nghĩa rõ ràng hơn. Bài kiểm tra Turing thực sự là một bài kiểm tra về mức độ con người của một thực thể, không phải về mức độ thông minh của nó. Thời gian dài hơn mà một máy tính có thể duy trì sự lừa dối, nó sẽ hoạt động tốt hơn trên bài kiểm tra. Rõ ràng, việc hỏi câu hỏi, “Bạn có phải là máy tính không?” và các câu hỏi đại diện liên quan như, “Món ăn yêu thích của bạn là gì?” là những dấu hiệu rõ ràng trừ khi AGI được lập trình để lừa dối – một mục tiêu đáng ngờ nhất.
Hơn nữa, Bài kiểm tra Turing đã thúc đẩy sự phát triển AI vào các lĩnh vực có giá trị hạn chế với (ví dụ) các rô-bốt trò chuyện có sự linh hoạt lớn trong phản hồi nhưng không có sự hiểu biết cơ bản.
Bạn sẽ làm khác gì trong phiên bản của mình về Bài kiểm tra Turing?
Những câu hỏi tốt hơn có thể thăm dò cụ thể vào sự hiểu biết về thời gian, không gian, nguyên nhân và kết quả, dự đoán, v.v. thay vì các câu hỏi ngẫu nhiên không có cơ sở cụ thể nào trong tâm lý học, khoa học thần kinh hoặc AI. Dưới đây là một số ví dụ:
- Bạn nhìn thấy gì ngay bây giờ? Nếu bạn lùi lại ba feet, bạn sẽ thấy những sự khác biệt nào?
- Nếu tôi [hành động], phản ứng của bạn sẽ là gì?
- Nếu bạn [hành động], phản ứng có thể của tôi sẽ là gì?
- Bạn có thể đặt tên cho ba điều gì giống như [đối tượng]?
Sau đó, thay vì đánh giá phản hồi về việc liệu chúng có thể phân biệt được với phản hồi của con người, chúng nên được đánh giá về việc liệu chúng có phải là phản hồi hợp lý (thông minh) dựa trên kinh nghiệm của thực thể được kiểm tra.
Bạn đã tuyên bố rằng khi đối mặt với yêu cầu thực hiện một số hoạt động phá hủy ngắn hạn, AGI được lập trình đúng sẽ đơn giản từ chối. Làm thế nào chúng ta có thể đảm bảo rằng AGI được lập trình đúng từ đầu?
Quyết định là dựa trên mục tiêu. Kết hợp với tưởng tượng, bạn (hoặc một AGI) xem xét kết quả của các hành động có thể khác nhau và chọn hành động phù hợp nhất với mục tiêu. Ở con người, mục tiêu của chúng ta được đặt bởi bản năng tiến hóa và kinh nghiệm của chúng ta; mục tiêu của một AGI hoàn toàn phụ thuộc vào nhà phát triển. Chúng ta cần đảm bảo rằng mục tiêu của một AGI phù hợp với mục tiêu của nhân loại, thay vì mục tiêu cá nhân của một cá nhân. [Ba mục tiêu có thể như trên.]
Bạn đã tuyên bố rằng điều đó là không thể tránh khỏi rằng con người sẽ tạo ra một AGI, ước tính tốt nhất của bạn cho một khung thời gian là gì?
Các khía cạnh của AGI sẽ bắt đầu xuất hiện trong thập kỷ tới nhưng chúng ta sẽ không đồng ý rằng AGI đã đến. Cuối cùng, chúng ta sẽ đồng ý rằng AGI đã đến khi chúng vượt qua hầu hết khả năng của con người với một biên độ đáng kể. Điều này sẽ mất hai hoặc ba thập kỷ nữa.
Đối với tất cả các cuộc nói chuyện về AGI, nó sẽ là ý thức thực sự như chúng ta biết?
Ý thức thể hiện trong một tập hợp các hành vi (mà chúng ta có thể quan sát) dựa trên một cảm giác nội bộ (mà chúng ta không thể quan sát). AGI sẽ thể hiện các hành vi; chúng cần phải làm như vậy để đưa ra quyết định thông minh. Nhưng tôi cho rằng cảm giác nội bộ của chúng ta chủ yếu phụ thuộc vào phần cứng cảm giác và bản năng của chúng ta, vì vậy tôi có thể đảm bảo rằng bất kỳ cảm giác nội bộ nào mà một AGI có thể có, chúng sẽ khác với cảm giác của con người.
Điều tương tự cũng có thể nói về cảm xúc và ý thức về ý chí tự do của chúng ta. Trong việc đưa ra quyết định, niềm tin vào ý chí tự do thấm vào mọi quyết định chúng ta đưa ra. Nếu bạn không tin rằng bạn có sự lựa chọn, bạn chỉ phản ứng. Để một AGI đưa ra quyết định sâu sắc, nó cũng cần phải nhận thức được khả năng đưa ra quyết định của chính mình.
Câu hỏi cuối cùng, bạn có tin rằng một AGI có nhiều tiềm năng cho tốt hơn là cho xấu?
Tôi lạc quan rằng AGI sẽ giúp chúng ta tiến bước như một loài và mang lại cho chúng ta câu trả lời cho nhiều câu hỏi về vũ trụ. Chìa khóa sẽ là để chúng ta chuẩn bị và quyết định mối quan hệ của chúng ta với AGI khi chúng ta định nghĩa mục tiêu của chúng. Nếu chúng ta quyết định sử dụng AGI đầu tiên như công cụ chinh phục và làm giàu, chúng ta không nên ngạc nhiên nếu, sau này, chúng trở thành công cụ chinh phục và làm giàu của riêng chúng chống lại chúng ta. Nếu chúng ta chọn AGI là công cụ của kiến thức, khám phá và hòa bình, thì đó là những gì chúng ta có thể nhận lại. Lựa chọn thuộc về chúng ta.
Cảm ơn vì một cuộc phỏng vấn tuyệt vời khi khám phá tiềm năng tương lai của việc xây dựng một AGI. Đối với những người đọc muốn tìm hiểu thêm, họ có thể đọc ‘Liệu máy tính có nổi loạn’ hoặc truy cập trang web của Charle tại futureai.guru.










