Lãnh đạo tư tưởng
Trí tuệ nhân tạo và đường cong của niềm tin

Đầu năm ngoái, khi đội ngũ của chúng tôi đưa ra những dự đoán về những gì sẽ xảy ra trong tương lai, chúng tôi đã nhất trí rằng những lớp vỏ bọc xung quanh trí tuệ nhân tạo (AI) sẽ được gỡ bỏ. Chúng tôi cuối cùng sẽ thấy được khả năng của nó và hy vọng sẽ có được sự rõ ràng về tác động của nó đối với kinh doanh và xã hội, cũng như cách thức tiến hành. Đó không phải là một dự đoán mới, nhưng cốt lõi của nó là chính xác, mặc dù chúng tôi vẫn đang vật lộn với những ý nghĩa của AI và cách (hoặc nếu) nó nên được kiểm soát theo một cách nào đó.
Chúng tôi sẽ thấy Apple, Microsoft và Google tích hợp AI vào các thiết bị và mang lại sức mạnh của nó cho một đối tượng rộng lớn và lớn hơn. Sau đó, một chương trình trò chuyện trong công cụ tìm kiếm được hỗ trợ bởi AI đã đe dọa người dùng và tuyên bố rằng nó đã theo dõi nhân viên, trong khi một chương trình khác đã đề xuất sử dụng keo Elmer trong pizza tự làm để giữ cho phô mai không bị trượt ra. Tuy nhiên, việc áp dụng AI trong kinh doanh đã tăng trưởng đáng kể và thị trường cũng vậy. Theo dữ liệu từ Crunchbase, gần một phần ba số vốn đầu tư mạo hiểm toàn cầu trong năm qua đã đi vào các công ty trong lĩnh vực liên quan đến AI.
Nhưng ngay cả khi OpenAI mang lại khả năng suy luận được cải tiến đáng kể, nhà nghiên cứu AI nổi tiếng, Yoshua Bengio, đã kêu gọi áp dụng các biện pháp an toàn cho “các mô hình tiền phong” có khả năng gây ra thiệt hại thảm khốc. Và mặc dù công nghệ này sẽ mang về hai giải Nobel cho các ứng dụng trong khoa học, một trong những người nhận giải đã bày tỏ lo ngại về việc có hệ thống “thông minh hơn chúng ta và cuối cùng sẽ kiểm soát”.
Trong một không gian đang thay đổi nhanh chóng như vậy, thật khó cho các chuyên gia công nghệ để theo kịp, không kể đến những người trong dòng chính.
Và những sự cố AI – và lo ngại về quyền riêng tư và sử dụng không kiểm soát – chỉ làm tăng thêm sự cảnh giác của công chúng.
Chỉ cần tin tôi
Chúng tôi tìm thấy mình đang ở giữa một đường cong của niềm tin, một đường cong đòi hỏi sự chấp nhận của công chúng đối với AI, đồng thời đảm bảo rằng các cộng đồng kinh doanh và công nghệ hành động có trách nhiệm. Phần đầu tiên là nơi trò chơi đang được chơi ngay bây giờ, trên cấp độ doanh nghiệp, tăng tốc với mỗi lần triển khai an toàn và âm thanh. Chúng tôi đang xây dựng dựa trên các điểm chứng minh của mình, điều này cuối cùng sẽ dẫn đến sự tăng trưởng của niềm tin công chúng. Phần thứ hai, tuy nhiên, là far trickier.
Ai định nghĩa và thực thi việc sử dụng AI có trách nhiệm? Một ngành công nghiệp có thể tạo ra các hướng dẫn khi họ là những người cần được điều chỉnh? Nếu các chuyên gia công nghệ đang gặp khó khăn trong việc theo dõi AI, thì các nhà hoạch định chính sách có được thông tin và giữ các chương trình nghị sự chính trị của họ ra khỏi cuộc thảo luận? Và khi một tỷ phú AI đột nhiên muốn nói về kiểm soát, họ có một khoảnh khắc tỉnh thức hay chỉ đang cố gắng bơm phanh để bắt kịp?
“Chỉ cần tin tôi” sẽ không cắt giảm nó với AI, bất kể bạn là ai.
Tin nhưng xác minh
Người dân nhìn vào AI tạo ra như ChatGPT và tự hỏi liệu nó có phải là Google tiếp theo của họ? Well, kết quả hàng đầu của một tìm kiếm Google bây giờ được tạo ra bởi mô hình AI của nó, Gemini. Vấn đề là bạn không thể dựa vào nó cho kinh doanh trên quy mô lớn khi một câu hỏi đơn giản như “Thịt sống có an toàn để tiêu thụ?” trả lời “Có, đông lạnh.” Bạn cần kiểm tra dữ liệu.
Đường cong của niềm tin công chúng sẽ phản ánh những gì nó đã làm với tìm kiếm thông thường, được đạt được theo thời gian và với bằng chứng về độ tin cậy. Irony, trong nỗ lực của chúng tôi để đơn giản hóa và cải thiện tìm kiếm, chúng tôi đã bước một bước lùi. Bây giờ, sau khi nhận được câu trả lời được tạo ra bởi AI ở trên cùng, bạn phải cuộn qua một danh sách dài các liên kết tài trợ, nhấp vào năm tiếp theo và vẫn đủ điều kiện thông tin.
Đó là một lượng công việc lớn khi bạn đang tìm kiếm một câu trả lời nhanh – và bạn không thể có một công ty toàn bộ làm việc như vậy. Tuy nhiên, làm giàu dữ liệu bạn đã khai thác với hàng chục nghìn vé dịch vụ của riêng bạn và bạn mang lại kiến thức thực sự về môi trường của mình. Thuật toán, bạn có thể cấu hình ảo giác xuống, nhưng vẫn còn một tình huống “tin nhưng xác minh”.
Giữ chính trị ra khỏi nó
Khi nói đến việc điều chỉnh AI, một số người cho rằng con ngựa đã rời khỏi chuồng và có khả năng sẽ không bị bắt. Ví dụ, có một thiếu hụt các công cụ thực sự hiệu quả để kiểm tra xem một sinh viên đã soạn thảo một bài báo hoặc sử dụng GenAI. Công nghệ này chỉ quá xa trước.
Điều chỉnh này sẽ rất phức tạp, và để nói thật, chúng tôi sẽ đang đi trên băng mỏng. Chúng tôi biết các công ty công nghệ đang dẫn đầu các nhà điều chỉnh đề xuất hàng thập kỷ. Nhưng chúng tôi tốt trong việc tạo ra một con đường, không bị giữ lại. Tuy nhiên, vào cuối ngày, nó có thể thuộc về các nhà đổi mới để cố gắng áp dụng quản trị. Ai khác có thể làm điều đó – một cách có trách nhiệm?
Có nhiều chính trị gia muốn cho nó một cơ hội. Rủi ro, ngoài việc thiếu hiểu biết, là nếu họ có một chương trình nghị sự chính trị và cá nhân để tiến bộ. Sự tập trung của họ, có khả năng, sẽ ít hơn vào việc nuôi dưỡng AI và nhiều hơn vào việc làm những gì nằm trong lợi ích chính trị tốt nhất của họ. Họ có thể làm việc từ những nỗi sợ hãi công chúng, sử dụng một bàn tay nặng để kìm hãm tiến trình của nó.
Đạo luật CHIPS và Khoa học là một ví dụ tốt về hành động chính phủ lành mạnh, tạo ra một sự tăng trưởng 15 lần trong việc xây dựng các cơ sở sản xuất cho máy tính và thiết bị điện tử. Nhưng điều này đã được thực hiện có thể thông qua sự hợp tác của cả hai đảng – ngày càng trở thành một di tích của một thời đại trước.
Chúng tôi có xứng đáng?
Có rất nhiều tiền đang chảy vào AI và trong hai thập kỷ tới, nhiều tiền sẽ được tạo ra bởi các công ty công nghệ. Bao nhiêu, bao nhiêu và bao nhiêu an toàn vẫn còn được xem. Vào bất kỳ ngày nào, một giả mạo sâu có thể được lưu hành, cho thấy một người nào đó trong ánh đèn sân khấu đang ném những quả trứng của một loài chim có nguy cơ tuyệt chủng. Công chúng sẽ phản ứng với sự kinh hoàng, và trong khi nó có thể được tiết lộ là được tạo ra bởi AI, thì quả trứng đó không quay trở lại vào vỏ – thiệt hại đã được thực hiện.
Chúng tôi cần những thứ như vậy được điều chỉnh bởi các chuyên gia công nghệ thông tin. Hình thức mà nó thực hiện – một hội đồng, cơ quan tiêu chuẩn, khuôn khổ quốc tế – vẫn còn được xem. Điều được biết là AI đang trên một đường cong của niềm tin, và như một ngành công nghiệp, chúng tôi cần chứng minh rằng chúng tôi xứng đáng với nó.












