Connect with us

Làm thế nào Trí tuệ nhân tạo đang được sử dụng trong Tòa án

Trí tuệ nhân tạo

Làm thế nào Trí tuệ nhân tạo đang được sử dụng trong Tòa án

mm
Closeup of a judge's gavel in a courtroom.

Mỗi ngày, các chuyên gia trong hệ thống tư pháp tiến hành nghiên cứu pháp lý, giao tiếp với khách hàng, quản lý các vụ án và giải thích luật. Công việc của họ là nền tảng của một xã hội an toàn và hoạt động, đó là lý do tại sao nhiều người tò mò về lời hứa về năng suất cao hơn. Các luật sư – đặc biệt là những người bào chữa công – thường có số lượng vụ án khổng lồ. Các thẩm phán viết ý kiến phản đối mà có thể làm mờ nước cho các thủ tục pháp lý tương lai. Các quy định và luật liên tục thay đổi. Trong hệ thống phức tạp này, trí tuệ nhân tạo (AI) đã xuất hiện như một phương tiện để tự động hóa các quá trình hành chính tốn thời gian. 

Ứng dụng hàng ngày của AI trong Tòa án

Phần lớn thời gian làm việc của một luật sư được dành cho các nhiệm vụ hành chính tốn thời gian, không phải là thuyết phục bồi thẩm đoàn trong phòng xử án. Họ dành 80% thời gian của họ để thu thập thông tin và chỉ 20% cho phân tích và ý nghĩa. Để xây dựng các vụ án, họ phải tỉ mỉ xem xét các vụ án pháp lý, quy định và luật. AI có thể简化 các nhiệm vụ như vậy, giúp họ tiết kiệm hàng trăm giờ. 

Các trợ lý AI có thể giúp các luật sư tối ưu hóa lịch trình và quản lý số lượng vụ án, vượt qua các vấn đề về lịch trình. AI tạo sinh có thể giúp họ và nhân viên của họ tiến hành nghiên cứu pháp lý. Các thẩm phán có thể tham khảo các công cụ đánh giá rủi ro thuật toán khi đưa ra quyết định về bảo lãnh. 

Công cụ này cũng có thể giúp các chuyên gia pháp lý khác. Các mô hình xử lý ngôn ngữ tự nhiên có thể giúp các stenographer với việc ghi chép, trong khi các mô hình ngôn ngữ lớn (LLM) có thể hỗ trợ các phiên dịch viên với việc dịch. AI tạo sinh có thể soạn thảo tài liệu, tự động hóa giao tiếp với khách hàng hoặc tổ chức các tệp vụ án cho các trợ lý pháp lý và thư ký. 

Lợi ích của việc tích hợp AI vào các chức năng của Tòa án

AI có thể tăng tốc các nhiệm vụ tốn thời gian và lặp đi lặp lại, giúp các chuyên gia có thời gian cho các vấn đề quan trọng hoặc cấp thiết hơn. Điều này sẽ đặc biệt có lợi cho các luật sư bào chữa công, những người xử lý hàng trăm vụ án và kháng cáo mỗi năm. Trung bình, họ dành từ 13,5 đến 286 giờ cho mỗi vụ án để đại diện cho các bị cáo. 

Các chuyên gia pháp lý không phải là những người duy nhất được hưởng lợi từ việc sử dụng AI. Những người tự đại diện trong tòa án có thể tìm kiếm hướng dẫn pháp lý từ các rô-bốt trò chuyện AI. 

AI có thể làm cho đại diện pháp lý trở nên dễ tiếp cận hơn cho các dân tộc và cộng đồng bị thiệt thòi. Các công ty luật có thể sử dụng nó để cung cấp dịch vụ pháp lý miễn phí cho các cá nhân có thu nhập thấp. Vì một mô hình có thể tương tác với hàng nghìn hoặc thậm chí hàng triệu người cùng một lúc, nó có thể mở rộng khi công ty luật phát triển. 

Các vấn đề pháp lý và đạo đức liên quan đến AI

Mặc dù AI có thể có lợi cho các nguyên đơn, luật sư, thẩm phán và phiên dịch viên, nhưng việc lạm dụng nó có thể dẫn đến các phán quyết pháp lý sai lầm. Vào năm 2024, Viện Trí tuệ nhân tạo lấy con người làm trung tâm của Stanford đã phát hiện ra rằng các LLM hiện đại có tỷ lệ ảo giác từ 69% đến 88% khi trả lời các câu hỏi pháp lý.

Các LLM thường tự tin xuất ra thông tin sai hoặc bịa đặt. Ví dụ, chúng có thể trích dẫn các vụ án pháp lý không tồn tại hoặc tạo ra các trích dẫn giả khi tiến hành nghiên cứu pháp lý. Mặc dù chúng có vẻ hợp lý, nhưng những ảo giác này là không chính xác. 

Cũng có thể xảy ra việc lừa đảo có chủ ý, given sức mạnh của AI tạo sinh. Một nguyên đơn có thể sử dụng nó để tạo ra một video an ninh giả mạo cho thấy bị đơn đang đánh cắp tài sản của họ. Ví dụ này không hoàn toàn là giả thuyết, vì các video giả đã được sử dụng trong tòa án. 

Tại Hoa Kỳ, 80% các vụ án phụ thuộc vào video – bao gồm cả cảnh quay từ camera an ninh, quay từ điện thoại di động hoặc clip giám sát – ở một mức độ nào đó. Đây là lý do tại sao các chuyên gia pháp lý lo ngại về các video giả. Vào tháng 9 năm 2025, một thẩm phán đã bác bỏ một vụ án dân sự sau khi xác định rằng lời khai của nhân chứng qua video là một video giả. 

Những kẻ xấu có thể nhắm vào các công cụ nghiên cứu pháp lý AI để làm gián đoạn hệ thống tư pháp. Nghiên cứu cho thấy có thể đầu độc 0,01% mẫu dữ liệu đào tạo với các công cụ hiện có. Điều đó có vẻ không đáng kể, nhưng tỷ lệ đầu độc thấp tới 0,001% có thể thay đổi vĩnh viễn đầu ra. Người dùng có thể truy cập khoảng 30% mẫu trong bất kỳ LLM nào, khiến việc làm hỏng trở nên dễ dàng đáng ngạc nhiên. 

Các vụ án thực tế nơi AI được sử dụng trong Tòa án

AI có thể có lợi cho các chuyên gia pháp lý và những người tự đại diện. Tuy nhiên, hầu hết các ví dụ thực tế đang làm tiêu đề không phải là tích cực. Do lo ngại rộng rãi về các ý nghĩa pháp lý và đạo đức của AI trong tòa án, những ví dụ tồi tệ nhất nhận được sự chú ý nhiều nhất. 

Vào tháng 5 năm 2025, thẩm phán liên bang Michael Wilner muốn tìm hiểu thêm về các lập luận mà một số luật sư đã đưa ra trong một hồ sơ. Tuy nhiên, các bài viết họ trích dẫn không tồn tại. Sau khi bị ép cung cấp thêm chi tiết, họ đã đưa ra một bản tóm tắt mới với nhiều sai sót hơn bản đầu tiên. 

Khi Wilner ra lệnh họ phải cung cấp lời khai dưới lời thề để giải thích các sai lầm, họ đã thừa nhận rằng họ đã sử dụng Gemini của Google và các mô hình AI chuyên về luật để viết tài liệu. Thẩm phán đã áp dụng các biện pháp trừng phạt trị giá 31.000 đô la đối với công ty luật. Mặc dù họ không nhập thông tin bí mật hoặc không công khai, họ vẫn làm lãng phí thời gian của tòa án. 

Không chỉ có các luật sư và nguyên đơn lạm dụng AI. Vào năm 2025, hai thẩm phán quận liên bang Hoa Kỳ đã rút lại các quyết định sau khi phát hiện ra rằng nhân viên tòa án của họ đã sử dụng các công cụ AI cho nghiên cứu pháp lý, dẫn đến các trích dẫn vụ án bị lỗi và bị ảo giác. Mặc dù họ đổ lỗi cho các quyết định sai lầm cho AI, nhưng trên thực tế, đó là trách nhiệm của họ phải đọc kỹ vụ án họ trích dẫn. 

Những điều này không phải là các vụ án riêng lẻ làm nổi bật các công ty luật địa phương nhỏ và không rõ ràng – những điều này là các luật sư và thẩm phán liên bang lớn đang phạm phải những sai lầm đáng ngạc nhiên và có thể tránh được. Lỗi không nằm hoàn toàn ở các thuật toán thông minh, cả. Cuối cùng, AI chỉ là một công cụ. Liệu nó có lợi hay không phụ thuộc vào người sử dụng. 

Làm thế nào Hệ thống Tư pháp Nên Sử dụng AI

Các LLM công khai có sẵn là rủi ro về độ chính xác và an ninh đang chờ xảy ra. Các mô hình tạo sinh tăng cường bằng thu hồi (RAG) chuyên về lĩnh vực cụ thể đang được quảng cáo như một giải pháp cho các ảo giác AI vì chúng thu thập dữ liệu liên quan từ các cơ sở kiến thức đáng tin cậy bên ngoài trước khi tạo ra phản hồi.

Tuy nhiên, một mô hình RAG không phải là một viên đạn bạc vì luật pháp không hoàn toàn bao gồm các sự kiện không thể chối cãi và có thể xác minh. Các bồi thẩm đoàn bị ảnh hưởng bởi các luật sư có khả năng thuyết phục. Các thẩm phán viết ý kiến để giải thích lý do đằng sau các quyết định của họ. Luật pháp khác nhau giữa các quốc gia, tiểu bang và địa phương. Có chỗ cho sai lầm trong khu vực xám này. 

Luật pháp thường phụ thuộc vào cách giải thích — đây là lý do tại sao các luật sư và thẩm phán tồn tại ngay từ đầu. Con người không thể mong đợi AI là một quyền lực không thể sai lầm về chủ đề này. Mặc dù sử dụng RAG là một bước đi đúng hướng, nhưng việc đảm bảo giám sát liên tục với một phương pháp có người trong vòng lặp là chìa khóa. 

Làm thế nào AI sẽ được sử dụng trong các Tòa án Tương lai

Các tòa án phụ thuộc vào tài liệu liên quan được hỗ trợ bởi các trích dẫn chính xác. Mặc dù được áp dụng rộng rãi bởi các trợ lý pháp lý và luật sư để tiết kiệm thời gian và công sức cho các nhiệm vụ hành chính, AI vẫn gặp khó khăn khi thu thập thông tin này. 

Các ảo giác AI không chỉ riêng ở các tòa án Hoa Kỳ. Trong một vụ án ở Vương quốc Anh, nguyên đơn đã yêu cầu gần 120 triệu đô la tiền bồi thường từ Ngân hàng Quốc gia Qatar. Tòa án đã phát hiện ra rằng 40% trích dẫn vụ án pháp lý của họ hoàn toàn bịa đặt. Ngay cả các vụ án thực sự cũng chứa các trích dẫn giả. Cuối cùng, nguyên đơn đã thừa nhận rằng họ đã sử dụng các công cụ AI cho nghiên cứu pháp lý. 

Dù cho vụ án của họ có vững chắc, nhưng các ảo giác AI đã làm tổn hại đến uy tín và danh tiếng của họ, có thể ảnh hưởng đến kết quả chống lại họ. Để tránh những sai lầm tương tự trong tương lai, luật pháp phải theo kịp AI. 

Các quy tắc quản lý việc sử dụng AI và giám sát phải được chi tiết và mạnh mẽ. Các tòa án với “sự hiểu biết bằng lời” có thể sẽ tìm thấy nhân viên vẫn đang sử dụng AI. Như các chuyên gia pháp lý biết, các quy tắc đòi hỏi một cơ chế thực thi. Các biện pháp kỷ luật và trừng phạt sẽ giúp các chuyên gia hiểu rõ mức độ nghiêm trọng của việc sử dụng AI an toàn và có đạo đức.

Bên sáng sủa của việc sử dụng AI trong Tòa án

Những sai lầm có mức độ cao này đặt ra thêm các câu hỏi về tính toàn vẹn của nghiên cứu. Liệu các công cụ AI có vô tình tiết lộ rằng các luật sư không kiểm chứng nghiên cứu pháp lý và các thẩm phán đang lập hồ sơ các bản thảo không được xác minh? Dù tốt hay xấu, AI đang trở thành một phần của hệ thống tư pháp. Giống như bất kỳ công cụ nào khác, liệu tác động của nó có tích cực hay tiêu cực phụ thuộc vào cách nó được sử dụng. Bên sáng sủa là rằng ngay cả những sai lầm đáng ngạc nhiên cũng cung cấp cho các chuyên gia một hướng dẫn về những gì không nên làm.

Zac Amos là một nhà viết về công nghệ tập trung vào trí tuệ nhân tạo. Ông cũng là Biên tập viên Đặc sắc tại ReHack, nơi bạn có thể đọc thêm về công việc của ông.