Kết nối với chúng tôi

Tại sao Web mở lại gặp rủi ro trong thời đại AI Crawlers

Trí tuệ nhân tạo

Tại sao Web mở lại gặp rủi ro trong thời đại AI Crawlers

mm

Được phát hành

 on

Trình thu thập dữ liệu web AI và Web mở

Internet luôn là không gian cho sự tự do ngôn luận, hợp tác và trao đổi ý tưởng một cách cởi mở. Tuy nhiên, với sự kiên trì tiến bộ trong trí tuệ nhân tạo (AI), Các trình thu thập dữ liệu web được hỗ trợ bởi AI đã bắt đầu chuyển đổi thế giới kỹ thuật số. Các bot này, được triển khai bởi các công ty AI lớn, thu thập dữ liệu trên Web, thu thập lượng dữ liệu khổng lồ, từ các bài viết và hình ảnh đến video và mã nguồn, để cung cấp học máy .

Trong khi bộ sưu tập dữ liệu khổng lồ này giúp thúc đẩy những tiến bộ đáng kể trong AI, nó cũng làm dấy lên mối lo ngại nghiêm trọng về việc ai sở hữu thông tin này, mức độ riêng tư của thông tin và liệu những người sáng tạo nội dung có thể vẫn kiếm sống được hay không. Khi các trình thu thập dữ liệu AI lan truyền không kiểm soát, chúng có nguy cơ làm suy yếu nền tảng của Internet, một không gian mở, công bằng và dễ tiếp cận cho tất cả mọi người.

Web Crawlers và ảnh hưởng ngày càng tăng của chúng lên thế giới số

Web crawler, còn được gọi là spider bot hoặc search engine bot, là các công cụ tự động được thiết kế để khám phá Web. Công việc chính của chúng là thu thập thông tin từ các trang web và lập chỉ mục cho các công cụ tìm kiếm như GoogleBing. Điều này đảm bảo rằng các trang web có thể được tìm thấy trong kết quả tìm kiếm, giúp chúng dễ thấy hơn đối với người dùng. Các bot này quét các trang web, theo dõi các liên kết và phân tích nội dung, giúp các công cụ tìm kiếm hiểu những gì có trên trang, cách trang được cấu trúc và cách trang có thể xếp hạng trong kết quả tìm kiếm.

Trình thu thập dữ liệu không chỉ lập chỉ mục nội dung; chúng thường xuyên kiểm tra thông tin mới và cập nhật trên các trang web. Quá trình liên tục này cải thiện tính liên quan của kết quả tìm kiếm, giúp xác định các liên kết bị hỏng và tối ưu hóa cách các trang web được cấu trúc, giúp các công cụ tìm kiếm dễ dàng tìm và lập chỉ mục các trang hơn. Trong khi trình thu thập dữ liệu truyền thống tập trung vào việc lập chỉ mục cho các công cụ tìm kiếm, thì trình thu thập dữ liệu được hỗ trợ bởi AI đang tiến xa hơn một bước. Các bot do AI điều khiển này thu thập một lượng lớn dữ liệu từ các trang web để đào tạo các mô hình học máy được sử dụng trong xử lý ngôn ngữ tự nhiênnhận dạng hình ảnh.

Tuy nhiên, sự gia tăng của trình thu thập dữ liệu AI đã làm dấy lên những lo ngại quan trọng. Không giống như trình thu thập dữ liệu truyền thống, bot AI có thể thu thập dữ liệu một cách bừa bãi hơn, thường là không cần xin phép. Điều này có thể dẫn đến các vấn đề về quyền riêng tư và khai thác tài sản trí tuệ. Đối với các trang web nhỏ hơn, điều này có nghĩa là chi phí tăng lên, vì hiện tại họ cần cơ sở hạ tầng mạnh hơn để đối phó với sự gia tăng lưu lượng truy cập của bot. Các công ty công nghệ lớn, chẳng hạn như OpenAI, Google và Microsoft, là những người dùng chính của trình thu thập dữ liệu AI, sử dụng chúng để đưa lượng lớn dữ liệu internet vào các hệ thống AI. Mặc dù trình thu thập dữ liệu AI mang lại những tiến bộ đáng kể trong học máy, nhưng chúng cũng đặt ra những câu hỏi về đạo đức về cách dữ liệu được thu thập và sử dụng kỹ thuật số.

Chi phí ẩn của Web mở: Cân bằng giữa đổi mới và tính toàn vẹn kỹ thuật số

Sự gia tăng của các trình thu thập dữ liệu web do AI cung cấp đã dẫn đến một cuộc tranh luận ngày càng tăng trong thế giới kỹ thuật số, nơi sự đổi mới và quyền của người sáng tạo nội dung xung đột. Cốt lõi của vấn đề này là những người sáng tạo nội dung như nhà báo, người viết blog, nhà phát triển và nghệ sĩ, những người từ lâu đã dựa vào Internet để làm việc, thu hút khán giả và kiếm sống. Tuy nhiên, sự xuất hiện của Web scraping do AI điều khiển đang thay đổi các mô hình kinh doanh bằng cách lấy một lượng lớn nội dung có sẵn công khai, như bài viết, bài đăng trên blog và video, và sử dụng nó để đào tạo các mô hình học máy. Quá trình này cho phép AI sao chép sự sáng tạo của con người, điều này có thể dẫn đến nhu cầu về tác phẩm gốc ít hơn và làm giảm giá trị của nó.

Mối quan tâm lớn nhất đối với những người sáng tạo nội dung là công việc của họ đang bị mất giá. Ví dụ, các nhà báo lo ngại rằng các mô hình AI được đào tạo trên các bài viết của họ có thể bắt chước phong cách viết và nội dung của họ mà không trả tiền cho những người viết gốc. Điều này ảnh hưởng đến doanh thu từ quảng cáo và đăng ký và làm giảm động lực tạo ra báo chí chất lượng cao.

Một vấn đề lớn khác là vi phạm bản quyền. Việc trích xuất dữ liệu web thường liên quan đến việc lấy nội dung mà không được phép và gây ra mối lo ngại về sở hữu trí tuệ. Vào năm 2023, Getty Images kiện các công ty AI vì đã thu thập cơ sở dữ liệu hình ảnh của họ mà không có sự đồng ý, tuyên bố rằng hình ảnh có bản quyền của họ đã được sử dụng để đào tạo các hệ thống AI tạo ra tác phẩm nghệ thuật mà không được trả tiền hợp lệ. Vụ kiện này nêu bật vấn đề rộng hơn về việc AI sử dụng tài liệu có bản quyền mà không cấp phép hoặc trả tiền cho người sáng tạo.

Các công ty AI cho rằng việc thu thập dữ liệu lớn là cần thiết để AI tiến bộ, nhưng điều này đặt ra các câu hỏi về đạo đức. Liệu tiến bộ AI có phải đánh đổi bằng quyền và quyền riêng tư của người sáng tạo không? Nhiều người kêu gọi các công ty AI áp dụng các biện pháp thu thập dữ liệu có trách nhiệm hơn, tôn trọng luật bản quyền và đảm bảo người sáng tạo được đền bù. Cuộc tranh luận này đã dẫn đến các lời kêu gọi về các quy tắc chặt chẽ hơn để bảo vệ người sáng tạo nội dung và người dùng khỏi việc sử dụng dữ liệu của họ một cách không được kiểm soát.

Việc thu thập dữ liệu AI cũng có thể ảnh hưởng tiêu cực đến hiệu suất của trang web. Hoạt động quá mức của bot có thể làm chậm máy chủ, tăng chi phí lưu trữ và ảnh hưởng đến thời gian tải trang. Việc thu thập dữ liệu nội dung có thể dẫn đến vi phạm bản quyền, trộm băng thông và tổn thất tài chính do lưu lượng truy cập và doanh thu của trang web giảm. Ngoài ra, các công cụ tìm kiếm có thể phạt các trang web có nội dung trùng lặp, điều này có thể làm giảm thứ hạng SEO.

Những cuộc đấu tranh của những nhà sáng tạo nhỏ trong thời đại AI Crawlers

Khi các trình thu thập dữ liệu web được hỗ trợ bởi AI tiếp tục phát triển về ảnh hưởng, những người sáng tạo nội dung nhỏ hơn như blogger, nhà nghiên cứu độc lập và nghệ sĩ đang phải đối mặt với những thách thức đáng kể. Những người sáng tạo này, những người theo truyền thống sử dụng Internet để chia sẻ tác phẩm của họ và tạo ra thu nhập, giờ đây có nguy cơ mất quyền kiểm soát nội dung của họ.

Sự thay đổi này đang góp phần tạo nên một Internet phân mảnh hơn. Các tập đoàn lớn, với nguồn lực khổng lồ của mình, có thể duy trì sự hiện diện mạnh mẽ trực tuyến, trong khi những nhà sáng tạo nhỏ hơn phải vật lộn để được chú ý. Sự bất bình đẳng ngày càng tăng có thể đẩy những tiếng nói độc lập ra xa hơn, với các công ty lớn nắm giữ phần lớn nội dung và dữ liệu.

Để ứng phó, nhiều nhà sáng tạo đã chuyển sang mô hình paywall hoặc mô hình đăng ký để bảo vệ tác phẩm của họ. Mặc dù điều này có thể giúp duy trì quyền kiểm soát, nhưng nó hạn chế quyền truy cập vào nội dung có giá trị. Một số thậm chí đã bắt đầu xóa tác phẩm của họ khỏi Web để ngăn chặn việc sao chép. Những hành động này góp phần tạo nên một không gian kỹ thuật số khép kín hơn, nơi một số thực thể quyền lực kiểm soát quyền truy cập vào thông tin.

Sự gia tăng của AI scraping và paywall có thể dẫn đến sự tập trung kiểm soát hệ sinh thái thông tin của Internet. Các công ty lớn bảo vệ dữ liệu của họ sẽ duy trì được lợi thế, trong khi những người sáng tạo và nghiên cứu nhỏ hơn có thể bị bỏ lại phía sau. Điều này có thể làm xói mòn bản chất phi tập trung, cởi mở của Web, đe dọa vai trò của nó như một nền tảng trao đổi ý tưởng và kiến ​​thức cởi mở.

Bảo vệ Web mở và Người sáng tạo nội dung

Khi trình thu thập dữ liệu web được hỗ trợ bởi AI trở nên phổ biến hơn, những người sáng tạo nội dung sẽ phản ứng theo cách khác. Vào năm 2023, The New York Times kiện OpenAI vì đã sao chép các bài viết của mình mà không được phép để đào tạo các mô hình AI. Vụ kiện cho rằng hành vi này vi phạm luật bản quyền và gây tổn hại đến mô hình kinh doanh của báo chí truyền thống bằng cách cho phép AI sao chép nội dung mà không trả tiền cho người sáng tạo ban đầu.

Các hành động pháp lý như thế này chỉ là khởi đầu. Nhiều nhà sáng tạo nội dung và nhà xuất bản đang kêu gọi bồi thường cho dữ liệu mà trình thu thập dữ liệu AI thu thập được. Khía cạnh pháp lý đang thay đổi nhanh chóng. Tòa án và nhà lập pháp đang nỗ lực cân bằng giữa phát triển AI với bảo vệ quyền của người sáng tạo.

Trên mặt trận lập pháp, Liên minh châu Âu đã giới thiệu Đạo luật AI vào năm 2024. Luật này đặt ra các quy tắc rõ ràng cho việc phát triển và sử dụng AI tại EU. Luật này yêu cầu các công ty phải có được sự đồng ý rõ ràng trước khi thu thập nội dung để đào tạo các mô hình AI. Cách tiếp cận của EU đang thu hút sự chú ý trên toàn thế giới. Các luật tương tự đang được thảo luận tại Hoa Kỳ và Châu Á. Những nỗ lực này nhằm bảo vệ những người sáng tạo trong khi khuyến khích sự tiến bộ của AI.

Các trang web cũng đang có hành động để bảo vệ nội dung của họ. Các công cụ như CAPTCHA, yêu cầu người dùng chứng minh họ là con người và robots.txt, cho phép chủ sở hữu trang web chặn bot khỏi một số phần nhất định trên trang web của họ, thường được sử dụng. Các công ty như Cloudflare đang cung cấp dịch vụ bảo vệ trang web khỏi trình thu thập dữ liệu có hại. Họ sử dụng các thuật toán tiên tiến để chặn lưu lượng truy cập không phải của con người. Tuy nhiên, với những tiến bộ trong trình thu thập dữ liệu AI, các phương pháp này đang trở nên dễ bỏ qua hơn.

Nhìn về phía trước, lợi ích thương mại của các công ty công nghệ lớn có thể dẫn đến một Internet bị chia rẽ. Các công ty lớn có thể kiểm soát hầu hết dữ liệu, khiến những người sáng tạo nhỏ hơn phải vật lộn để theo kịp. Xu hướng này có thể khiến Web trở nên kém cởi mở và dễ tiếp cận hơn.

Sự gia tăng của AI scraping cũng có thể làm giảm tính cạnh tranh. Các công ty nhỏ hơn và những người sáng tạo độc lập có thể gặp khó khăn trong việc truy cập dữ liệu họ cần để đổi mới, dẫn đến một Internet kém đa dạng hơn, trong đó chỉ những công ty lớn nhất mới có thể thành công.

Để bảo tồn Web mở, chúng ta cần hành động tập thể. Các khuôn khổ pháp lý như Đạo luật AI của EU là một khởi đầu tốt, nhưng cần nhiều hơn nữa. Một giải pháp khả thi là các mô hình cấp phép dữ liệu có đạo đức. Trong các mô hình này, các công ty AI trả tiền cho người sáng tạo cho dữ liệu họ sử dụng. Điều này sẽ giúp đảm bảo sự đền bù công bằng và duy trì sự đa dạng của Web.

Khung quản trị AI cũng rất cần thiết. Chúng phải bao gồm các quy tắc rõ ràng về thu thập dữ liệu, bảo vệ bản quyền và quyền riêng tư. Bằng cách thúc đẩy các hoạt động đạo đức, chúng ta có thể duy trì Internet mở trong khi vẫn tiếp tục phát triển công nghệ AI.

Lời kết

Việc sử dụng rộng rãi các trình thu thập dữ liệu web do AI cung cấp mang lại những thách thức đáng kể cho Internet mở, đặc biệt là đối với những người sáng tạo nội dung nhỏ có nguy cơ mất quyền kiểm soát đối với tác phẩm của họ. Khi các hệ thống AI thu thập một lượng lớn dữ liệu mà không được phép, các vấn đề như vi phạm bản quyền và khai thác dữ liệu trở nên nổi bật hơn.

Trong khi các hành động pháp lý và nỗ lực lập pháp, như Đạo luật AI của EU, mang lại khởi đầu đầy hứa hẹn, vẫn cần nhiều hơn nữa để bảo vệ người sáng tạo và duy trì một Web mở, phi tập trung. Các biện pháp kỹ thuật như CAPTCHA và dịch vụ bảo vệ bot rất quan trọng nhưng cần được cập nhật liên tục. Cuối cùng, việc cân bằng đổi mới AI với quyền của người sáng tạo nội dung và đảm bảo bồi thường công bằng sẽ rất quan trọng để duy trì một không gian kỹ thuật số đa dạng và dễ tiếp cận cho mọi người.

Tiến sĩ Assad Abbas, một Phó giáo sư chính thức tại Đại học COMSATS Islamabad, Pakistan, lấy bằng Tiến sĩ. từ Đại học bang North Dakota, Hoa Kỳ. Nghiên cứu của ông tập trung vào các công nghệ tiên tiến, bao gồm điện toán đám mây, sương mù và biên, phân tích dữ liệu lớn và AI. Tiến sĩ Abbas đã có những đóng góp đáng kể với các công bố trên các tạp chí và hội nghị khoa học có uy tín.