sơ khai Tối ưu hóa SEO: Cách thức hoạt động của AI của Google (Tháng 2024 năm XNUMX)
Kết nối với chúng tôi

Search Engine Optimization

Tối ưu hóa SEO: Cách thức hoạt động của AI của Google (Tháng 2024 năm XNUMX)

mm
cập nhật on

Công cụ Tìm kiếm Tối ưu hóa (SEO) là quá trình tối ưu hóa các yếu tố trên trang và ngoài trang ảnh hưởng đến thứ hạng của trang web đối với một cụm từ tìm kiếm cụ thể. Đây là một quá trình nhiều mặt bao gồm tối ưu hóa tốc độ tải trang, tạo chiến lược xây dựng liên kết, sử dụng Công cụ SEO, cũng như học cách thiết kế ngược AI của Google bằng cách sử dụng tư duy tính toán.

Tư duy máy tính là một loại kỹ thuật phân tích và giải quyết vấn đề nâng cao mà các lập trình viên máy tính sử dụng khi viết mã và thuật toán. Những người có tư duy máy tính sẽ tìm kiếm sự thật cơ bản bằng cách chia nhỏ một vấn đề và phân tích nó bằng cách sử dụng tư duy nguyên tắc đầu tiên.

Vì Google không tiết lộ nước sốt bí mật của họ cho bất kỳ ai nên chúng tôi sẽ dựa vào tư duy máy tính. Chúng ta sẽ xem qua một số thời điểm quan trọng trong lịch sử của Google đã định hình các thuật toán được sử dụng và chúng ta sẽ tìm hiểu lý do tại sao điều này lại quan trọng.

Làm thế nào để tạo ra một tâm trí

Chúng ta sẽ bắt đầu với một cuốn sách đã được xuất bản vào năm 2012, được gọi là “Làm thế nào để tạo ra một tâm trí: Bí mật của tư tưởng con người được tiết lộ” của nhà tương lai học nổi tiếng và nhà phát minh Ray Kurzweil. Cuốn sách này mổ xẻ bộ não con người và phá vỡ cách thức hoạt động của nó. Chúng ta học từ đầu cách bộ não tự đào tạo bằng cách sử dụng nhận dạng mẫu để trở thành một cỗ máy dự đoán, luôn làm việc để dự đoán tương lai, thậm chí dự đoán từ tiếp theo.

Làm thế nào để con người nhận ra các khuôn mẫu trong cuộc sống hàng ngày? Làm thế nào là những kết nối được hình thành trong não? Cuốn sách bắt đầu với việc hiểu tư duy phân cấp, đây là hiểu một cấu trúc bao gồm các yếu tố đa dạng được sắp xếp theo một khuôn mẫu, sự sắp xếp này sau đó đại diện cho một biểu tượng như chữ cái hoặc ký tự, và sau đó, điều này được sắp xếp tiếp theo thành một khuôn mẫu nâng cao hơn chẳng hạn như một từ, và cuối cùng là một câu. Cuối cùng, những mô hình này hình thành ý tưởng và những ý tưởng này được chuyển thành sản phẩm mà con người chịu trách nhiệm xây dựng.

Bằng cách mô phỏng bộ não con người, tiết lộ là một con đường để tạo ra một AI tiên tiến vượt quá khả năng hiện tại của các mạng nơ-ron vào thời điểm xuất bản.

Cuốn sách là một kế hoạch chi tiết để tạo ra một AI có thể mở rộng quy mô bằng cách hút sạch dữ liệu của thế giới và sử dụng quá trình xử lý nhận dạng mẫu nhiều lớp của nó để phân tích văn bản, hình ảnh, âm thanh và video. Một hệ thống được tối ưu hóa để nâng cấp do lợi ích của đám mây và khả năng xử lý song song của nó. Nói cách khác, sẽ không có giới hạn tối đa về dữ liệu đầu vào hoặc đầu ra.

Cuốn sách này quan trọng đến mức ngay sau khi xuất bản, tác giả Ray Kurzweil được Google thuê trở thành Giám đốc Kỹ thuật tập trung vào học máy và xử lý ngôn ngữ. Một vai trò hoàn toàn phù hợp với cuốn sách anh ấy đã viết.

Không thể phủ nhận tầm ảnh hưởng của cuốn sách này đối với tương lai của Google và cách họ xếp hạng các trang web. Cái này sách trí tuệ nhân tạo nên là tài liệu bắt buộc phải đọc đối với bất kỳ ai muốn trở thành chuyên gia SEO.

Deepmind

Ra mắt vào năm 2010, DeepMind là một công ty khởi nghiệp mới nổi bật sử dụng một loại thuật toán AI mới mang tính cách mạng đang gây bão trên toàn thế giới, nó được gọi là học tăng cường. DeepMind mô tả nó tốt nhất là:

“Chúng tôi trình bày mô hình học sâu đầu tiên để học thành công các chính sách kiểm soát trực tiếp từ đầu vào giác quan nhiều chiều bằng cách sử dụng học tăng cường. Mô hình này là một mạng lưới thần kinh tích chập, được huấn luyện bằng một biến thể của Q-learning, có đầu vào là pixel thô và đầu ra là hàm giá trị ước tính phần thưởng trong tương lai.”

Bằng cách kết hợp học sâu với học tăng cường, nó đã trở thành một học tập củng cố sâu hệ thống. Đến năm 2013, DeepMind đã sử dụng các thuật toán này để giành chiến thắng trước người chơi là con người trong các trò chơi Atari 2600 – Và điều này đạt được bằng cách bắt chước bộ não con người và cách bộ não học hỏi từ quá trình đào tạo và lặp lại.

Tương tự như cách con người học bằng cách lặp đi lặp lại, cho dù đó là đá bóng hay chơi xếp hình, AI cũng sẽ học. Mạng thần kinh của AI đã theo dõi hiệu suất và sẽ tự cải thiện dần dần dẫn đến lựa chọn nước đi mạnh mẽ hơn trong lần lặp lại tiếp theo.

DeepMind chiếm ưu thế dẫn đầu về công nghệ đến mức Google phải mua quyền truy cập vào công nghệ này. DeepMind đã được mua lại với giá hơn 500 triệu đô la vào năm 2014.

Sau khi mua lại, ngành công nghiệp AI đã chứng kiến ​​những bước đột phá liên tiếp, một kiểu đột phá chưa từng thấy kể từ đó Ngày 11 tháng 1997 năm XNUMX, khi cờ vua ông chủ Garry Kasparov thất bại ván đầu tiên của trận đấu sáu ván đấu với Deep Blue, một máy tính chơi cờ do các nhà khoa học tại IBM phát triển. 

Vào năm 2015, DeepMind đã tinh chỉnh thuật toán để kiểm tra nó trên bộ 49 trò chơi của Atari và cỗ máy đã đánh bại hiệu suất của con người trên 23 trò chơi trong số đó.

Đó mới chỉ là khởi đầu, sau đó vào năm 2015, DeepMind bắt đầu tập trung vào AlphaGo, một chương trình với mục đích đã nêu là đánh bại Nhà vô địch cờ vây thế giới chuyên nghiệp. Trò chơi cổ xưa của cờ vây, lần đầu tiên xuất hiện ở Trung Quốc khoảng 4000 năm trước, được coi là trò chơi thử thách nhất trong lịch sử loài người, với tiềm năng của nó 10360 di chuyển có thể.

DeepMind đã sử dụng phương pháp học có giám sát để huấn luyện hệ thống AlphaGo bằng cách học hỏi từ những người chơi là con người. Ngay sau đó, DeepMind đã gây chú ý sau khi đánh bại AlphaGo Lee Sedol, nhà vô địch thế giới, trong một trận đấu năm ván vào tháng 2016 năm XNUMX.

Không chịu thua kém, vào tháng 2017 năm XNUMX, DeepMind đã phát hành AlphaGo Zero, một mô hình mới với điểm khác biệt chính mà nó yêu cầu là số không đào tạo con người. Vì nó không yêu cầu đào tạo con người, nó cũng không yêu cầu ghi nhãn dữ liệu, hệ thống về cơ bản được sử dụng học tập không giám sát. AlphaGo Zero nhanh chóng vượt qua người tiền nhiệm của nó, khi được mô tả bởi DeepMind.

“Các phiên bản trước của AlphaGo ban đầu được đào tạo trên hàng nghìn trò chơi nghiệp dư và chuyên nghiệp của con người để học cách chơi cờ vây. AlphaGo Zero bỏ qua bước này và học cách chơi đơn giản bằng cách chơi trò chơi với chính nó, bắt đầu từ trò chơi hoàn toàn ngẫu nhiên. Khi làm như vậy, nó nhanh chóng vượt qua trình độ chơi của con người và đánh bại xuất bản trước đây phiên bản AlphaGo đánh bại nhà vô địch bằng 100 ván đấu thành 0.”

Trong khi đó, thế giới SEO đã quá tập trung vào PageRank, xương sống của Google. Nó bắt đầu vào năm 1995, khi Larry Page và Sergey Brin là Ph.D. sinh viên tại Đại học Stanford. Bộ đôi bắt đầu hợp tác trong một dự án nghiên cứu mới lạ có biệt danh là “Xoa lưng”. Mục tiêu là xếp hạng các trang web thành thước đo tầm quan trọng bằng cách chuyển đổi dữ liệu liên kết ngược của chúng. Một backlink khá đơn giản là bất kỳ liên kết nào từ trang này sang trang khác, tương tự như thế này Link.

Thuật toán này sau đó được đổi tên thành PageRank, được đặt tên theo cả thuật ngữ “trang web” và người đồng sáng lập Larry Page. Larry Page và Sergey Brin có mục tiêu đầy tham vọng là xây dựng một công cụ tìm kiếm có thể cung cấp năng lượng cho toàn bộ trang web hoàn toàn bằng các liên kết ngược.

Va no đa hoạt động.

Xếp hạng trang thống trị các tiêu đề

Các chuyên gia SEO ngay lập tức hiểu những điều cơ bản về cách Google tính toán xếp hạng chất lượng cho một trang web bằng cách sử dụng PageRank. Một số doanh nhân SEO mũ đen hiểu biết đã tiến thêm một bước, hiểu rằng để mở rộng quy mô nội dung, rằng việc mua các liên kết thay vì chờ đợi để có được chúng một cách tự nhiên là điều hợp lý.

Một nền kinh tế mới nổi lên xung quanh các liên kết ngược. Các chủ sở hữu trang web háo hức cần tác động đến thứ hạng của công cụ tìm kiếm sẽ mua liên kết và đổi lại, những trang web tuyệt vọng kiếm tiền sẽ bán cho họ các liên kết.

Các trang web đã mua liên kết thường xuyên qua đêm xâm chiếm các thương hiệu đã thành danh trên Google.

Việc xếp hạng bằng phương pháp này đã hoạt động thực sự hiệu quả trong một thời gian dài – Cho đến khi nó ngừng hoạt động, có lẽ đó cũng là khoảng thời gian máy học khởi động và giải quyết được vấn đề cơ bản. Với việc giới thiệu học tăng cường sâu, PageRank sẽ trở thành một biến xếp hạng chứ không phải là yếu tố chi phối.

Đến bây giờ, cộng đồng SEO được chia thành chiến lược mua liên kết. Cá nhân tôi tin rằng việc mua liên kết mang lại kết quả dưới mức tối ưu và các phương pháp tốt nhất để có được liên kết ngược dựa trên các biến số cụ thể của ngành. Một dịch vụ hợp pháp mà tôi có thể giới thiệu được gọi là Haro (Trợ giúp một phóng viên). Cơ hội tại HARO là có được các liên kết ngược bằng cách đáp ứng các yêu cầu của phương tiện truyền thông.

Các thương hiệu lâu đời không bao giờ phải lo lắng về các liên kết tìm nguồn cung ứng, vì họ có lợi ích về thời gian làm việc có lợi cho họ. Trang web càng cũ thì càng có nhiều thời gian để thu thập các liên kết ngược chất lượng cao. Nói cách khác, xếp hạng của công cụ tìm kiếm phụ thuộc rất nhiều vào tuổi của trang web, nếu bạn tính toán bằng cách sử dụng số liệu thời gian = backlinks.

Ví dụ: CNN sẽ tự nhiên nhận được các liên kết ngược cho một bài báo do thương hiệu, độ tin cậy của nó và vì nó được liệt kê ở vị trí cao ngay từ đầu – Vì vậy, tự nhiên nó nhận được nhiều liên kết ngược hơn từ những người nghiên cứu một bài báo và liên kết đến kết quả tìm kiếm đầu tiên mà họ tìm thấy .

Có nghĩa là các trang web được xếp hạng cao hơn sẽ nhận được nhiều liên kết ngược hơn một cách tự nhiên. Thật không may, điều này có nghĩa là các trang web mới thường buộc phải lạm dụng thuật toán backlink bằng cách chuyển sang thị trường backlink.

Vào đầu những năm 2000, việc mua các liên kết ngược hoạt động rất tốt và đó là một quy trình đơn giản. Những người mua liên kết đã mua các liên kết từ các trang web có thẩm quyền cao, thường là các liên kết chân trang trên toàn trang hoặc có thể trên cơ sở mỗi bài viết (thường được ngụy trang dưới dạng bài đăng của khách) và những người bán mong muốn kiếm tiền từ trang web của họ rất vui lòng bắt buộc – Thật không may, thường phải hy sinh chất lượng.

Cuối cùng, đội ngũ kỹ sư máy học tài năng của Google đã hiểu rằng mã hóa các kết quả của công cụ tìm kiếm bằng tay là vô ích và rất nhiều PageRank là mã hóa viết tay. Thay vào đó, họ hiểu rằng AI cuối cùng sẽ chịu trách nhiệm tính toán đầy đủ thứ hạng mà không có sự can thiệp của con người.

Để duy trì tính cạnh tranh, Google sử dụng mọi công cụ trong kho vũ khí của họ và điều này bao gồm học tập củng cố sâu – Loại thuật toán học máy tiên tiến nhất trên thế giới.

Hệ thống này xếp chồng lên nhau Google mua lại MetaWeb là một người thay đổi cuộc chơi. Lý do việc mua lại MetaWeb năm 2010 rất quan trọng là vì nó đã giảm trọng lượng mà Google đặt lên các từ khóa. Bối cảnh đột nhiên trở nên quan trọng, điều này đạt được bằng cách sử dụng một phương pháp phân loại gọi là 'thực thể'. BẰNG Công ty nhanh được mô tả:

Sau khi Metaweb xác định được thực thể mà bạn đang đề cập đến, nó có thể cung cấp một tập hợp kết quả. Nó thậm chí có thể kết hợp các thực thể để tìm kiếm phức tạp hơn – “các nữ diễn viên trên 40 tuổi” có thể là một thực thể, “các nữ diễn viên sống ở Thành phố New York” có thể là một thực thể khác và “các nữ diễn viên trong bộ phim đang chiếu” có thể là một thực thể khác. “.

Công nghệ này đã được đưa vào một bản cập nhật thuật toán lớn được gọi là RankBrain đã được ra mắt vào mùa xuân năm 2015. RankBrain tập trung vào việc hiểu ngữ cảnh thay vì hoàn toàn dựa trên từ khóa và RankBrain cũng sẽ xem xét bối cảnh môi trường (ví dụ: vị trí của người tìm kiếm) và ngoại suy ý nghĩa mà trước đây chưa từng có. Đây là một cập nhật quan trọng đặc biệt đối với người dùng di động.

Bây giờ chúng ta đã hiểu cách Google sử dụng những công nghệ này, hãy sử dụng lý thuyết tính toán để suy đoán về cách thức thực hiện của nó.

Học sâu là gì?

Học kĩ càng là loại máy học được sử dụng phổ biến nhất – Google sẽ không thể không sử dụng thuật toán này.

Học sâu bị ảnh hưởng đáng kể bởi cách thức hoạt động của bộ não con người và nó cố gắng phản ánh hành vi của bộ não trong cách nó sử dụng nhận dạng mẫu để xác định và phân loại các đối tượng.

Ví dụ, nếu bạn nhìn thấy bức thư a, bộ não của bạn sẽ tự động nhận dạng các đường nét và hình dạng để sau đó xác định đó là chữ cái a. Điều tương tự cũng được áp dụng bởi các chữ cái ap, bộ não của bạn sẽ tự động cố gắng dự đoán tương lai bằng cách nghĩ ra những từ có thể xảy ra chẳng hạn như ứng dụng or táo. Các mẫu khác có thể bao gồm số, biển báo giao thông hoặc nhận dạng người thân trong sân bay đông đúc.

Bạn có thể nghĩ về các kết nối trong một hệ thống học sâu tương tự như cách bộ não con người hoạt động với sự kết nối của các tế bào thần kinh và khớp thần kinh.

Học sâu cuối cùng là thuật ngữ dành cho các kiến ​​trúc máy học kết hợp nhiều tri giác đa lớp lại với nhau, do đó không chỉ có một lớp ẩn mà có nhiều lớp ẩn. Mạng nơ-ron sâu càng “sâu” thì mạng càng có thể học các mẫu phức tạp hơn.

Các mạng được kết nối đầy đủ có thể được kết hợp với các chức năng học máy khác để tạo ra các kiến ​​trúc học sâu khác nhau.

Cách Google sử dụng Deep Learning

Google thu thập các trang web trên thế giới bằng cách theo dõi các siêu liên kết (nghĩ rằng các nơ-ron) kết nối các trang web với nhau. Đây là phương pháp ban đầu mà Google đã sử dụng từ ngày đầu tiên và vẫn đang được sử dụng. Sau khi các trang web được lập chỉ mục, nhiều loại AI khác nhau sẽ được sử dụng để phân tích kho dữ liệu quý giá này.

Hệ thống của Google gắn nhãn các trang web theo các chỉ số nội bộ khác nhau, chỉ với sự can thiệp hoặc đầu vào nhỏ của con người. Một ví dụ về biện pháp can thiệp là xóa thủ công một URL cụ thể do Yêu cầu xóa DMCA.

Các kỹ sư của Google nổi tiếng vì gây khó chịu cho những người tham dự tại hội nghị SEOvà điều này là do các giám đốc điều hành của Google không bao giờ có thể trình bày chính xác cách thức hoạt động của Google. Khi các câu hỏi được đặt ra về lý do tại sao một số trang web không xếp hạng được, hầu như luôn luôn có cùng một câu trả lời được trình bày kém. Phản hồi thường xuyên đến mức những người tham dự thường tuyên bố trước rằng họ đã cam kết tạo nội dung tốt trong nhiều tháng hoặc thậm chí nhiều năm mà không có kết quả khả quan.

Có thể dự đoán, chủ sở hữu trang web được hướng dẫn tập trung vào việc xây dựng nội dung có giá trị – Một thành phần quan trọng, nhưng không phải là toàn diện.

Việc thiếu câu trả lời này là do các giám đốc điều hành không có khả năng trả lời đúng câu hỏi. Thuật toán của Google hoạt động trong một hộp đen. Có đầu vào và sau đó là đầu ra – và đó là cách deep learning hoạt động.

Bây giờ chúng ta hãy quay trở lại một hình phạt xếp hạng đang tác động tiêu cực đến hàng triệu trang web mà chủ sở hữu trang web không hề hay biết.

PageSpeed ​​Insights

Google thường không minh bạch, PageSpeed ​​Insights là ngoại lệ. Các trang web không đạt bài kiểm tra tốc độ này sẽ bị đưa vào hộp phạt vì tải chậm – Đặc biệt nếu người dùng di động bị ảnh hưởng.

Điều bị nghi ngờ là tại một số thời điểm trong quy trình, có một cây quyết định phân tích các trang web nhanh và các trang web tải chậm (PageSpeed ​​Insights không thành công). Cây quyết định về cơ bản là một phương pháp thuật toán chia tập dữ liệu thành các điểm dữ liệu riêng lẻ dựa trên các tiêu chí khác nhau. Tiêu chí có thể ảnh hưởng tiêu cực đến thứ hạng của một trang đối với người dùng thiết bị di động so với người dùng máy tính để bàn.

Theo giả thuyết, một hình phạt có thể được áp dụng cho điểm xếp hạng tự nhiên. Ví dụ: một trang web không bị phạt sẽ xếp hạng #5 có thể có -20, -50 hoặc một số biến không xác định khác sẽ giảm thứ hạng xuống #25, #55 hoặc một số khác do AI chọn.

Trong tương lai, chúng ta có thể thấy sự kết thúc của Thông tin chi tiết về tốc độ trang, khi Google trở nên tự tin hơn vào AI của họ. Sự can thiệp hiện tại vào tốc độ của Google là nguy hiểm vì nó có khả năng loại bỏ các kết quả lẽ ra là tối ưu và nó phân biệt đối xử với những người ít hiểu biết về công nghệ hơn.

Đó là một yêu cầu lớn để yêu cầu tất cả những người điều hành một doanh nghiệp nhỏ phải có chuyên môn để chẩn đoán và khắc phục thành công các sự cố kiểm tra tốc độ. Một giải pháp đơn giản là Google chỉ cần phát hành một trình cắm tối ưu hóa tốc độ cho người dùng wordpress, như sức mạnh wordpress 43% của internet

Thật không may, mọi nỗ lực SEO đều vô ích nếu một trang web không vượt qua được Thông tin chi tiết về tốc độ trang của Google. Các cổ phần không gì khác hơn là một trang web biến mất khỏi Google.

Làm thế nào để vượt qua bài kiểm tra này là một bài viết trong một thời gian khác nhưng tối thiểu bạn nên xác minh xem liệu bạn có vượt qua trang web.

Một chỉ số kỹ thuật quan trọng khác cần lo lắng là một giao thức bảo mật được gọi là SSL (Lớp cổng bảo mật). Điều này sẽ thay đổi URL của miền từ http thành https và đảm bảo truyền dữ liệu an toàn. Bất kỳ trang web nào không được kích hoạt SSL sẽ bị phạt. Mặc dù có một số trường hợp ngoại lệ đối với quy tắc này, các trang web thương mại điện tử và tài chính sẽ bị ảnh hưởng nặng nề nhất.

Các máy chủ web chi phí thấp tính phí hàng năm cho việc triển khai SSL, trong khi các máy chủ web tốt như Siteground cấp chứng chỉ SSL miễn phí và tự động tích hợp chúng.

Metadata

Một yếu tố quan trọng khác trên trang web là Meta Title và Meta description. Các trường nội dung này có mức độ quan trọng vượt trội có thể đóng góp nhiều vào sự thành công hay thất bại của một trang cũng như toàn bộ nội dung của trang đó.

Điều này là do Google có xác suất cao chọn Tiêu đề Meta và Mô tả Meta để hiển thị trong kết quả tìm kiếm. Và đây là lý do tại sao điều quan trọng là phải điền vào trường tiêu đề meta và mô tả meta càng cẩn thận càng tốt.

Giải pháp thay thế là Google có thể chọn bỏ qua tiêu đề meta và mô tả meta để thay vào đó tự động tạo dữ liệu mà Google dự đoán sẽ dẫn đến nhiều nhấp chuột hơn. Nếu Google dự đoán kém tiêu đề nào sẽ tự động tạo, điều này sẽ góp phần khiến người tìm kiếm nhấp chuột ít hơn và do đó, điều này góp phần làm mất thứ hạng của công cụ tìm kiếm.

Nếu Google tin rằng mô tả meta đi kèm được tối ưu hóa để nhận được nhấp chuột, Google sẽ hiển thị mô tả đó trong kết quả tìm kiếm. Thất bại này Google lấy một đoạn văn bản ngẫu nhiên từ trang web. Thường thì Google chọn văn bản tốt nhất trên trang, vấn đề là đây là hệ thống xổ số và Google luôn rất tệ trong việc chọn mô tả nào để chọn.

Tất nhiên, nếu bạn tin rằng nội dung trên trang của mình thực sự tốt, đôi khi bạn nên cho phép Google chọn mô tả meta được tối ưu hóa phù hợp nhất với truy vấn của người dùng. Chúng tôi sẽ chọn không có mô tả meta cho bài viết này vì nó có nội dung phong phú và Google có thể sẽ chọn một mô tả tốt.

Trong khi đó, hàng tỷ người đang nhấp vào các kết quả tìm kiếm tốt nhất – Đây là con người trong vòng lặp, cơ chế phản hồi cuối cùng của Google – Và đây là lúc việc học tăng cường bắt đầu.

Học tăng cường là gì?

Học tăng cường là một kỹ thuật máy học liên quan đến việc đào tạo một tác nhân AI thông qua việc lặp lại các hành động và phần thưởng liên quan. Một tác nhân học tăng cường thử nghiệm trong một môi trường, thực hiện các hành động và được khen thưởng khi các hành động đúng được thực hiện. Theo thời gian, đại lý học cách thực hiện các hành động sẽ tối đa hóa phần thưởng của nó.

Phần thưởng có thể dựa trên một phép tính đơn giản tính toán lượng thời gian dành cho một trang được đề xuất.

Nếu bạn kết hợp phương pháp này với quy trình con Human-in-the-loop, điều này nghe có vẻ rất giống các công cụ giới thiệu hiện có kiểm soát tất cả các khía cạnh của cuộc sống số của chúng ta như YouTube, Netflix, Amazon Prime – Và nếu nó nghe giống như thế nào một công cụ tìm kiếm sẽ hoạt động, bạn đã đúng.

Cách Google sử dụng phương pháp học tăng cường

Bánh đà của Google cải thiện với mỗi tìm kiếm, con người đào tạo AI bằng cách chọn kết quả tốt nhất trả lời đúng nhất cho truy vấn của họ và truy vấn tương tự của hàng triệu người dùng khác.

Tác nhân học tập củng cố liên tục hoạt động để tự cải thiện bằng cách chỉ củng cố các tương tác tích cực nhất giữa tìm kiếm và kết quả tìm kiếm được phân phối.

Google đo lượng thời gian người dùng cần để quét trang kết quả, URL họ nhấp vào và họ đo lượng thời gian dành cho trang web đã truy cập và họ đăng ký nhấp chuột quay lại. Dữ liệu này sau đó được tổng hợp và so sánh cho mọi trang web cung cấp dữ liệu khớp hoặc trải nghiệm người dùng tương tự.

Một trang web có tỷ lệ duy trì thấp (thời gian dành cho trang web), sau đó được hệ thống học tăng cường cung cấp một giá trị âm và các trang web cạnh tranh khác được kiểm tra để cải thiện thứ hạng được cung cấp. Google không thiên vị, giả sử không có sự can thiệp thủ công nào thì cuối cùng Google cũng cung cấp trang kết quả tìm kiếm mong muốn.

Người dùng là người trực tiếp cung cấp cho Google dữ liệu miễn phí và trở thành thành phần cuối cùng của hệ thống học tăng cường sâu. Để đổi lấy dịch vụ này, Google cung cấp cho người dùng cuối cơ hội nhấp vào quảng cáo.

Quảng cáo ngoài việc tạo doanh thu còn đóng vai trò là yếu tố xếp hạng phụ, làm nổi thêm dữ liệu về những gì khiến người dùng muốn nhấp vào.

Về cơ bản, Google tìm hiểu những gì người dùng muốn. Điều này có thể được so sánh một cách lỏng lẻo với công cụ đề xuất của dịch vụ truyền phát video. Trong trường hợp đó, một công cụ đề xuất sẽ cung cấp cho người dùng nội dung được nhắm mục tiêu theo sở thích của họ. Ví dụ: một người dùng có thói quen thích dòng phim hài lãng mạn có thể thích một số phim nhại nếu họ có cùng diễn viên hài.

Điều này giúp SEO như thế nào?

Nếu chúng ta tiếp tục với tư duy máy tính, chúng ta có thể giả định rằng Google đã tự rèn luyện để mang lại kết quả tốt nhất và điều này thường đạt được bằng cách khái quát hóa và thỏa mãn những thành kiến ​​của con người. Trên thực tế, AI của Google không thể không tối ưu hóa các kết quả phục vụ cho những thành kiến ​​này, nếu điều đó xảy ra thì kết quả sẽ không tối ưu.

Nói cách khác, không có công thức kỳ diệu nào, nhưng có một số phương pháp hay nhất.

Người hành nghề SEO có trách nhiệm nhận ra những thành kiến ​​mà Google tìm kiếm dành riêng cho ngành của họ – Và tiếp thu những thành kiến ​​đó. Ví dụ: ai đó đang tìm kiếm kết quả thăm dò bầu cử mà không chỉ định ngày, rất có thể họ đang tìm kiếm kết quả gần đây nhất – đây là xu hướng gần đây nhất. Ai đó đang tìm kiếm một công thức, rất có thể không cần trang mới nhất và trên thực tế, có thể thích một công thức đã vượt qua thử thách của thời gian.

Người hành nghề SEO có trách nhiệm cung cấp cho khách truy cập kết quả mà họ đang tìm kiếm. Đây là cách xếp hạng bền vững nhất trên Google.

Chủ sở hữu trang web phải từ bỏ việc nhắm mục tiêu một từ khóa cụ thể với kỳ vọng rằng họ có thể cung cấp bất kỳ thứ gì họ muốn cho người dùng cuối. Kết quả tìm kiếm phải phù hợp chính xác với nhu cầu của người dùng.

một sự thiên vị là gì? Đó có thể là tên miền có vẻ uy quyền, hay nói cách khác là tên miền đó có phù hợp với thị trường bạn đang phục vụ không? Việc có một tên miền có từ Ấn Độ trong đó có thể ngăn cản người dùng Hoa Kỳ nhấp vào URL, do khuynh hướng chủ nghĩa dân tộc trong việc tin cậy các kết quả bắt nguồn từ quốc gia cư trú của người dùng. Có một tên miền một từ cũng có thể tạo ra ảo tưởng về quyền lực.

Xu hướng quan trọng nhất là người dùng muốn gì khớp với truy vấn tìm kiếm của họ? Đó có phải là Câu hỏi thường gặp, danh sách top 10, bài đăng trên blog không? Điều này cần được trả lời, và câu trả lời rất dễ tìm. Bạn chỉ cần phân tích sự cạnh tranh bằng cách thực hiện tìm kiếm trên Google trong thị trường mục tiêu của mình.

SEO mũ đen đã chết

So sánh điều này với Black Hat SEO, một phương pháp tích cực để xếp hạng các trang web khai thác các kỹ thuật SPAM ranh ma, bao gồm mua liên kết ngược, làm sai lệch liên kết ngược, hack trang web, tự động tạo dấu trang xã hội trên quy mô lớn và các phương pháp đen tối khác được áp dụng thông qua mạng lưới các công cụ mũ đen .

Các công cụ thường được sử dụng lại và bán lại trên các diễn đàn tiếp thị công cụ tìm kiếm khác nhau, các sản phẩm hầu như không có giá trị và ít có khả năng thành công. Hiện tại, những công cụ này cho phép người bán trở nên giàu có trong khi họ cung cấp giá trị tối thiểu cho người dùng cuối.

Đây là lý do tại sao tôi khuyên bạn nên từ bỏ Mũ Đen. Tập trung SEO của bạn vào việc xem nó từ lăng kính máy học. Điều quan trọng là phải hiểu rằng mỗi khi ai đó bỏ qua kết quả tìm kiếm để nhấp vào kết quả bị chôn vùi bên dưới, thì đó là lúc con người trong vòng cộng tác với hệ thống học tăng cường sâu. Con người đang hỗ trợ AI tự cải thiện, trở nên tốt hơn vô cùng theo thời gian.

Đây là một thuật toán học máy đã được đào tạo bởi nhiều người dùng hơn bất kỳ hệ thống nào khác trong lịch sử loài người.

Google xử lý trung bình 3.8 triệu lượt tìm kiếm mỗi phút trên toàn cầu. Điều đó dẫn đến 228 triệu lượt tìm kiếm mỗi giờ, 5.6 tỷ lượt tìm kiếm mỗi ngày. Đó là rất nhiều dữ liệu, và đây là lý do tại sao thật ngu ngốc khi thử SEO mũ đen. Giả sử AI của Google vẫn trì trệ là điều ngu ngốc, hệ thống đang sử dụng Quy luật tăng tốc hoàn vốn để tự cải thiện theo cấp số nhân.

Trí tuệ nhân tạo của Google đang trở nên mạnh mẽ đến mức có thể hình dung rằng cuối cùng nó có thể trở thành trí tuệ nhân tạo đầu tiên tiếp cận Trí tuệ tổng hợp nhân tạo (AGI). AGI là một trí thông minh có thể sử dụng học chuyển thành thạo một lĩnh vực để sau đó áp dụng trí thông minh đã học được đó trên nhiều lĩnh vực. Mặc dù việc khám phá các nỗ lực AGI trong tương lai của Google có thể thú vị, nhưng bạn nên hiểu rằng một khi quá trình này đã bắt đầu thì rất khó để dừng lại. Tất nhiên, đây là suy đoán về tương lai vì Google hiện là một loại AI hẹp, nhưng đó là một chủ đề cho một bài viết khác.

Biết rằng dành thêm một giây cho chiếc mũ đen là một việc làm ngu ngốc.

SEO mũ trắng

Nếu chúng ta chấp nhận rằng AI của Google sẽ liên tục tự cải thiện, thì chúng ta không còn lựa chọn nào khác ngoài việc từ bỏ nỗ lực vượt qua Google. Thay vào đó, hãy tập trung vào việc tối ưu hóa một trang web để cung cấp cho Google một cách tối ưu những gì nó đang tìm kiếm.

Như đã mô tả, điều này liên quan đến việc bật SSL, tối ưu hóa tốc độ tải trang và để tối ưu hóa Tiêu đề Meta và Mô tả Meta. Để tối ưu hóa các trường này, Tiêu đề Meta và Mô tả Meta phải được so sánh với các trang web cạnh tranh – Xác định các yếu tố chiến thắng dẫn đến tỷ lệ nhấp chuột cao.

Nếu bạn đã tối ưu hóa việc được nhấp vào, cột mốc tiếp theo là tạo trang đích tốt nhất. Mục tiêu là một trang đích tối ưu hóa giá trị người dùng sao cho thời gian trung bình dành cho trang vượt trội so với các đối thủ cạnh tranh tương tự đang cạnh tranh để giành được kết quả hàng đầu của công cụ tìm kiếm.

Chỉ bằng cách cung cấp trải nghiệm người dùng tốt nhất, trang web mới có thể tăng thứ hạng.

Cho đến nay, chúng tôi đã xác định các số liệu này là quan trọng nhất:

  • Tốc độ tải
  • Đã bật SSL
  • Meta Title và Meta Description
  • Trang hạ cánh

Trang đích là yếu tố khó khăn nhất khi bạn đang cạnh tranh với thế giới. Trang đích phải tải nhanh và phải phục vụ mọi thứ được mong đợi, sau đó khiến người dùng ngạc nhiên với nhiều thứ hơn nữa.

Kết luận:

Thật dễ dàng để điền thêm 2000 từ mô tả các công nghệ AI khác mà Google sử dụng, cũng như đào sâu hơn vào lỗ hổng của SEO. Mục đích ở đây là tập trung lại sự chú ý vào các số liệu quan trọng nhất.

Các nhà phân vùng SEO quá tập trung vào việc đánh lừa hệ thống mà họ quên rằng vào cuối ngày, yếu tố quan trọng nhất của SEO là mang lại cho người dùng càng nhiều giá trị càng tốt.

Một cách để đạt được điều này là không bao giờ cho phép nội dung quan trọng trở nên lỗi thời. Nếu trong một tháng tôi nghĩ ra một đóng góp quan trọng, nó sẽ được thêm vào bài viết này. Sau đó, Google có thể xác định mức độ mới của nội dung, phù hợp với lịch sử của trang mang lại giá trị.

Nếu bạn vẫn lo lắng về việc có được các liên kết ngược, giải pháp rất đơn giản. Tôn trọng thời gian của khách truy cập của bạn và cung cấp cho họ giá trị. Các liên kết ngược sẽ đến một cách tự nhiên vì người dùng sẽ tìm thấy giá trị khi chia sẻ nội dung của bạn.

Sau đó, câu hỏi chuyển sang chủ sở hữu trang web về cách cung cấp giá trị người dùng và trải nghiệm người dùng tốt nhất.

Một đối tác sáng lập của unity.AI & một thành viên của Hội đồng Công nghệ Forbes, Antoine là một nhà tương lai học người đam mê tương lai của AI và robot.

Ông cũng là người sáng lập của Chứng khoán.io, một trang web tập trung vào đầu tư vào công nghệ đột phá.