заглушки SEO-оптимізація: як працює AI Google (травень 2024 р.)
Зв'язатися з нами

Пошукова оптимізація

SEO-оптимізація: як працює AI Google (травень 2024 р.)

mm
оновлений on

Оптимізація пошукових систем (SEO) — це процес оптимізації факторів на сторінці та поза нею, які впливають на те, наскільки високо рейтинг веб-сторінки за певним пошуковим терміном. Це багатогранний процес, який включає оптимізацію швидкості завантаження сторінки, створення стратегії створення посилань, використання SEO інструменти, а також навчитися реконструювати штучний інтелект Google за допомогою обчислювальне мислення.

Обчислювальне мислення – це передовий тип аналізу та техніка вирішення проблем, яку використовують програмісти під час написання коду та алгоритмів. Обчислювальні мислителі шукатимуть основну істину, розбиваючи проблему та аналізуючи її за допомогою принципів мислення.

Оскільки Google нікому не розкриває свій секретний соус, ми будемо покладатися на обчислювальне мислення. Ми розглянемо деякі ключові моменти в історії Google, які сформували використовувані алгоритми, і дізнаємося, чому це важливо.

Як створити розум

Ми почнемо з книги, яка була опублікована в 2012 році під назвою «Як створити розум: розкрито таємницю людської думки” відомого футуриста та винахідника Рея Курцвейла. У цій книзі проаналізовано людський мозок і з’ясовано, як він працює. Ми вчимося з самого початку, як мозок тренується за допомогою розпізнавання образів, щоб стати машиною передбачення, яка завжди працює над передбаченням майбутнього, навіть передбачаючи наступне слово.

Як люди розпізнають закономірності в повсякденному житті? Як ці зв'язки утворюються в мозку? Книга починається з розуміння ієрархічного мислення, це розуміння структури, яка складається з різноманітних елементів, розташованих у шаблоні, який потім представляє символ, такий як літера чи символ, а потім це впорядковується у більш просунутий шаблон наприклад, слово і, зрештою, речення. Згодом ці моделі формують ідеї, які перетворюються на продукти, за створення яких відповідають люди.

Шляхом емуляції людського мозку розкрито шлях до створення розширеного штучного інтелекту, що перевищує поточні можливості нейронних мереж, які існували на момент публікації.

Книга була схемою для створення штучного інтелекту, який може масштабуватися, очищаючи світові дані, і використовувати його багаторівневу обробку розпізнавання шаблонів для аналізу тексту, зображень, аудіо та відео. Система, оптимізована для масштабування завдяки перевагам хмари та її можливостям паралельної обробки. Іншими словами, не було б максимального обсягу введення або виведення даних.

Ця книга була настільки ключовою, що незабаром після її публікації автор Рей Курцвейл був найнятий Google щоб стати директором інженерії, яка зосереджена на машинному навчанні та обробці мови. Роль, яка ідеально відповідала книжці, яку він написав.

Неможливо заперечити, наскільки ця книга вплинула на майбутнє Google і на те, як вони оцінюють веб-сайти. Це Книга ШІ має бути обов’язковим до прочитання для всіх, хто хоче стати експертом з SEO.

Deepmind

DeepMind, запущений у 2010 році, був гарячим новим стартапом, який використовував революційно новий тип алгоритму штучного інтелекту, який захопив світ штурмом, він отримав назву навчання з підкріпленням. DeepMind найкраще описав це так:

«Ми представляємо першу модель глибокого навчання, яка дозволяє успішно вивчати політику контролю безпосередньо з сенсорного введення високого розміру за допомогою навчання з підкріпленням. Модель є згортковою нейронною мережею, навченою за допомогою варіанту Q-навчання, вхідними даними якої є необроблені пікселі, а виходом є функція вартості, яка оцінює майбутні винагороди».

Поєднавши глибоке навчання з навчанням з підкріпленням, це стало a глибоке навчання з підкріпленням система. До 2013 року DeepMind використовував ці алгоритми, щоб здобувати перемоги над гравцями-людьми в іграх Atari 2600. Це було досягнуто шляхом імітації людського мозку та того, як він навчається на тренуваннях і повтореннях.

Подібно до того, як людина вчиться шляхом повторення, будь то ногами по м’ячу чи грі в тетріс, штучний інтелект також навчатиметься. Нейронна мережа штучного інтелекту відстежувала продуктивність і поступово самовдосконалювалася, що призводило до сильнішого вибору ходу в наступній ітерації.

DeepMind був настільки домінуючим у своєму технологічному лідерстві, що Google був змушений купити доступ до технології. DeepMind було придбано на понад 500 мільйонів доларів у 2014 році.

Після придбання індустрія штучного інтелекту стала свідком послідовних проривів, яких з тих пір не було 11 травня 1997 р., коли шах гросмейстер Гаррі Каспаров програв перша партія з шести партій проти Deep Blue, комп’ютера для гри в шахи, розробленого вченими з IBM. 

У 2015 році DeepMind удосконалив алгоритм, щоб перевірити його на наборі Atari з 49 ігор, і машина перевершила продуктивність людини в 23 з них.

Це був лише початок, пізніше у 2015 році DeepMind почав зосереджуватися на цьому AlphaGo, програма, мета якої — перемогти професійного чемпіона світу з гоу. Стародавня гра Го, яку вперше побачили в Китаї близько 4000 років тому, вважається найскладнішою грою в історії людства з її потенціалом 10360 можливі ходи.

DeepMind використовував навчання під наглядом, щоб навчити систему AlphaGo, навчаючись у людей-гравців. Невдовзі DeepMind потрапив у заголовки після перемоги над AlphaGo Лі Седол, чемпіон світу, у матчі з п’яти партій у березні 2016 року.

У жовтні 2017 року DeepMind випустив AlphaGo Zero, нову модель із ключовою особливістю, яка вимагає нуля. навчання людини. Оскільки вона не потребувала навчання людини, вона також не потребувала маркування даних, по суті використовуваної системи непідконтрольне навчання. AlphaGo Zero стрімко перевершив свого попередника, як описаний DeepMind.

«Попередні версії AlphaGo спочатку навчалися на тисячах аматорських і професійних ігор, щоб навчитися грати в Go. AlphaGo Zero пропускає цей крок і вчиться грати, просто граючи проти самого себе, починаючи з абсолютно випадкової гри. Роблячи це, він швидко перевершив людський рівень гри та переміг раніше опубліковані версія AlphaGo, яка перемагає чемпіонів, на 100 ігор проти 0».

У той же час світ SEO був дуже зосереджений на PageRank, кістяку Google. Це починається в 1995 році, коли Ларрі Пейдж і Сергій Брін були докторами філософії. студентів Стенфордського університету. Дует почав співпрацювати над новим дослідницьким проектом під назвою «BackRub”. Мета полягала в тому, щоб оцінити веб-сторінки за мірою важливості шляхом перетворення даних про зворотні посилання. Зворотне посилання — це просто будь-яке посилання з однієї сторінки на іншу, подібне до цього link.

Пізніше алгоритм був перейменований на PageRank, названий на честь терміна «веб-сторінка» та співзасновника Ларрі Пейджа. Ларрі Пейдж і Сергій Брін мали амбіційну мету створити пошукову систему, яка могла б забезпечувати роботу всього Інтернету виключно за допомогою зворотних посилань.

І це спрацювало.

PageRank домінує в заголовках

Фахівці з оптимізації пошукових систем одразу зрозуміли основи того, як Google обчислює рейтинг якості для веб-сторінки за допомогою PageRank. Деякі кмітливі SEO-підприємці пішли далі, розуміючи, що для масштабування вмісту може бути доцільно купувати посилання замість того, щоб чекати, щоб отримати їх органічно.

Навколо зворотних посилань виникла нова економіка. Завзяті власники веб-сайтів, яким потрібно було вплинути на рейтинги пошукових систем, купували б посилання, а натомість, відчайдушно прагнучи монетизувати веб-сайти, продавали б їм посилання.

Веб-сайти, які купували посилання, часто миттєво захоплювали Google, випереджаючи визнані бренди.

Ранжування за допомогою цього методу працювало дуже добре протягом тривалого часу – поки він не перестав працювати, ймовірно, приблизно в той самий час, коли машинне навчання запрацювало та вирішило основну проблему. Із впровадженням глибокого навчання з підкріпленням PageRank стане змінною рейтингу, а не домінуючим фактором.

Зараз спільнота SEO розділилася щодо купівлі посилань як стратегії. Я особисто вважаю, що купівля посилань дає неоптимальні результати, і що найкращі методи отримання зворотних посилань базуються на змінних, які є галузевими. Одна законна служба, яку я можу порекомендувати, називається HARO (Виручити репортера). Можливість HARO полягає в отриманні зворотних посилань шляхом виконання медіа-запитів.

Відомі бренди ніколи не хвилювалися про пошук посилань, оскільки вони мали переваги часу, який працював на їх користь. Чим старший веб-сайт, тим більше часу йому потрібно для збору високоякісних зворотних посилань. Іншими словами, рейтинг пошукової системи значною мірою залежав від віку веб-сайту, якщо ви розраховуєте за допомогою метрики час = зворотні посилання.

Наприклад, CNN природним чином отримував би зворотні посилання на новинну статтю завдяки своєму бренду, довірі до нього та тому, що спочатку був у високому списку. Тож, природно, він отримав більше зворотних посилань від людей, які досліджували статтю та посилалися на перший результат пошуку, який вони знайшли. .

Це означає, що веб-сторінки з вищим рейтингом органічно отримували більше зворотних посилань. На жаль, це означало, що нові веб-сайти часто були змушені зловживати алгоритмом зворотних посилань, звертаючись до ринку зворотних посилань.

На початку 2000-х купівля зворотних посилань працювала надзвичайно добре, і це був простий процес. Покупці посилань купували посилання на авторитетних веб-сайтах, часто посилання на нижні колонтитули на всьому сайті, або, можливо, на основі статті (часто замасковані під гостьову публікацію), а продавці, які відчайдушно прагнули монетизувати свої веб-сайти, з радістю погоджувалися – на жаль, часто в жертву якість.

Згодом інженери Google з машинного навчання зрозуміли, що кодування результатів пошукових систем вручну марно, а PageRank — це рукописний код. Натомість вони зрозуміли, що штучний інтелект зрештою стане відповідальним за повний розрахунок рейтингу без втручання людини.

Щоб залишатися конкурентоспроможним, Google використовує всі інструменти зі свого арсеналу, зокрема глибоке навчання з підкріпленням – Найдосконаліший тип алгоритму машинного навчання у світі.

Ця система накладена поверх Придбання MetaWeb компанією Google змінив правила гри. Причина, чому придбання MetaWeb у 2010 році було настільки важливим, полягає в тому, що воно зменшило вагу, яку Google надавав ключовим словам. Контекст раптово став важливим, цього було досягнуто за допомогою методології категоризації під назвою «сутності». як Опис компанії Fast Company:

Як тільки Metaweb з’ясує, яку сутність ви маєте на увазі, він може надати набір результатів. Він навіть може об’єднувати об’єкти для більш складних пошуків: «актриси старше 40» може бути одним об’єктом, «актриси, які живуть у Нью-Йорку» може бути іншим, а «актриси з фільмом, який зараз іде» може бути іншим. “.

Ця технологія була включена в основне оновлення алгоритму під назвою RankBrain який було запущено навесні 2015 року. RankBrain зосереджувався на розумінні контексту, а не на основі ключових слів, і RankBrain також розглядав контексти навколишнього середовища (наприклад, місцезнаходження шукача) і екстраполював значення там, де його не було раніше. Це було важливе оновлення, особливо для мобільних користувачів.

Тепер, коли ми розуміємо, як Google використовує ці технології, давайте використаємо теорію обчислень, щоб поміркувати, як це робиться.

Що таке глибоке навчання?

Глибоке навчання є найпоширенішим типом машинного навчання. Для Google було б неможливо не використовувати цей алгоритм.

На глибоке навчання значною мірою впливає те, як працює людський мозок, і він намагається відобразити поведінку мозку в тому, як він використовує розпізнавання образів для ідентифікації та категоризації об’єктів.

Наприклад, якщо ви бачите лист a, ваш мозок автоматично розпізнає лінії та фігури, щоб потім ідентифікувати їх як літеру a. Те саме стосується літер ap, ваш мозок автоматично намагається передбачити майбутнє, придумуючи потенційні слова, такі як додаток or apple. Інші шаблони можуть включати цифри, дорожні знаки або ідентифікацію коханої людини в переповненому аеропорту.

Ви можете уявити взаємозв’язки в системі глибокого навчання подібними до того, як працює людський мозок із з’єднанням нейронів і синапсів.

Глибоке навчання — це, зрештою, термін, наданий для архітектур машинного навчання, які об’єднують багато багатошарових персептронів разом, так що існує не лише один прихований шар, а багато прихованих шарів. Чим «глибша» глибока нейронна мережа, тим складніші шаблони мережа може вивчати.

Повністю підключені мережі можна поєднувати з іншими функціями машинного навчання для створення різних архітектур глибокого навчання.

Як Google використовує глибоке навчання

Google переглядає веб-сайти світу, переходячи за гіперпосиланнями (уявними нейронами), які з’єднують веб-сайти один з одним. Це була оригінальна методологія, яку Google використовував із першого дня, і досі використовується. Після того, як веб-сайти проіндексовані, різні типи штучного інтелекту використовуються для аналізу цієї скарбниці даних.

Система Google позначає веб-сторінки відповідно до різних внутрішніх показників лише з незначним людським втручанням або втручанням. Прикладом втручання може бути ручне видалення певної URL-адреси через a Запит на видалення DMCA.

Інженери Google відомі тим, що розчаровують відвідувачів SEO конференції, і це тому, що керівники Google ніколи не можуть правильно сформулювати, як Google працює. Коли задають питання про те, чому певні веб-сайти не мають рейтингу, це майже завжди та сама погано сформульована відповідь. Відповідь настільки часта, що часто учасники завчасно заявляють, що вони збиралися створювати якісний контент протягом місяців або навіть років без позитивних результатів.

Як і передбачувано, власникам веб-сайтів наказано зосередитися на створенні цінного вмісту – важливого компонента, але далеко не всеосяжного.

Ця відсутність відповіді пояснюється тим, що керівники не в змозі правильно відповісти на запитання. Алгоритм Google працює в чорному ящику. Є введення, а потім вихід – і саме так працює глибоке навчання.

Давайте тепер повернемося до покарання за рейтингом, яке негативно впливає на мільйони веб-сайтів, часто без відома власника веб-сайту.

PageSpeed ​​Insights

Google не завжди прозорий, PageSpeed ​​Insights є винятком. Веб-сайти, які не пройдуть цей тест швидкості, потраплять у штрафну зону за повільне завантаження, особливо якщо це стосується користувачів мобільних пристроїв.

Підозрюється, що на певному етапі процесу існує дерево рішень, яке аналізує швидкі веб-сайти, а не веб-сайти, що повільно завантажуються (збій PageSpeed ​​Insights). Дерево рішень — це, по суті, алгоритмічний підхід, який розбиває набір даних на окремі точки даних на основі різних критеріїв. Критерії можуть полягати в негативному впливі на рейтинг сторінки для користувачів мобільних пристроїв порівняно з користувачами комп’ютерів.

Гіпотетично штраф може бути застосований до природного результату рейтингу. Наприклад, веб-сайт, який без штрафних санкцій буде займати №5, може мати -20, -50 або іншу невідому змінну, яка знизить рейтинг до №25, №55 або іншого числа, вибраного ШІ.

У майбутньому ми можемо побачити кінець PageSpeed ​​Insights, коли Google стане більш впевненим у своєму ШІ. Нинішнє втручання Google у швидкість є небезпечним, оскільки воно потенційно може позбавити результатів, які були б оптимальними, і дискримінує тих, хто менш обізнаний у техніці.

Це велике прохання вимагати від усіх, хто керує малим бізнесом, досвіду для успішної діагностики та усунення проблем із перевіркою швидкості. Одним із простих рішень було б для Google просто випустити плагін для оптимізації швидкості для користувачів Wordpress, як потужності wordpress 43% Інтернету.

На жаль, усі зусилля SEO марні, якщо веб-сайт не проходить Google PageSpeed ​​Insights. Ставки не менше, ніж веб-сайт, який зникає з Google.

Про те, як пройти цей тест, ми розповімо в іншій статті, але принаймні вам слід перевірити, чи ви перепустки веб-сайту.

Ще один важливий технічний показник, про який слід турбуватися, — це протокол безпеки, який називається SSL (Рівень захищених сокетів). Це змінює URL-адресу домену з http на https і забезпечує безпечну передачу даних. Будь-який веб-сайт, на якому не ввімкнено протокол SSL, буде оштрафований. Хоча є деякі винятки з цього правила, найбільше це вплине на електронну комерцію та фінансові веб-сайти.

Недорогі веб-хости стягують щорічну плату за впровадження SSL, тоді як хороші веб-хости, наприклад SiteGround видавати сертифікати SSL безкоштовно та автоматично їх інтегрувати.

Метадані

Іншим важливим елементом на веб-сайті є мета-заголовок і мета-опис. Ці поля вмісту мають надмірний порядок важливості, що може сприяти успіху чи невдачі сторінки так само, як і весь вміст цієї сторінки.

Це тому, що Google має високу ймовірність вибору мета-заголовка та мета-опису для демонстрації в результатах пошуку. Ось чому важливо якомога ретельніше заповнювати поля мета-заголовка та мета-опису.

Альтернативою є те, що Google може ігнорувати мета-заголовок і мета-опис замість цього автоматично генерувати дані, які, за його прогнозами, призведуть до збільшення кількості кліків. Якщо Google погано прогнозує, який заголовок автоматично генерувати, це призведе до меншої кількості кліків пошукових користувачів і, як наслідок, до втрати позицій у пошукових системах.

Якщо Google вважає, що включений метаопис оптимізовано для отримання кліків, він відобразить його в результатах пошуку. Якщо це не вдається, Google захоплює випадковий фрагмент тексту з веб-сайту. Часто Google вибирає найкращий текст на сторінці, проблема полягає в системі лотереї, і Google постійно погано вибирає, який опис вибрати.

Звичайно, якщо ви вважаєте, що вміст вашої сторінки дійсно хороший, іноді має сенс дозволити Google вибрати оптимізований метаопис, який найкраще відповідає запиту користувача. Ми не будемо використовувати мета-опис для цієї статті, оскільки вона багата на вміст, і Google, швидше за все, вибере хороший опис.

Тим часом мільярди людей натискають найкращі результати пошуку – це людина-в-петлі, останній механізм зворотного зв’язку Google – І саме тут починається навчання з підкріпленням.

Що таке навчання з підкріпленням?

Підсилення навчання це техніка машинного навчання, яка передбачає навчання агента ШІ шляхом повторення дій і пов’язаних винагород. Агент навчання з підкріпленням експериментує в середовищі, виконуючи дії та отримуючи винагороду за правильні дії. З часом агент вчиться робити дії, які максимізують його винагороду.

Винагорода може бути заснована на простому обчисленні, яке обчислює кількість часу, проведеного на рекомендованій сторінці.

Якщо поєднати цю методологію з підпрограмою Human-in-the-loop, це звучатиме дуже схоже на існуючі механізми рекомендацій, які контролюють усі аспекти нашого цифрового життя, як-от YouTube, Netflix, Amazon Prime. І якщо це звучить як пошукова система повинна працювати, ви маєте рацію.

Як Google використовує Reinforcement Learning

Маховик Google покращується з кожним пошуком, люди тренують штучний інтелект, вибираючи найкращий результат, який найкраще відповідає їхньому запиту та подібному запиту мільйонів інших користувачів.

Підсилювальний навчальний агент постійно працює над самовдосконаленням, посилюючи лише найпозитивніші взаємодії між пошуком і наданими результатами пошуку.

Google вимірює час, потрібний користувачеві для сканування сторінки результатів, URL-адреси, на яку він натискає, і вимірює кількість часу, проведеного на відвіданому веб-сайті, і реєструє зворотний клік. Потім ці дані збираються та порівнюються для кожного веб-сайту, який пропонує подібні дані або досвід користувача.

Веб-сайту з низьким рівнем утримання (часом, проведеним на сайті) система навчання з підкріпленням надає від’ємне значення, а інші веб-сайти-конкуренти перевіряються для покращення запропонованого рейтингу. Google неупереджений, припускаючи відсутність ручного втручання, Google зрештою надає потрібну сторінку результатів пошуку.

Користувачі — це люди, які надають Google безкоштовні дані та стають останнім компонентом глибокої системи навчання з підкріпленням. В обмін на цю послугу Google пропонує кінцевому користувачеві можливість натиснути оголошення.

Оголошення, які не приносять прибутку, служать допоміжним фактором ранжирування, надаючи більше даних про те, що спонукає користувача натиснути.

По суті, Google дізнається, що хоче користувач. Це можна приблизно порівняти з системою рекомендацій служби потокового відео. У цьому випадку механізм рекомендацій буде надавати користувачам вміст, орієнтований на їхні інтереси. Наприклад, користувач, який зазвичай любить потік романтичних комедій, може насолоджуватися деякими пародіями, якщо вони мають тих самих коміків.

Як це допомагає SEO?

Якщо ми продовжимо обчислювальне мислення, то можемо припустити, що Google навчився забезпечувати найкращі результати, і це часто досягається шляхом узагальнення та задоволення людських упереджень. Насправді штучному інтелекту Google було б неможливо не оптимізувати результати, які враховують ці упередження, якщо б він це зробив, результати були б неоптимальними.

Іншими словами, не існує чарівної формули, але є деякі найкращі практики.

Обов’язком спеціаліста з оптимізації пошукових систем є розпізнавання упереджень, які шукає Google, які є специфічними для їхньої галузі, і врахування цих упереджень. Наприклад, хтось, хто шукає результати опитування на виборах без вказівки дати, швидше за все, шукає найновіші результати – це упередження щодо нещодавності. Хтось, хто шукає рецепт, швидше за все, не потребує найновішої сторінки, і може насправді віддати перевагу рецепту, який витримав випробування часом.

Запропонувати відвідувачам ті результати, які вони шукають, – це відповідальність практикуючого SEO. Це найстабільніший спосіб рейтингу в Google.

Власники веб-сайтів повинні відмовитися від націлювання на конкретне ключове слово, сподіваючись, що вони зможуть надати кінцевому користувачеві все, що захочуть. Результат пошуку повинен точно відповідати потребам користувача.

Що таке упередження? Можливо, доменне ім’я виглядає авторитетним, іншими словами, чи відповідає доменне ім’я ринку, на якому ви працюєте? Наявність доменного імені зі словом «Індія» може перешкодити користувачам із США натискати URL-адресу через націоналістичне упередження довіри до результатів, отриманих із країни проживання користувача. Наявність домену з одним словом також може створювати ілюзію авторитету.

Найважливіше упередження полягає в тому, що користувач хоче відповідати своєму пошуковому запиту? Це поширені запитання, топ-10, публікація в блозі? На це потрібно відповісти, і відповідь легко знайти. Вам просто потрібно проаналізувати конкуренцію, виконавши пошук Google на вашому цільовому ринку.

Black Hat SEO мертвий

Порівняйте це з Black Hat SEO, агресивним методом ранжування веб-сайтів, який використовує підступні методи СПАМу, включаючи купівлю зворотних посилань, фальсифікацію зворотних посилань, злом веб-сайтів, автоматичне створення соціальних закладок у масштабі та інші темні методології, які застосовуються через мережу інструментів чорного капелюха. .

Інструменти, які часто перепрофільовують і перепродають на різних форумах маркетингу в пошукових системах, продукти майже безцінні та мало шансів на успіх. На даний момент ці інструменти дозволяють продавцям стати багатими, але вони пропонують мінімальну цінність для кінцевого споживача.

Ось чому я рекомендую відмовитися від Black Hat. Зосередьтеся на пошуковій оптимізації з точки зору машинного навчання. Важливо розуміти, що кожного разу, коли хтось пропускає результат пошуку, щоб натиснути на результат, який знаходиться під ним, це людина в циклі, яка співпрацює з системою глибокого підкріплення. Людина допомагає штучному інтелекту самовдосконалюватися, стаючи нескінченно кращою з плином часу.

Це алгоритм машинного навчання, якому навчали більше користувачів, ніж будь-яка інша система в історії людства.

Google обробляє в середньому 3.8 мільйона пошукових запитів на хвилину по всьому світу. Це означає 228 мільйонів пошукових запитів на годину, 5.6 мільярда пошуків на день. Це багато даних, і тому нерозумно намагатися спробувати пошукову оптимізацію в чорному капелюсі. Безглуздо припускати, що штучний інтелект Google залишатиметься на місці, система використовує Закон прискореної віддачі експоненціально самовдосконалюватися.

ШІ Google стає настільки потужним, що можна припустити, що згодом він стане першим ШІ, який Штучний загальний інтелект (AGI). AGI - це інтелект, який можна використовувати трансферне навчання оволодіти однією сферою, щоб потім застосувати отриманий інтелект у кількох сферах. Хоча може бути цікаво дослідити майбутні зусилля Google щодо AGI, слід розуміти, що коли процес почнеться, його важко зупинити. Це, звичайно, припущення про майбутнє, оскільки Google наразі є різновидом вузького ШІ, але це тема для іншої статті.

Знати, що витрачати одну секунду більше на чорний капелюх — це дурна справа.

Білий капелюх SEO

Якщо ми визнаємо, що штучний інтелект Google буде постійно самовдосконалюватися, тоді у нас немає іншого вибору, як відмовитися від спроби перехитрити Google. Натомість зосередьтеся на оптимізації веб-сайту, щоб оптимально надати Google саме те, що він шукає.

Як описано, це передбачає ввімкнення SSL, оптимізацію швидкості завантаження сторінки та оптимізацію мета-заголовка та мета-опису. Щоб оптимізувати ці поля, мета-заголовок і мета-опис потрібно порівняти з конкуруючими веб-сайтами – визначте переможні елементи, які призводять до високого рейтингу кліків.

Якщо ви оптимізували натискання, наступною віхою стане створення найкращої цільової сторінки. Мета полягає в тому, щоб цільова сторінка оптимізувала цінність користувача настільки, щоб середній час, витрачений на сторінку, перевершував аналогічних конкурентів, які змагаються за найкращі результати пошукової системи.

Тільки пропонуючи найкращий досвід користувача, веб-сторінка може підвищити рейтинг.

Наразі ми визначили ці показники як найважливіші:

  • Швидкість завантаження
  • SSL увімкнено
  • Метазаголовок та метаопис
  • Цільова сторінка

Цільова сторінка є найскладнішим елементом, оскільки ви конкуруєте зі світом. Цільова сторінка має завантажуватися швидко, обслуговувати все, що очікується, а потім дивувати користувача більшим.

Заключні думки

Було б легко заповнити ще 2000 слів, описуючи інші технології штучного інтелекту, які використовує Google, а також копати глибше в кролячу нору SEO. Намір тут полягає в тому, щоб перефокусувати увагу на найважливіших показниках.

Розділювачі SEO настільки зосереджені на обіграванні системи, що забувають, що, зрештою, найважливішим елементом SEO є надання користувачам якомога більшої цінності.

Один із способів досягти цього — ніколи не дозволяти важливому вмісту старіти. Якщо через місяць я подумаю про важливий внесок, він буде доданий до цієї статті. Потім Google може визначити, наскільки свіжим є вміст, зіставивши його з історією сторінки, що приносить цінність.

Якщо ви все ще турбуєтеся про отримання зворотних посилань, рішення просте. Поважайте час відвідувачів і цінуйте їх. Зворотні посилання з’являться природно, оскільки користувачі знайдуть цінність у обміні вашим вмістом.

Тоді питання переходить до власника веб-сайту про те, як забезпечити найкращу цінність для користувача та досвід користувача.

Партнер-засновник unite.AI і член Технологічна рада Forbes, Антуан - це а футурист який захоплений майбутнім ШІ та робототехніки.

Він також є засновником Securities.io, веб-сайт, який зосереджується на інвестиціях у революційні технології.