رطم تحسين محركات البحث: كيف يعمل الذكاء الاصطناعي من Google (مايو 2024)
اتصل بنا للحصول على مزيد من المعلومات

SEO

تحسين محركات البحث: كيف يعمل الذكاء الاصطناعي من Google (مايو 2024)

mm
تحديث on

تحسين محرك البحث (SEO) هو عملية تحسين العوامل الموجودة على الصفحة وخارج الصفحة التي تؤثر على مدى ارتفاع ترتيب صفحة الويب لمصطلح بحث معين. هذه عملية متعددة الأوجه تتضمن تحسين سرعة تحميل الصفحة ، وإنشاء إستراتيجية بناء ارتباط ، باستخدام أدوات تحسين محركات البحث، بالإضافة إلى تعلم كيفية إجراء هندسة عكسية للذكاء الاصطناعي من Google باستخدام ملفات التفكير الحسابي.

التفكير الحسابي هو نوع متقدم من تقنيات التحليل وحل المشكلات التي يستخدمها مبرمجو الكمبيوتر عند كتابة التعليمات البرمجية والخوارزميات. سيبحث المفكرون الحسابيون عن الحقيقة الأساسية عن طريق تحطيم المشكلة وتحليلها باستخدام تفكير المبادئ الأولى.

نظرًا لأن Google لا تفرج عن الصلصة السرية لأي شخص ، فسوف نعتمد على التفكير الحسابي. سنستعرض بعض اللحظات المحورية في تاريخ Google والتي شكلت الخوارزميات المستخدمة ، وسنتعرف على سبب أهمية ذلك.

كيف تصنع عقل

سنبدأ بكتاب نُشر عام 2012 بعنوان "كيف تصنع عقلًا: كشف سر الفكر البشري"من قبل المستقبلي الشهير ، والمخترع راي كورزويل. قام هذا الكتاب بتشريح الدماغ البشري ، وكسر الطرق التي يعمل بها. نتعلم من الألف إلى الياء كيف يدرب الدماغ نفسه باستخدام التعرف على الأنماط ليصبح آلة تنبؤ ، تعمل دائمًا على التنبؤ بالمستقبل ، وحتى توقع الكلمة التالية.

كيف يتعرف البشر على الأنماط في الحياة اليومية؟ كيف تتشكل هذه الروابط في الدماغ؟ يبدأ الكتاب بفهم التفكير الهرمي ، وهذا هو فهم هيكل يتكون من عناصر متنوعة مرتبة في نمط ، ثم يمثل هذا الترتيب رمزًا مثل حرف أو حرف ، ثم يتم ترتيب هذا بشكل أكبر في نمط أكثر تقدمًا مثل كلمة ، وفي النهاية جملة. في النهاية تشكل هذه الأنماط أفكارًا ، وتتحول هذه الأفكار إلى منتجات يتحمل الإنسان مسؤولية بنائها.

من خلال محاكاة الدماغ البشري ، تم الكشف عن طريق لإنشاء ذكاء اصطناعي متقدم يتجاوز القدرات الحالية للشبكات العصبية التي كانت موجودة في وقت النشر.

كان الكتاب مخططًا لإنشاء ذكاء اصطناعي يمكنه التوسع عن طريق تفريغ بيانات العالم ، واستخدام معالجة التعرف على الأنماط متعددة الطبقات لتحليل النص والصور والصوت والفيديو. نظام مُحسَّن للترقية نظرًا لمزايا السحابة وقدراتها على المعالجة المتوازية. بمعنى آخر ، لن يكون هناك حد أقصى لإدخال البيانات أو إخراجها.

كان هذا الكتاب محوريًا لدرجة أنه بعد وقت قصير من نشره المؤلف تم تعيين راي كورزويل بواسطة Google ليصبح مدير الهندسة الذي يركز على التعلم الآلي ومعالجة اللغة. وهو دور يتماشى تمامًا مع الكتاب الذي كتبه.

سيكون من المستحيل إنكار مدى تأثير هذا الكتاب على مستقبل Google ، وكيفية ترتيبه لمواقع الويب. هذا كتاب منظمة العفو الدولية يجب أن تكون القراءة إلزامية لأي شخص يرغب في أن يصبح خبيرًا في تحسين محركات البحث.

العقل العميق

تم إطلاق DeepMind في عام 2010 ، وكانت شركة ناشئة ساخنة جديدة تستخدم نوعًا جديدًا ثوريًا من خوارزمية الذكاء الاصطناعي التي كانت تأخذ العالم من خلال العاصفة ، وقد أطلق عليها اسم التعلم المعزز. وصفها DeepMind بشكل أفضل على النحو التالي:

"نحن نقدم أول نموذج للتعلم العميق لتعلم سياسات التحكم بنجاح مباشرةً من المدخلات الحسية عالية الأبعاد باستخدام التعلم المعزز. النموذج عبارة عن شبكة عصبية تلافيفية، تم تدريبها باستخدام أحد أشكال التعلم Q، التي تكون مدخلاتها عبارة عن وحدات بكسل أولية ومخرجاتها عبارة عن دالة قيمة تقدر المكافآت المستقبلية.

من خلال دمج التعلم العميق مع التعلم المعزز ، أصبح التعلم المعزز العميق نظام. بحلول عام 2013 ، كانت DeepMind تستخدم هذه الخوارزميات لتحقيق الانتصارات ضد اللاعبين البشريين في ألعاب Atari 2600 - وقد تحقق ذلك من خلال محاكاة العقل البشري وكيف يتعلم من التدريب والتكرار.

على غرار الطريقة التي يتعلم بها الإنسان عن طريق التكرار ، سواء كان ذلك ركل الكرة أو لعب Tetris ، فإن الذكاء الاصطناعي سيتعلم أيضًا. تتبعت الشبكة العصبية للذكاء الاصطناعي الأداء وستتحسن ذاتيًا بشكل تدريجي مما يؤدي إلى اختيار حركة أقوى في التكرار التالي.

كانت DeepMind مهيمنة للغاية في ريادتها التكنولوجية لدرجة أن Google اضطرت إلى شراء الوصول إلى التكنولوجيا. تم الاستحواذ على DeepMind لأكثر من 500 مليون دولار في عام 2014.

بعد الاستحواذ ، شهدت صناعة الذكاء الاصطناعي اختراقات متتالية ، وهو نوع لم نشهده منذ ذلك الحين 11 مايو 1997 ، عندما لعبة الشطرنج غراند ماستر خسر جاري كاسباروف اللعبة الأولى من مباراة من ست مباريات ضد ديب بلو ، وهو كمبيوتر للعب الشطرنج طوره العلماء في شركة آي بي إم. 

في عام 2015 ، صقل DeepMind الخوارزمية لاختبارها على مجموعة Atari المكونة من 49 لعبة ، وتفوقت الآلة على الأداء البشري في 23 منها.

كانت هذه مجرد البداية ، في وقت لاحق من عام 2015 بدأت DeepMind التركيز عليها AlphaGo، وهو برنامج يهدف إلى هزيمة بطل Go World المحترف. تعتبر لعبة Go القديمة ، التي شوهدت لأول مرة في الصين منذ حوالي 4000 عام ، أكثر الألعاب تحديًا في تاريخ البشرية ، مع إمكاناتها 10360 التحركات الممكنة.

استخدم DeepMind التعلم الخاضع للإشراف لتدريب نظام AlphaGo من خلال التعلم من اللاعبين البشريين. بعد فترة وجيزة ، تصدرت DeepMind عناوين الصحف بعد فوز AlphaGo لي سيدول، بطل العالم ، في مباراة من خمس مباريات في مارس 2016.

لا يمكن التفوق عليها ، في أكتوبر 2017 ، أصدرت DeepMind AlphaGo Zero ، وهو نموذج جديد مع فارق رئيسي يتطلب صفرًا تدريب بشري. نظرًا لأنه لا يتطلب تدريبًا بشريًا ، فإنه لا يتطلب أيضًا تصنيف البيانات ، وهو النظام المستخدم بشكل أساسي تعليم غير مشرف عليه. تجاوز AlphaGo Zero سابقه بسرعة ، مثل وصفها DeepMind.

"تم تدريب الإصدارات السابقة من AlphaGo في البداية على الآلاف من ألعاب الهواة والمحترفين البشريين لتعلم كيفية لعب Go. يتخطى AlphaGo Zero هذه الخطوة ويتعلم اللعب ببساطة عن طريق ممارسة الألعاب ضد نفسه ، بدءًا من اللعب العشوائي تمامًا. من خلال القيام بذلك ، سرعان ما تجاوز المستوى البشري في اللعب وهزم نشرت سابقا نسخة تهزم بطل AlphaGo بنسبة 100 مباراة إلى 0. "

في غضون ذلك ، كان عالم تحسين محركات البحث يركز بشكل كبير على PageRank ، العمود الفقري لـ Google. بدأت في عام 1995 ، عندما كان لاري بيدج وسيرجي برين على درجة الدكتوراه. طلاب في جامعة ستانفورد. بدأ الثنائي التعاون في مشروع بحث جديد بعنوان "فرك الظهر". كان الهدف هو تصنيف صفحات الويب إلى مقياس للأهمية عن طريق تحويل بيانات الروابط الخلفية الخاصة بهم. الرابط الخلفي هو ببساطة أي رابط من صفحة إلى أخرى ، على غرار هذا الصفحة .

تمت إعادة تسمية الخوارزمية لاحقًا إلى PageRank ، والتي سميت على اسم كل من مصطلح "صفحة الويب" والمؤسس المشارك Larry Page. كان لاري بيدج وسيرجي برين هدفًا طموحًا يتمثل في بناء محرك بحث يمكنه تشغيل الويب بالكامل عن طريق الروابط الخلفية فقط.

وعملت.

PageRank يهيمن على العناوين الرئيسية

فهم محترفو تحسين محركات البحث على الفور أساسيات كيفية قيام Google بحساب تصنيف الجودة لصفحة ويب باستخدام نظام ترتيب الصفحات. اتخذ بعض رواد أعمال تحسين محركات البحث SEO من Savvy black hat خطوة إلى الأمام ، حيث فهموا أنه لتوسيع نطاق المحتوى ، قد يكون من المنطقي شراء الروابط بدلاً من الانتظار للحصول عليها بشكل طبيعي.

نشأ اقتصاد جديد حول الروابط الخلفية. سيشتري مالكو مواقع الويب المتحمسون الذين يحتاجون إلى التأثير على تصنيفات محرك البحث الروابط ، وفي المقابل سيبيعون الروابط اليائسة لتحقيق الدخل من مواقع الويب.

غالبًا ما غزت مواقع الويب التي اشترت الروابط بين عشية وضحاها شركة Google التي تفوقت على العلامات التجارية الراسخة.

لقد نجح التصنيف باستخدام هذه الطريقة بشكل جيد لفترة طويلة – حتى توقف عن العمل، ربما في نفس الوقت تقريبًا الذي بدأ فيه التعلم الآلي وحل المشكلة الأساسية. مع إدخال التعلم المعزز العميق، سيصبح نظام ترتيب الصفحات متغيرًا للتصنيف، وليس العامل المهيمن.

في الوقت الحالي ، ينقسم مجتمع مُحسّنات محرّكات البحث على شراء الرابط كاستراتيجية. أنا شخصياً أعتقد أن شراء الروابط يقدم نتائج دون المستوى الأمثل ، وأن أفضل الطرق للحصول على روابط خلفية تستند إلى متغيرات خاصة بالصناعة. إحدى الخدمات الشرعية التي يمكنني أن أوصي بها تسمى هارو (مساعدة مراسل). الفرصة في HARO هي الحصول على روابط خلفية من خلال تلبية طلبات الوسائط.

لم يكن على العلامات التجارية الراسخة أن تقلق بشأن مصادر الروابط ، حيث إنها تتمتع بمزايا الوقت الذي تعمل فيه لصالحها. كلما كان موقع الويب أقدم ، زاد الوقت الذي كان عليه لجمع روابط خلفية عالية الجودة. بمعنى آخر ، كان ترتيب محرك البحث يعتمد بشكل كبير على عمر موقع الويب ، إذا قمت بالحساب باستخدام المقياس الوقت = الروابط الخلفية.

على سبيل المثال ، ستتلقى CNN بشكل طبيعي روابط خلفية لمقال إخباري بسبب علامتها التجارية وثقتها ولأنها كانت مدرجة في القائمة العالية لتبدأ بها - لذلك من الطبيعي أنها اكتسبت المزيد من الروابط الخلفية من الأشخاص الذين يبحثون عن مقال ويربطون بنتيجة البحث الأولى التي عثروا عليها .

مما يعني أن صفحات الويب ذات التصنيف الأعلى تلقت عضويًا المزيد من الروابط الخلفية. لسوء الحظ ، كان هذا يعني أن مواقع الويب الجديدة غالبًا ما تُجبر على إساءة استخدام خوارزمية الروابط الخلفية من خلال اللجوء إلى سوق الروابط الخلفية.

في أوائل العقد الأول من القرن الحادي والعشرين ، نجح شراء الروابط الخلفية بشكل ملحوظ وكانت عملية بسيطة. اشترى مشترو الروابط روابط من مواقع ويب ذات سلطة عالية ، وغالبًا ما تكون روابط تذييل على مستوى الموقع ، أو ربما على أساس كل مقالة (غالبًا ما يتنكر في شكل منشور ضيف) ، وكان البائعون اليائسون في تحقيق الدخل من مواقعهم الإلكترونية سعداء بالإلزام - لسوء الحظ ، في كثير من الأحيان على تضحية جودة.

في النهاية ، أدركت مجموعة مواهب Google من مهندسي التعلم الآلي أن ترميز نتائج محرك البحث يدويًا كان عديم الجدوى ، وأن الكثير من نظام ترتيب الصفحات كان عبارة عن ترميز مكتوب بخط اليد. وبدلاً من ذلك ، فهموا أن الذكاء الاصطناعي سيصبح في النهاية مسؤولاً عن حساب التصنيفات بالكامل دون تدخل بشري ضئيل.

للحفاظ على قدرتها التنافسية ، تستخدم Google كل أداة في ترسانتها وهذا يشمل التعلم المعزز العميق - النوع الأكثر تقدمًا من خوارزمية التعلم الآلي في العالم.

يتم وضع هذا النظام فوق استحواذ Google على MetaWeb كان مغيرًا للعبة. السبب وراء أهمية الاستحواذ على MetaWeb لعام 2010 هو أنه قلل من الوزن الذي وضعته Google على الكلمات الرئيسية. أصبح السياق مهمًا بشكل مفاجئ ، وقد تم تحقيق ذلك باستخدام منهجية تصنيف تسمى "الكيانات". مثل وصف الشركة السريعة:

بمجرد أن يكتشف Metaweb الكيان الذي تشير إليه ، يمكنه تقديم مجموعة من النتائج. ويمكنه أيضًا الجمع بين الكيانات لإجراء عمليات بحث أكثر تعقيدًا - قد تكون "الممثلات فوق 40" كيانًا واحدًا ، وقد تكون "الممثلات اللائي يعشن في مدينة نيويورك" كيانًا آخر ، وقد تكون "الممثلات اللائي يعشن فيلمًا حاليًا" كيانًا آخر. ".

تم إدخال هذه التقنية في تحديث خوارزمية رئيسي يسمى RankBrain التي تم إطلاقها في ربيع عام 2015. ركز RankBrain على فهم السياق مقابل كونه قائمًا على الكلمات الرئيسية فقط ، كما أن RankBrain ستأخذ في الاعتبار السياقات البيئية (على سبيل المثال ، موقع الباحث) واستقراء المعنى حيث لم يكن هناك أي شيء من قبل. كان هذا تحديثًا مهمًا خاصة لمستخدمي الأجهزة المحمولة.

الآن بعد أن فهمنا كيفية استخدام Google لهذه التقنيات ، دعنا نستخدم النظرية الحسابية للتكهن بكيفية القيام بذلك.

ما هو التعلم العميق؟

تعلم عميق هو النوع الأكثر استخدامًا من التعلم الآلي - سيكون من المستحيل على Google عدم استخدام هذه الخوارزمية.

يتأثر التعلم العميق بشكل كبير بكيفية عمل الدماغ البشري ويحاول عكس سلوك الدماغ في كيفية استخدامه للتعرف على الأنماط لتحديد الأشياء وتصنيفها.

على سبيل المثال ، إذا رأيت الرسالة a، يتعرف دماغك تلقائيًا على الخطوط والأشكال لتحديدها على أنها الحرف a. نفس الشيء ينطبق على الحروف ap، يحاول دماغك تلقائيًا التنبؤ بالمستقبل من خلال الخروج بكلمات محتملة مثل التطبيق or تفاحة. قد تشمل الأنماط الأخرى الأرقام أو علامات الطريق أو تحديد شخص عزيز في مطار مزدحم.

يمكنك التفكير في الترابط في نظام التعلم العميق ليكون مشابهًا لكيفية عمل الدماغ البشري مع اتصال الخلايا العصبية والمشابك.

التعلم العميق هو في النهاية المصطلح الذي يُعطى لهياكل التعلم الآلي التي تربط العديد من الإدراك الحسي متعدد الطبقات معًا ، بحيث لا توجد طبقة مخفية واحدة فقط ولكن العديد من الطبقات المخفية. كلما كانت الشبكة العصبية العميقة "أعمق" ، يمكن أن تتعلم الأنماط الأكثر تعقيدًا.

يمكن دمج الشبكات المتصلة بالكامل مع وظائف التعلم الآلي الأخرى لإنشاء بنيات تعلم عميق مختلفة.

كيف تستخدم Google التعلم العميق

تتعقب Google مواقع الويب في العالم من خلال اتباع الارتباطات التشعبية (التفكير في الخلايا العصبية) التي تربط مواقع الويب ببعضها البعض. كانت هذه هي المنهجية الأصلية التي استخدمتها Google منذ اليوم الأول ، ولا تزال قيد الاستخدام. بمجرد فهرسة مواقع الويب ، يتم استخدام أنواع مختلفة من الذكاء الاصطناعي لتحليل هذا الكنز الدفين من البيانات.

يصنف نظام Google صفحات الويب وفقًا لمقاييس داخلية مختلفة ، مع إدخال أو تدخل بشري طفيف فقط. مثال على التدخل هو الإزالة اليدوية لعنوان URL محدد بسبب ملف طلب إزالة DMCA.

يشتهر مهندسو Google بإحباط الحضور في مؤتمرات SEO، وذلك لأن المديرين التنفيذيين في Google لا يمكنهم أبدًا توضيح كيفية عمل Google بشكل صحيح. عندما يتم طرح أسئلة حول سبب فشل تصنيف مواقع ويب معينة ، فإنها دائمًا ما تكون نفس الاستجابة سيئة الوضوح. الاستجابة متكررة لدرجة أن الحضور في كثير من الأحيان يذكرون بشكل استباقي أنهم التزموا بإنشاء محتوى جيد لأشهر أو حتى سنوات متتالية دون نتائج إيجابية.

كما هو متوقع ، يُطلب من مالكي مواقع الويب التركيز على إنشاء محتوى قيم - عنصر مهم ، ولكنه بعيد عن أن يكون شاملاً.

هذا النقص في الإجابة لأن المديرين التنفيذيين غير قادرين على الإجابة بشكل صحيح على السؤال. تعمل خوارزمية Google في صندوق أسود. هناك مدخلات ، ثم مخرجات - وهذه هي الطريقة التي يعمل بها التعلم العميق.

دعنا الآن نعود إلى عقوبة الترتيب التي تؤثر سلبًا على ملايين مواقع الويب غالبًا دون علم مالك موقع الويب.

PageSpeed ​​البصائر

جوجل ليست شفافة في كثير من الأحيان ، PageSpeed ​​Insights هي الاستثناء. سيتم إرسال مواقع الويب التي تفشل في اختبار السرعة هذا إلى مربع عقوبة للتحميل ببطء - خاصة إذا تأثر مستخدمو الأجهزة المحمولة.

ما يُشتبه به هو أنه في مرحلة ما من العملية، توجد شجرة قرارات تقوم بتحليل مواقع الويب السريعة، مقابل مواقع الويب ذات التحميل البطيء (فشل PageSpeed ​​Insights). شجرة القرار هي في الأساس نهج خوارزمي يقسم مجموعة البيانات إلى نقاط بيانات فردية بناءً على معايير مختلفة. قد تكون المعايير هي التأثير سلبًا على مدى ارتفاع تصنيف الصفحة لمستخدمي الأجهزة المحمولة مقابل مستخدمي سطح المكتب.

من الناحية الافتراضية ، يمكن تطبيق عقوبة على درجة الترتيب الطبيعية. على سبيل المثال ، موقع الويب الذي بدون عقوبة سيحتل المرتبة رقم 5 قد يحتوي على -20 أو -50 أو متغير آخر غير معروف من شأنه تقليل الترتيب إلى # 25 أو # 55 أو أي رقم آخر كما حدده الذكاء الاصطناعي.

قد نرى في المستقبل نهاية PageSpeed ​​Insights ، عندما تصبح Google أكثر ثقة في الذكاء الاصطناعي الخاص بها. يعد هذا التدخل الحالي في السرعة من قِبل Google خطيرًا لأنه قد يؤدي إلى القضاء على النتائج التي كان من الممكن أن تكون مثالية ، كما أنه يميز ضد الأشخاص الأقل ذكاءً من الناحية التقنية.

إنه طلب كبير أن نطالب بأن يتمتع كل شخص يدير شركة صغيرة بالخبرة اللازمة لتشخيص مشكلات اختبار السرعة ومعالجتها بنجاح. يتمثل أحد الحلول البسيطة في أن تقوم Google ببساطة بإصدار مكون إضافي لتحسين السرعة لمستخدمي Wordpress ، مثل قوى ووردبرس 43٪ من الانترنت.

لسوء الحظ ، فإن جميع جهود تحسين محركات البحث تذهب سدى إذا فشل موقع الويب في المرور رؤى PageSpeed ​​من Google. الرهانات ليست أقل من موقع ويب يختفي من Google.

كيفية اجتياز هذا الاختبار هي مقالة لوقت آخر ولكن على الأقل يجب عليك التحقق مما إذا كان لديك يمر الموقع.

مقياس تقني مهم آخر يدعو للقلق هو بروتوكول أمان يسمى SSL (طبقة المقابس الآمنة). يؤدي هذا إلى تغيير عنوان URL الخاص بالمجال من http إلى https ، ويضمن النقل الآمن للبيانات. سيتم معاقبة أي موقع لا يحتوي على SSL ممكّن. في حين أن هناك بعض الاستثناءات لهذه القاعدة ، فإن التجارة الإلكترونية والمواقع المالية ستتأثر بشدة.

تتقاضى مضيفات الويب منخفضة التكلفة رسومًا سنوية لتطبيق SSL ، وفي الوقت نفسه تستضيف مواقع الويب الجيدة مثل Siteground إصدار شهادات SSL مجانًا ودمجها تلقائيًا.

البيانات الوصفية

عنصر آخر مهم على الموقع هو Meta Title و Meta description. تحتوي حقول المحتوى هذه على ترتيب كبير من الأهمية قد يساهم في نجاح أو فشل الصفحة مثل المحتوى الكامل لتلك الصفحة.

هذا لأن Google لديها احتمالية عالية لاختيار Meta Title و Meta description لعرضهما في نتائج البحث. وهذا هو السبب في أنه من المهم ملء عنوان التعريف وحقل الوصف التعريفي بأكبر قدر ممكن من الدقة.

البديل هو أن Google قد تختار تجاهل العنوان الوصفي والوصف التعريفي بدلاً من ذلك لإنشاء البيانات تلقائيًا التي تتوقع أنها ستؤدي إلى المزيد من النقرات. إذا توقعت Google بشكل سيئ عنوان الإنشاء التلقائي ، فسيساهم ذلك في تقليل عدد النقرات من قِبل الباحثين ، وبالتالي يساهم ذلك في فقد تصنيفات محرك البحث.

إذا اعتقدت Google أن الوصف التعريفي المضمن قد تم تحسينه لاستقبال النقرات ، فسوف يعرضه في نتائج البحث. في حالة فشل هذا ، تحصل Google على جزء عشوائي من النص من موقع الويب. غالبًا ما تختار Google أفضل نص على الصفحة ، والمشكلة هي أن هذا هو نظام اليانصيب وجوجل سيئة باستمرار في اختيار الوصف الذي تريد تحديده.

بالطبع إذا كنت تعتقد أن المحتوى الموجود على صفحتك جيد حقًا ، فمن المنطقي في بعض الأحيان السماح لـ Google باختيار الوصف التعريفي المحسن الذي يتطابق مع استعلام المستخدم على أفضل وجه. لن نختار وصفًا تعريفيًا لهذه المقالة لأنها غنية بالمحتوى ، ومن المرجح أن تختار Google وصفًا جيدًا.

في غضون ذلك ، ينقر مليارات البشر على أفضل نتائج البحث - وهذا هو ملف الإنسان في الحلقة، آلية التعليقات الأخيرة من Google - وهذا هو المكان الذي يبدأ فيه التعلم المعزز.

ما هو التعلم المعزز؟

تعزيز التعلم هي تقنية تعلم آلي تتضمن تدريب وكيل الذكاء الاصطناعي من خلال تكرار الإجراءات والمكافآت المرتبطة بها. يقوم عامل التعلم المعزز بإجراء التجارب في بيئة ، واتخاذ الإجراءات والمكافأة عند اتخاذ الإجراءات الصحيحة. مع مرور الوقت ، الوكيل يتعلم اتخاذ الإجراءات التي من شأنها زيادة مكافأته.

يمكن أن تستند المكافأة إلى عملية حسابية بسيطة تحسب مقدار الوقت المستغرق في صفحة موصى بها.

إذا قمت بدمج هذه المنهجية مع روتين فرعي Human-in-the-loop ، فسيبدو هذا كثيرًا مثل محركات التوصية الحالية التي تتحكم في جميع جوانب حياتنا الرقمية مثل YouTube و Netflix و Amazon Prime - وإذا كان الأمر يبدو هكذا يجب أن يعمل محرك البحث بشكل صحيح.

كيف تستخدم Google التعلم المعزز

تتحسن دولاب الموازنة من Google مع كل عملية بحث ، ويقوم البشر بتدريب الذكاء الاصطناعي عن طريق اختيار أفضل نتيجة تجيب على استعلامهم بشكل أفضل ، والاستعلام المماثل لملايين المستخدمين الآخرين.

يعمل عامل التعلم المعزز باستمرار على التحسين الذاتي من خلال تعزيز التفاعلات الأكثر إيجابية فقط بين البحث ونتائج البحث المقدمة.

يقيس Google مقدار الوقت الذي يستغرقه المستخدم لمسح صفحة النتائج ، وعنوان URL الذي ينقر عليه ، ويقيس مقدار الوقت الذي يقضيه في موقع الويب الذي تمت زيارته ، ويقوم بتسجيل نقرة العودة. يتم بعد ذلك تجميع هذه البيانات ومقارنتها مع كل موقع ويب يقدم مطابقة بيانات مماثلة ، أو تجربة مستخدم.

موقع الويب ذو معدل الاحتفاظ المنخفض (الوقت الذي يقضيه في الموقع) ، يتم تغذيته بواسطة نظام التعلم المعزز بقيمة سلبية ، ويتم اختبار مواقع الويب المنافسة الأخرى لتحسين التصنيفات المعروضة. Google غير متحيز ، بافتراض عدم وجود تدخل يدوي ، توفر Google في النهاية صفحة نتائج البحث المطلوبة.

المستخدمون هم الإنسان في الحلقة الذين يزودون Google ببيانات مجانية ويصبحون المكون الأخير لنظام التعلم المعزز العميق. في مقابل هذه الخدمة ، تقدم Google للمستخدم النهائي فرصة للنقر على أحد الإعلانات.

تعمل الإعلانات خارج تحقيق الإيرادات كعامل تصنيف ثانوي ، حيث تعرض المزيد من البيانات حول ما يجعل المستخدم يرغب في النقر.

يتعلم Google أساسًا ما يريده المستخدم. يمكن مقارنة ذلك بشكل فضفاض بمحرك التوصية من خلال خدمة دفق الفيديو. في هذه الحالة ، يقوم محرك التوصية بتغذية محتوى المستخدم الذي يستهدف اهتماماتهم. على سبيل المثال ، قد يستمتع المستخدم الذي يستمتع عادةً بسيل من الأعمال الكوميدية الرومانسية ببعض المحاكاة الساخرة إذا كان يشترك في نفس الممثلين الكوميديين.

كيف يساعد هذا تحسين محركات البحث؟

إذا واصلنا التفكير الحسابي ، يمكننا أن نفترض أن Google قد دربت نفسها لتقديم أفضل النتائج ، وغالبًا ما يتم تحقيق ذلك من خلال التعميم وإرضاء التحيزات البشرية. سيكون من المستحيل في الواقع على الذكاء الاصطناعي من Google عدم تحسين النتائج التي تلبي هذه التحيزات ، إذا فعلت ذلك ، فستكون النتائج دون المستوى الأمثل.

بعبارة أخرى ، لا توجد صيغة سحرية ، ولكن هناك بعض أفضل الممارسات.

تقع على عاتق ممارس تحسين محركات البحث مسؤولية التعرف على التحيزات التي تسعى Google إلى تحقيقها والتي تخص صناعتهم - وإدخال هذه التحيزات. على سبيل المثال ، الشخص الذي يبحث عن نتائج استطلاع انتخابي دون تحديد تاريخ ، هو على الأرجح يبحث عن أحدث النتائج - وهذا هو انحياز الحداثة. شخص ما يبحث عن وصفة ، على الأرجح لا يحتاج إلى أحدث صفحة ، وقد يفضل في الواقع وصفة صمدت أمام اختبار الزمن.

تقع على عاتق ممارس تحسين محركات البحث مسؤولية تقديم النتائج التي يبحثون عنها للزائرين. هذه هي الطريقة الأكثر استدامة للترتيب في Google.

يجب على مالكي مواقع الويب التخلي عن استهداف كلمة رئيسية معينة مع توقع أنه يمكنهم تقديم ما يريدون للمستخدم النهائي. يجب أن تتطابق نتيجة البحث بدقة مع حاجة المستخدم.

ما هو التحيز؟ من الممكن أن يكون اسم المجال له سلطة عالية ، بمعنى آخر ، هل يتطابق اسم المجال مع السوق الذي تخدمه؟ قد يؤدي وجود اسم مجال بكلمة الهند فيه إلى تثبيط مستخدمي الولايات المتحدة الأمريكية من النقر فوق عنوان URL ، بسبب التحيز القومي للثقة في النتائج التي تنشأ من بلد إقامة المستخدم. إن وجود مجال من كلمة واحدة قد يعطي أيضًا وهمًا للسلطة.

التحيز الأكثر أهمية هو ما الذي يريده المستخدم لمطابقة استعلام البحث؟ هل هي أسئلة وأجوبة ، قائمة أفضل 10 ، منشور مدونة؟ هذا يحتاج إلى إجابة ، والإجابة سهلة للعثور. تحتاج فقط إلى تحليل المنافسة عن طريق إجراء بحث Google في السوق المستهدف.

Black Hat SEO ميت

قارن هذا بـ Black Hat SEO ، وهي طريقة قوية لترتيب المواقع الإلكترونية التي تستغل تقنيات الرسائل الاقتحامية (SPAM) الملتوية ، بما في ذلك شراء الروابط الخلفية ، وتزوير الروابط الخلفية ، واختراق مواقع الويب ، وإنشاء إشارات مرجعية اجتماعية تلقائيًا على نطاق واسع ، ومنهجيات أخرى مظلمة يتم تطبيقها عبر شبكة من أدوات القبعة السوداء .

الأدوات التي غالبًا ما يتم إعادة توجيهها وإعادة بيعها في العديد من منتديات التسويق عبر محركات البحث ، والمنتجات التي لا قيمة لها مع وجود احتمالات قليلة للنجاح. في الوقت الحالي ، تمكّن هذه الأدوات البائعين من أن يصبحوا أثرياء بينما يقدمون الحد الأدنى من القيمة للمستخدم النهائي.

هذا هو السبب في أنني أوصي بالتخلي عن Black Hat. ركز تحسين محركات البحث على مشاهدته من عدسة التعلم الآلي. من المهم أن نفهم أنه في كل مرة يتخطى فيها شخص ما نتيجة بحث للنقر على نتيجة مدفونة تحتها ، يكون الإنسان في الحلقة يتعاون مع نظام التعلم المعزز العميق. يساعد الإنسان الذكاء الاصطناعي في التحسين الذاتي ، ليصبح أفضل بلا حدود مع تقدم الوقت.

هذه خوارزمية تعلم آلي تم تدريبها من قبل مستخدمين أكثر من أي نظام آخر في تاريخ البشرية.

تتعامل Google مع 3.8 مليون عملية بحث في الدقيقة في المتوسط ​​في جميع أنحاء العالم. ينتج عن ذلك 228 مليون عملية بحث في الساعة ، 5.6 مليار عملية بحث يوميًا. هذا كثير من البيانات ، وهذا هو السبب في أنه من الحماقة محاولة تحسين محرك البحث للقبعة السوداء. إن افتراض أن الذكاء الاصطناعي الخاص بـ Google سيظل راكدًا هو أمر أحمق ، فإن النظام يستخدم امتداد قانون تسريع العوائد لتحسين الذات بشكل كبير.

أصبح الذكاء الاصطناعي من Google قويًا لدرجة أنه يمكن تصور أنه يمكن أن يصبح في النهاية أول ذكاء اصطناعي يصل إليه الذكاء العام الاصطناعي (AGI). الذكاء الاصطناعي العام هو ذكاء يمكن استخدامه نقل التعلم لإتقان مجال واحد ثم تطبيق ذلك الذكاء المكتسب عبر مجالات متعددة. على الرغم من أنه قد يكون من المثير للاهتمام استكشاف جهود Google AGI المستقبلية ، إلا أنه يجب أن يكون مفهوماً أنه بمجرد بدء العملية ، من الصعب إيقافها. هذا بالطبع تخمين نحو المستقبل لأن Google حاليًا نوع من الذكاء الاصطناعي الضيق ، لكن هذا موضوع لمقال آخر.

إن معرفة هذا الإنفاق ثانية واحدة على القبعة السوداء هو مهمة أحمق.

القبعة البيضاء

إذا قبلنا أن الذكاء الاصطناعي من Google سوف يتحسن بشكل مستمر ، فلن يكون لدينا خيار سوى التخلي عن محاولة التفوق على Google. بدلاً من ذلك ، ركز على تحسين موقع الويب لتزويد Google على النحو الأمثل بما تبحث عنه على وجه التحديد.

كما هو موضح ، يتضمن ذلك تمكين SSL ، وتحسين سرعة تحميل الصفحة ، وتحسين عنوان Meta و Meta Description. لتحسين هذه الحقول ، يجب مقارنة Meta Title و Meta Description بالمواقع المنافسة - حدد العناصر الفائزة التي تؤدي إلى ارتفاع نسبة النقر إلى الظهور.

إذا قمت بتحسين النقر فوقك ، فإن المعلم التالي هو إنشاء أفضل صفحة مقصودة. الهدف هو صفحة مقصودة تعمل على تحسين قيمة المستخدم لدرجة أن متوسط ​​الوقت الذي يقضيه على الصفحة يتفوق في الأداء على المنافسين المماثلين الذين يتنافسون للحصول على أفضل نتائج محرك البحث.

فقط من خلال تقديم أفضل تجربة للمستخدم يمكن أن تزيد صفحة الويب في الترتيب.

حتى الآن حددنا هذه المقاييس لتكون الأكثر أهمية:

  • سرعة التحميل
  • تمكين SSL
  • Meta Title و Meta Description
  • الصفحة المقصودة

الصفحة المقصودة هي أصعب عنصر وأنت تنافس العالم. يجب أن يتم تحميل الصفحة المقصودة بسرعة ، ويجب أن تخدم كل ما هو متوقع ، ثم تفاجئ المستخدم بالمزيد.

افكار اخيرة

سيكون من السهل ملء 2000 كلمة أخرى تصف تقنيات الذكاء الاصطناعي الأخرى التي تستخدمها Google ، بالإضافة إلى التعمق أكثر في حفرة الأرانب في مُحسّنات محرّكات البحث. الهدف هنا هو إعادة تركيز الانتباه على المقاييس الأكثر أهمية.

تركز أدوات تقسيم محركات البحث SEO على ممارسة ألعاب النظام لدرجة أنها تنسى أنه في نهاية اليوم ، فإن أهم عنصر في تحسين محركات البحث هو منح المستخدمين أكبر قدر ممكن من القيمة.

تتمثل إحدى طرق تحقيق ذلك في عدم السماح أبدًا للمحتوى المهم بأن يصبح قديمًا. إذا فكرت في مساهمة مهمة في غضون شهر ، فسيتم إضافتها إلى هذه المقالة. يمكن لـ Google بعد ذلك تحديد مدى حداثة المحتوى ومطابقته مع تاريخ تقديم الصفحة للقيمة.

إذا كنت لا تزال قلقًا بشأن الحصول على روابط خلفية ، فإن الحل بسيط. احترم وقت زوارك وامنحهم قيمة. ستأتي الروابط الخلفية بشكل طبيعي ، حيث سيجد المستخدمون قيمة في مشاركة المحتوى الخاص بك.

ينتقل السؤال بعد ذلك إلى مالك موقع الويب حول كيفية توفير أفضل قيمة للمستخدم وتجربة مستخدم.

شريك مؤسس في unite.AI وعضو في مجلس تكنولوجيا فوربس ، أنطوان أ المستقبلي من هو شغوف بمستقبل الذكاء الاصطناعي والروبوتات.

وهو أيضًا مؤسس Securities.io، موقع ويب يركز على الاستثمار في التكنولوجيا الثورية.