برای زندگی در هر شهر و کشوری ابتدا باید با قوانین آن آشنا شوید. چراکه هر کشور بدون درنظر گرفتن قانون برای شهروندانش موجب هرج و مرج میشود. گوگل نیز برای وبمسترها قوانینی جهت جلوگیری از بوجود آمدن سایتهای اسپم منتشر کرده است. درصورتی که سایتی از قوانین گوگل پیروی نکند، جریمه میشود. همانطور که قوانین کشورها هرچندسال یکبار دستخوش تغییر میشود، قوانین گوگل نیز دائما در حال آپدیت و به روزرسانی میباشند. به قوانینی که گوگل برای بررسی سایت ارائه میدهد، الگوریتم گوگل میگویند. گوگل هر سال علاوه بر آپدیت الگوریتمهای قدیمی، الگوریتمهای جدیدی نیز معرفی میکند.
به پنجمین محتوا از مجموعه محتواهای سریالی آموزش سئو در ویرا خوش آمدید. در این قسمت قراره به طور مفصل در مورد تمام الگوریتم های گوگل صحبت کنیم.
تایید شده توسط ویرا
الگوریتم گوگل چیست؟
الگوریتم گوگل (Google Algorithm)، یک سیستم پیچیده و ریاضیاتی است که گوگل برای جستجو و رتبهبندی صفحات وب در نتایج جستجو خود استفاده میکند. این الگوریتم شامل بسیاری از قوانین و شاخصها است که به کمک آنها، گوگل تصمیم میگیرد که کدام صفحات را در نتایج جستجوی خود و به چه ترتیبی نمایش دهد. فراموش نکنیم که هدف گوگل همیشه ارائه بهترین نتایج به کاربران است، بنابراین تمام الگوریتمهای گوگل نیز در راستای این هدف بوجود آمدهاند. ما با سئو و بهینه سازی سایت، باعث میشویم تا گوگل راحتتر محتوای صفحات ما را درک کند و در نتایج خود نشان دهد.
به عنوان یکی از بزرگترین موتورهای جستجو در دنیا، گوگل بهصورت دورهای الگوریتمهای خود را بهروزرسانی میکند و تغییراتی در آن ایجاد میکند که به منظور بهبود کیفیت و دقت نتایج جستجو، مبتنی بر عواملی مانند محتوای صفحات، لینکهای خارجی و داخلی، سرعت صفحات، ساختار سایت و… هستند.
الگوریتم جستجوی گوگل چگونه کار می کند؟
الگوریتمهای گوگل بسیار پیچیده هستند. بیش از 200 فاکتور در رتبه بندی گوگل موثر هستند و تا به امروز فردی به طور دقیق از تمام فاکتورهای رتبه بندی گوگل باخبر نیست. اما نحوهی کار هر کدام از این الگوریتمها میتواند اطلاعاتی از نحوهی رتبهدهی گوگل را برای ما مشخص کند. گوگل به طور متوسط ۶ بار در روز به روزرسانی برای الگوریتم خود منتشر میکند که تا ۲۰۰۰ بار در سال افزایش مییابد. برخی از متخصصان سئو بر این باورند که توجه به برخی از استراتژیهای سئو داخلی، سئو خارجی و سئو فنی میتواند رتبه بندی سایت را توسط الگوریتمهای گوگل بهبود ببخشد. برخی از ویژگیهایی هستند که الگوریتم گوگل هنگام تعیین نحوه ارائه و رتبه بندی صفحات بررسی میکند. اما برخی از عوامل رتبهبندی گوگل که با استفاده از الگوریتمها شناسایی شده است به شرح زیر است:
1 . کلمات کلیدی در عنوان و متاتگ
2 . بررسی لینک های داخلی و خارجی
3 . تازگی محتوا
4 . ریسپانسیو بودن صفحات
5 . تجربه کاربری
6 . بک لینک های طبیعی
الگوریتم هسته گوگل چیست ؟
الگوریتم هسته گوگل (Google Core Algorithm) یک سری اصول و قوانین ریاضیاتی و کامپیوتری است که برای رتبهبندی صفحات وب در نتایج جستجوی گوگل به کار میرود. زمانیکه یک الگوریتم به خوبی کار میکند به طوریکه به اندازه کافی آزمایش شده باشد و دیگر نیازی به تغییرات بیشتر در آینده نداشته باشد، به الگوریتم هسته گوگل تبدیل میشود. این الگوریتم باعث تعیین ترتیب نمایش صفحات در نتایج جستجو میشود. به عنوان مثال، الگوریتم پاندا امروزه جزئی از الگوریتم هسته گوگل شده است.
با توجه به این که الگوریتم هسته گوگل به صورت پنهانی کار میکند، دقیقاً چگونگی عملکرد آن به صورت کامل شفاف نیست. با این حال، گوگل در بسیاری از موارد توضیحاتی درباره این الگوریتم و اصول و قوانین مورد استفاده خود ارائه کرده است. همچنین، با توجه به تحولات پویای صنعت تکنولوژی و تغییر در الگوریتم هسته گوگل، بهتر است همیشه با تحولات جدید آشنا باشید و سعی کنید استراتژی بهینه سازی محتوا و سایت خود را با توجه به این تغییرات به روز کنید.
معرفی الگوریتم های گوگل
هدف اصلی گوگل بهبود تجربه کاربری و نشان دادن بهترین نتیجه به جستجوکنندهها میباشد. به همین منظور گوگل الگوریتمهای یکی پس از دیگری برای مبارزه با سایتهای اسپم و بهبود تعامل کاربران با وب سایتها معرفی کرد و رفته رفته سایتهای باکیفیت جایگاه واقعی خود را بدست آوردند. در ادامه با فهرست الگوریتمهای گوگل آشنا میشویم.
الگوریتم پیج رنک (Google PageRank Algorithm) در سال 1998
الگوریتم پیج رنک (PageRank) جزو اولین الگوریتمهای گوگل است که برای رتبهبندی صفحات وب در نتایج جستجوی گوگل در سال 1998 معرفی شد. شاخص رتبه بندی این الگوریتم به این صورت بود که اگر یک سایت دارای تعداد لینکهای بیشتری نسبت به سایر سایتها باشد، دارای اعتبار و اهمیت بیشتری است.
علاوه بر تعداد لینکها، این الگوریتم به سن و اعتبار سایتها نیز توجه میکند. به اینمعناکه به صفحاتی که دارای لینک از سایتهایی با اعتبار بالا هستند، اهمیت بیشتری میدهد و در نتیجه آن صفحه در رتبه بالاتری قرار میگیرند. طبیعی است که پس از این موضوع برخی از وبمسترها شروع به خرید بک لینکهای پولی و اسپم کنند. گوگل هم بیکار ننشست و رفتهرفته گوگل الگوریتم پیج رنک را با هدف جلوگیری از ساخت بک لینکهای انبوه و پولی توسعه داد.
الگوریتم رقص گوگل (Google Dance) در سال 2004
الگوریتم رقص گوگل یا Google Dance Algorithm یکی از الگوریتمهای مرتبسازی صفحات وب در نتایج جستجوی گوگل است. گوگل وب سایتها و صفحات جدید را چند بار در صفحه نتایج جا به جا میکند تا رفتار کاربران را نسبت به آن بسنجد و بتواند نسبت به تعداد کلیکها، مدت زمانی که کاربران در صفحه میمانند و به طور کلی رفتار کاربران، رتبه مناسبی برای صفحه جدید در نظر بگیرد. در گذشته، گوگل دو بار در هفته به طور منظم الگوریتم رقص را اجرا میکرد تا صفحات وب را بر اساس رتبهبندی خود مرتب کند و بهترین موقعیت را نسبت به رقبا برای یک سایت قرار دهد. اما در حال حاضر، الگوریتم رقص گوگل دیگر به صورت دورهای و منظم اجرا نمیشود. به جای آن از الگوریتمهای بیشتری برای رتبه بندی صفحات وب استفاده میکند. در واقع هیچ الگوریتمی نمیتواند به تنهایی برای بهبود رتبهبندی صفحات کافی باشد و نیاز به فاکتورهایی بیشتر و دقیقتری میباشد.
سندباکس گوگل (Google Sandbox) در سال 2004
اگر سایت شما تازه تاسیس باشد ممکن است در سندباکس گوگل قرار بگیرید. اینکار باعث میشود قبل از اینکه صفحه رتبه واقعی خود را پس از ایندکس شدن بدست آورد، محتوای صفحه به صورت کامل بررسی شود و با اطمینان بیشتری در SERP ظاهر شود. اما این ویژگی گوگل هیچوقت به صورت رسمی از طرف گوگل تایید نشده است. اما متخصصان ریزبین سئو ردپای این الگوریتم گوگل را برای سایتهای جدید و نوپا مشاهده کردهاند.
الگوریتم هیلتاپ (Hilltop Algorithm) در سال 2004
الگوریتم هیلتاپ یا Hilltop Algorithm یکی از الگوریتمهای موتور جستجوی گوگل است که برای بهبود کیفیت نتایج جستجوی گوگل و ارائه صفحات باکیفیت و مفید به کاربران توسعه داده شده است. در گذشته وقتی کاربر کلمهای را سرچ میکرد که نقطه اشتراک زیادی با موضوعات مختلف داشت، گوگل نمیتوانست صفحات درستی را به ترتیب نمایش دهد. این الگوریتم به وجود آمد تا صفحات تخصصی و دارای اعتبار را شناسایی کند و به یافتن مرتبطترین و آموزندهترین نتیجه کمک کند. این الگوریتم هنوز هم در کنار الگوریتم Page Rank، نقش مهمی را در رتبهبندی سایتها ایفا میکند و نتایج جست و جو شده تحت تاثیر این الگوریتم لزوما کلمه کلیدی آموزندهتری است.
الگوریتم کافئین (Caffeine Algorithm) در سال 2010
الگوریتم کافئین را با عنوان یکی از تاریخسازترین الگوریتمهای گوگل میشناسند. کار الگوریتم کافئین در واقع سیستم نوین ایندکس کردن سایتها بود. با استفاده از کافئین، گوگل قابلیت خزیدن، جمع آوری دادهها و افزودن آن به صفحه فهرست را در چند ثانیه بدست آورد. به بیان ساده میتوان گفت Caffeine به Google اجازه میدهد صفحات بیشتری را در مدت زمان کمتری فهرست بندی کند. گوگل در سال 2019 اعلام کرد که کافئین هم به نفع جستجوگران است و هم محتوا نویسان است؛ به شرطی که محتوا نویسان محتوایی صادقانه و واقعی تولید کنند.
الگوریتم پاندا (Panda Algorithm) در سال 2011
الگوریتم پاندا یکی از الگوریتمهای موتور جستجوی گوگل است که در سال 2011 معرفی شد. پاندا پس از آپدیتهای فراوان به یکی از الگوریتمهای هسته گوگل تبدیل شد. هدف اصلی این الگوریتم کاهش تعداد صفحات بدون کیفیت و صفحات دارای سرقت ادبی بود. این الگوریتم به منظور بهبود کیفیت نتایج جستجو و جلوگیری از به وجود آمدن محتوای تکراری و بدون ارزش استفاده میشود. تمرکز الگوریتم پاندا بیشتر بر فاکتورهای داخلی سایت است و به راحتی میتواند محتوای ضعیف را از قوی تشخیص دهد. پاندا از چندین معیار برای ارزیابی صفحات وب استفاده میکند که شامل موارد زیر میشود:
1 . محتوای باکیفیت: صفحاتی که محتوای باکیفیت و غنی دارند، امتیاز بالاتری در این الگوریتم دریافت میکنند.
2 . محتوای تکراری: صفحاتی که محتوای تکراری و یا کپی شده دارند، تحت تأثیر قرار میگیرند و امتیاز کمتری دریافت میکنند.
3 . سرعت سایت: صفحاتی که با سرعت پایینی دارند، امتیاز کمتری دریافت میکنند.
4 . اعتبار سایت: سایتهایی که اعتبار بالایی در اینترنت دارند و لینکهای بیشتری به آنها ارجاع داده شده است، امتیاز بیشتری در این الگوریتم دریافت میکنند.
5 . غالب تبلغات بر محتوای صفحه : در صورتی از تعداد زیادی بنر و پیامهای تبلیغاتی در صفحه خود استفاده کنید، امتیاز کمتری توسط این الگوریتم دریافت خواهید کرد.
6 . ناهماهنگی محتوا با سرچ کاربر : در صورتی که محتوای داخل صفحه با هدف کاربر ناسازگار باشد، توسط این الگوریتم امتیاز کمتری دریافت میکند.
الگوریتم تازگی محتوا (Freshness Algorithm) در سال 2011
الگوریتم Freshness گوگل یکی از اصلیترین الگوریتمهای موتور جستجوی گوگل است که به منظور بهبود دقت و کیفیت نتایج جستجوی گوگل توسعه داده شده است. هدف اصلی این الگوریتم، تشخیص و ارزیابی صفحاتی است که بهتازگی بروزرسانی شدهاند و محتوای جدیدی را ارائه میدهند. بهطور خاص، الگوریتم Freshness برای کلمات کلیدی مشخصی اعمال میشود تا بهروزرسانیهای جدید درباره آن کلمات کلیدی در نتایج جستجو بیشتر دیده شوند.
برای انجام این کار، الگوریتم Freshness به اطلاعات مربوط به زمان انتشار محتوا، تاریخ بروزرسانی، تعداد لینکهای جدید و شباهت با محتوای دیگر صفحات توجه میکند. اینکار به کاربران کمک میکند تا بهروزترین و بهترین محتواها را برای کلمات کلیدی خود پیدا کنند.
به عنوان مثال اگر شما به دنبال جستجو درباره بیوگرافی رییس جمهور حال حاضر آمریکا باشید، قطعا انتظار ندارید اطلاعات مربوط به رئیس جمهور قبلی آمریکا به شما نمایش داده شود. بدیهی است که تاریخ و چهره های مشهور کشورهای جهان، نقش مهمی در جست و جو و عملکرد گوگل دارد. این موضوع به شدت گوگل را جذاب کرده است.
الگوریتم ونیز (Venice Algorithm) در سال 2012
الگوریتم Venice گوگل یکی از الگوریتمهای موتور جستجوی گوگل است که در سال 2012 معرفی شد. هدف اصلی این الگوریتم، بهبود دقت نتایج جستجوی محلی در گوگل بود. این الگوریتم بهطور اختصاصی برای سئو محلی یا مربوط به مکانهایی مانند شهرها، مناطق و کشورها اعمال میشود.
در واقع، الگوریتم Venice با توجه به مکان فیزیکی کاربر، نتایج جستجوی محلی را برای کاربر بهینهتر و دقیقتر نمایش میدهد. همچنین الگوریتم Venice با توجه به ویژگیهای محلی مانند مکان، نام، آدرس و شماره تلفن، ارتباط بیشتری بین نتایج محلی و مکان فیزیکی کاربر برقرار میکند.
الگوریتم پنگوئن (Penguin Algorithm) در سال 2012
الگوریتم پنگوئن گوگل (Google Penguin Algorithm) یکی از الگوریتمهای موتور جستجوی گوگل بود که در سال 2012 معرفی شد. هدف اصلی این الگوریتم، کاهش رتبه وب سایتهایی است که از روشهای سئو کلاه سیاه استفاده میکنند. وقتی گوگل اعلام کرد که بک لینکها میتوانند در گرفتن رتبه اثر مثبتی داشته باشند، برخی سایتها شروع به ساخت یا خرید بک لینک مصنوعی کردند. گوگل برای مقابله با این اقدام الگوریتم پنگوئن را راه اندازی کرد. پس از آپدیتهای این الگوریتم، دریافت بک لینکهای طبیعی و باکیفیت باعث بالا رفتن رتبه وب سایت شده و در مقابل بک لینکهای بیکیفیت سبب پایین آمدن ارزش وب سایت و قرار گرفتن در ردههای پایین شد.
با این بهروزرسانی موتور جستجوی گوگل، صفحاتی که در این زمینه متخلف شناخته شوند از صفحه نتایج جستجو حذف خواهند شد. در بهترین حالت نیز ممکن است دچار افت رتبه شوند. معیارهای پنگوئن برای بررسی یک صفحه به شرح زیر است:
1 . مبارزه پنگوئن یا لینک سازی اسپم
2 . مبارزه پنگوئن به استفاده بیش از حد انکرتکست
الگوریتم دزد دریایی (Pirate Algorithm) در سال 2012
همانطور که از نام این الگوریتم پیداست، گوگل با معرفی این الگوریتم به مبارزه با سایتهای دارای سرقت ادبی هستند، پرداخت. این الگوریتم برای کاهش رتبه سایتهایی که حق کپی رایت را نقض کرده و محتوای نامشروع را ارائه میدهند طراحی شده است. خصوصاً سایتهایی که بدون رعایت قانون کپی رایت در زمینه دانلود کتاب، فیلم یا موزیک فعالیت میکنند.
در صورتی که الگوریتم دزد دریایی گوگل به سایت شما حمله کند، میتوانید با حذف محتوای کپی شده و جایگزینی با محتوای یونیک و باکیفیت میتوانید از گوگل درخواست کنید بار دیگر سایت شما را بررسی کند.
الگوریتم EMD (Exact Match Domain) در سال 2012
الگوریتم EMD یا Exact Match Domain، یکی از الگوریتمهای موتور جستجوی گوگل است که به بررسی دامنههای با مطابقت دقیق (Exact Match Domains) میپردازد. در این الگوریتم، صفحاتی که دارای دامنههایی است که با کلمات کلیدی همان صفحه مطابقت دارند، مورد بررسی قرار میگیرند.
دامین دقیق مطابق، دامینی است که شامل کلیدواژههای دقیقاً همانند کوئری جستجویی است. برای مثال، اگر کسب و کار شما مربوط به خرید و فروش موبایل باشد و دامین شما “mobiletrader.com” باشد، این دامین یک دامین دقیق مطابق است.
در واقع، هدف اصلی این الگوریتم، جلوگیری از ارائه نتایج نامناسب و ضعیف به کاربران است. بهعنوان مثال، در صورتی که یک شرکت با دامنهی exact match به نام bestshoes.com فعالیت میکند ولی به محتوای بیارتباطی با کلمات کلیدی خود پرداخته است، الگوریتم EMD میتواند آن را به عنوان یک سایت نامناسب و با کیفیت پایین در نظر بگیرد.
بهطور کلی، الگوریتم EMD با توجه به دامنههای با مطابقت دقیق، بررسی میکند که آیا این دامنهها به عنوان یک منبع معتبر و با کیفیت در نظر گرفته شوند یا خیر. در نتیجه، سایتهایی که از دامنههای exact match استفاده میکنند، باید به محتوای با کیفیت و مرتبط با کلمات کلیدی خود توجه کنند تا در نتیجهی جستجوهای گوگل قرار بگیرند.
سایتهایی که محتوای بیکیفیت تولید میکنند و قادر نیستند که نیاز مخاطبان خود را برطرف کنند و ارزشی برای آنها خلق نمیکنند، بیشتر از سایر سایتها در معرض درگیری با این الگوریتم هستند.
الگوریتم Page Layout (Top Heavy Algorithm) در سال 2012
الگوریتم Page Layout یا الگوریتم Top Heavy به معنای “طرح بندی صفحه”، یکی از الگوریتمهای موتور جستجوی گوگل است که به بررسی وضعیت ترازبندی المانهای صفحات وب و بارگذاری سریع صفحات توسط مرورگرهای کاربران میپردازد. گوگل قصد داشت جلوی سایتهایی که تعداد زیادی تبلیغ را در بالای صفحات سایت خود قرار میدهند را بگیرد.
با توجه به این الگوریتم، گوگل اولویت بیشتری به صفحاتی میدهد که المانهای مهمی مانند محتوا، عکس، ویدئو و تبلیغات را در بخشهای قابل مشاهده و ظاهری قرار دادهاند و همچنین صفحاتی که به سرعت بارگذاری میشوند و کاربران به راحتی میتوانند به آنها دسترسی پیدا کنند.
در واقع، الگوریتم Page Layout به ترتیب اهمیت، ابتدا صفحاتی که به صورت معقول طراحی شدهاند و سپس صفحاتی که به دلیل استفاده از تبلیغات بیش از حد، بارگذاری با سرعت پایین و کیفیت کمتری دارند، را در نتایج جستجو قرار میدهد.
بنابراین، برای بهبود رتبهبندی صفحات خود در موتور جستجوی گوگل با الگوریتم Page Layout، میتوانید به تعداد تبلیغات و مکان قرارگیری آنها توجه کنید و همچنین به بهینهسازی تصاویر و محتوای مهم صفحه و بهینهسازی سرعت بارگذاری آن توجه کنید.
هر کاربری حق دارد تجربهی خوبی از بازدید سایت شما داشته باشد، پس برای این که جریمههای الگوریتم پیج لایوت گریبان سایت شما را نگیرد، اعتدال را رعایت کنید.
تبلیغ خوب است اما به اندازهی کافی و در مکان مناسب! پس در هر صفحه فقط یک یا دو تبلیغ قرار بدهید، جوری که برای مخاطب آلودگی دیداری ایجاد نکند. حواستان باشد کاربر حق دارد نخواهد تبلیغ شما را ببیند بنابراین با اضافه کردن گزینهی بستن تبلیغات این حق را به او بدهید. مطمئن باشید ساختن یک تجربهی خوب برای کاربر به نسبت پولهایی که بابت تبلیغات بیش از حد دریافت میکنید، سرمایهی بیشتر و ارزشمندتری برای وبسایت شما ایجاد خواهد کرد.
الگوریتم گورخر (Zebra Algorithm) در سال 2013
جالب است بدانید که گوگل علاقه زیادی به حیوانات سیاه و سفید دارد. گوگل، این موضوع را در هنگام انتخاب الگوریتم پاندا، پنگوئن و گورخر ثابت کرد.
زمانیکه یکی از نمایندگان گوگل به یک فروشگاه اینترنتی عینک در رتبه یک گوگل مراجعه کرد، متوجه شد سایت هیچ شباهتی با یک فروشگاه اینترنتی ندارد. مدتی بعد الگوریتم گورخر جهت بررسی فروشگاه های اینترنتی معرفی شد. در صورتی که سایت های فروشگاهی کیفیت پایینی داشته باشند و فاکتورهای لازم را نداشته باشد، کاهش رتبه می یابند.
گورخر، هشدار بسیار مناسبی برای سایتهای فروشگاهی بود که بدون توجه به کاربر و نیاز آن فعالیت میکردند و خدمات بیکیفیتی را ارائه میدادند.
گوگل می خواهد اطمینان حاصل کند که همه کاربران هنگام مراجعه به یک وب سایت فروشگاه اینترنتی بهترین حس خرید را تجربه می کنند. برخی از فاکتورهایی که الگوریتم گورخر مورد بررسی قرار می دهد به شرح زیر است:
1 . ایجاد سبد خرید
2 . ایجاد درگاه پرداخت مشتری
3 . ایجاد حساب کاربری
4 . ساخت صفحه سوالات متداول
5 . نمایش نظر کاربران
6 . امکان ثبت نام کاربران در سایت
7 . داشتن سایت ریسپانسیو
8 . امکان مقایسه محصولات
9 . قرار دادن قیمت کالاها
10 . قرار دادن آدرس و شماره تماس فیزیکی
11 . داشتن گواهینامه ssl
12 . درج مشخصات محصول
13 . امکان رهگیری محصولات خریداری شده توسط مشتری
الگوریتم مرغ مگس خوار (Hummingbird Algorithm) – سال 2013
الگوریتم مرغ مگسخوار یا Hummingbird، یکی از الگوریتمهای جستجوی گوگل است که در سال 2013 معرفی شد. این الگوریتم به نوعی یک الگوریتم جستجوی ترکیبی است که با استفاده از هوش مصنوعی، بهترین پاسخ را به سؤالات پرسیده شده توسط کاربران در گوگل جستجو میدهد.
هدف از ایجاد الگوریتم Hummingbird، بهبود دقت جستجو و فهم بهتر مفهوم سؤالات کاربران بوده است. این الگوریتم با استفاده از تحلیل کلمات کلیدی، تحلیل مفهوم کلی سؤال و همچنین محتوای صفحات وب، بهترین پاسخ ممکن را برای هر کوئری در گوگل جستجو میدهد.
الگوریتم Hummingbird تمرکز خود را بر روی بلندمدت کردن کیفیت جستجوها و بهبود تجربه کاربری کاربران گوگل قرار داده است. برای مثال، این الگوریتم بهترین پاسخ را برای یک سؤال که چندین جنبه مختلف دارد، ارائه میدهد. به علاوه، این الگوریتم به جای تمرکز بر روی کلمات کلیدی، به دنبال فهم مفهوم کلی سؤال است و برای پاسخ به سؤالات به یک نمایش کلیتر و شفافتر نسبت به الگوریتمهای قبلی، میرسد.
گوگل الگوریتم مرغ مگس خوار را برای سرچ صوتی (voice-search) پایهگذاری کرد و حالا هرچه زمان میگذرد و دستگاهها بیشتر به تایپ صوتی مجهز میشوند اهمیت بیشتری مییابد. بر همین اساس، مرغ مگس خوار به کل عبارت سرچ شده توجه میکند نه تکتک کلمات. چراکه ممکن است به دلایلی چون اشتباهات تایپی و… عبارتی سرچ شود که در واقع منظور کاربر نباشد. اما گوگل به کمک این الگوریتم میتواند نتایجی را ارائه دهد که با وجود اشتباه تایپی با آنچه در ذهن کاربر بوده تطابق داشته باشد.
۴ نکته تاثیرگذار برای گرفتن امتیاز از الگوریتم مرغ مگسخوار گوگل
- بهینه کردن کلمات کلیدی: باید بدانید که در این بخش شما نباید محتوای خود را اشباع از کلمات کلیدی کنید چراکه میتوانید به جای استفاده مکرر از یک کلمه از عبارت های ترکیبی و کلمه های هم معنی استفاده کنید.
- انکر تکست را با استفاده از کلمههای کلیدی بهینهسازی کنید: میتوانید این کار را با به کارگیری کلمه های کلیدی به انجام برسانید. انکر تکست ها کلمه های مهمی میباشند که در بخش هایی از متن شما واقع شده و هر یک از آن ها کاربرد هایی را در صفحه های دیگر سایت شما یا سایت دیگران ایفا میکنند و در رتبه بندی و سئو وب سایت شما نیز تاثیر بسزایی دارند.
- تولید کردن محتواهای متفاوت: به یاد داشته باشید که دادن اطلاعات مفید به کاربران برای گوگل بسیار حائز اهمیت است. داشتن چنین ویژگی هایی میتواند شما را از دیگر رقبا متمایز کند، هر یک از این محتواها را در اندازه های متفاوت به تولید برسانید تا هر یک از کاربران با خواندن آنها به اهداف خود برسند.
- از تصاویر بهره بگیرید: افزودن یک محتوای تصویری باعث افزایش کارایی و کیفیت مطلب شما میشود .
الگوریتم Payday Loan در سال 2103
الگوریتم Payday Loan گوگل، یکی از الگوریتمهای امنیتی گوگل بود که در سال 2013 معرفی شد و به صورت مستقل از الگوریتم پاندا و الگوریتم پنگوئن شروع به کار کرد. هدف آن مبارزه با سایتهای مرتبط با شرط بندی، قمار و … در محتواهای سایت استفاده می کنند.
اتفاق افتاده است که کلمه کلیدی را جستجو کردید و وارد سایتی شدید اما محتوای مورد نظر را پیدا نکردید. یک سری سایت هایی هستند که کلمات کلیدی پرکاربرد را برای سایت خود و صفحات آن استفاده می کنند تا جستجو ها را از آن خود کنند. این الگوریتم با این سیستم مبارزه می کند.
الگوریتم Payday Loan به منظور کاهش تعداد سایتهایی که به صورت غیرقانونی اقدام به پیشنهاد وام پرداخت روزانه میکردند، طراحی شد. با اجرای این الگوریتم، سایتهایی که مرتبط با وامهای روز پرداخت هستند و شامل محتوای بدون ارزش و نامناسب هستند، از نمایش در نتایج جستجوی گوگل حذف میشوند و این کار منجر به بهبود کیفیت نتایج جستجوی کاربران گوگل شد.
الگوریتم کبوتر (Pigeon Algorithm) در سال 2014
الگوریتم کبوتر (Pigeon)، یکی از الگوریتمهای جستجوی محلی گوگل است که در تابستان سال 2014 معرفی شد. هدف این الگوریتم، بهبود دقت و کیفیت نتایج جستجوی محلی در گوگل بود. الگوریتم کبوتر در واقع یک بهبود بزرگ برای الگوریتمهای جستجوی محلی قبلی گوگل بود که به کاربران اجازه میداد تا به راحتی نزدیکترین کسب و کارهای مرتبط با جستجویشان را پیدا کنند.
برای بهبود دقت نتایج جستجوی محلی، الگوریتم کبوتر از مجموعهای از اطلاعات محلی و جغرافیایی مانند موقعیت جغرافیایی، فاصله و نزدیکی به مناطق خاص، دسته بندیهای جغرافیایی و نحوه جستجوی کاربران استفاده میکند. با این اطلاعات، الگوریتم کبوتر، به کاربران کمک میکند تا بهترین و مرتبطترین نتایج جستجوی محلی را برای خودشان پیدا کنند.
با معرفی الگوریتم کبوتر، گوگل تلاش کرد تا نتایج جستجوی محلی خود را بهبود دهد و به کاربران بهترین تجربه جستجوی محلی را ارائه دهد. با این حال، تغییراتی که الگوریتم کبوتر در نتایج جستجوی محلی ایجاد کرد، در برخی صنایع و کسب و کارهای محلی تاثیر بزرگی داشت. به طور کلی، کسب و کارهایی که به موقعیت مکانی دقیق و جزئیات جغرافیایی خود توجه میکردند، بهتر در نتایج جستجوی محلی گوگل عمل کردند.
این الگوریتم هم مانند الگوریتم ونیز بر سئو محلی تمرکز دارد با این تفاوت که علاوه بر این که بر صفحات نتایج اثرگذار است بر نقشه گوگل نیز توجه ویژهای داشته است و منجر به توانایی گوگل در ارائه نتایج نزدیک به کاربران شده است.
هدف این بهروزرسانی، ارتقای رتبه وبسایتهای کسبوکارهای محلی با جستجوی طبیعی (ارگانیک) زیاد و نمایش بهتر آنها در صفحه نتایج بود.
الگوریتم کبوتر هنگام جستجو، موقعیت مکانی کاربر را نیز در نظر میگیرد و به کاربران این امکان را میدهد که از جستجوی گوگل درست مانند جستجو در سرویس «گوگل مپ یا نقشه گوگل» (Google Maps) استفاده کنند.
بنابراین وقتی شما دنبال یک فروشگاه یا رستوران میگردید از نظر کبوتر گوگل، اولویت با مکانهاییست که در نزدیکی شما هستند.
با الگوریتم کبوتر، گوگل هر چه بیشتر به سمت خاص و منحصر به فرد کردن صفحهی نتایج جست و جو پیش میرود.
ما در یک مقاله دیگر به صورت مفصل در مورد ثبت مکان در گوگل مپ توضیح دادهایم. در صورتی که قصد ثبت آدرس کسب و کار خود را دارید این مقاله قطعا برای شما مفید خواهد بود.
الگوریتم کبوتر گوگل، نقش مهمی بر سئو محلی و مکان کاربر دارد. بهتر است با یک مثال خوشمزه شما را مجاب کنم. من در گوگل جمله “رستوران های نزدیک به من” را سرچ کردم و در مقابل تمام رستوران های نزدیک به محل زندگی خودم را پیدا کردم و این نتیجه اندیشه های ماورایی گوگل است. الگوریتم کبوتر گوگل، بر اساس موقعیت و لوکیشن شما، در دسترسی و سهولت به سوالات شما کمک می کند. الگوریتم کبوتر گوگل، هم چون شخصی آزاد بدون منت به کاربر خود کمک می کند.
الگوریتم موبایل گدون (Mobilegeddon Algorithm) در سال 2015
الگوریتم Mobilegeddon یا همان “موبایلقدرتمند” یک الگوریتم جستجوی گوگل بود که در ۲۱ آوریل ۲۰۱۵ عرضه شد. این الگوریتم با هدف بهبود تجربه کاربری کاربران موبایل، سایتهایی را که به طور مطلوبی به تلفن همراه و تبلت سازگار نبودند، مجازات میداد.
با اجرای این الگوریتم، سایتهایی که به طور مطلوبی به دستگاههای موبایل سازگار نبودند، در رتبهبندی جستجوی گوگل کاهش قابل توجهی پیدا کردند و برخی از آنها حتی به صفحات بعدی نتایج جستجو منتقل شدند.
در واقع، با اجرای این الگوریتم، گوگل به دنبال بهبود تجربه کاربری کاربران موبایل بود و سایتهایی که به طور مطلوبی به دستگاههای موبایل سازگار نبودند، در رتبهبندی جستجوی گوگل کاهش پیدا کردند.
به دلیل افزایش تعداد کاربران موبایل، گوگل برای سایت هایی که دارای صفحاتی اندازه و مناسب موبایل بودند، امتیاژ ویژه ای درنظر گرفت.
این سایتها را اصطلاحاً mobile friendly مینامیم. هدف این الگوریتم ارتباط راحت و دسترسی سریع کاربران با وب سایت شما از طریق پلتفرم موبایل است. موبایل فرندلی بودن فاکتوری است که در حال حاضر اهمیت بالاتری برای گوگل نسبت به نسخه دسکتاپ دارد. برای اینکه سایتتان در این دسته از سایت ها قرار نگیرد باید این امکانات را فراهم نمایید:
- تعیین اندازه متن ها بهطوریکه خوانا بوده و نیازی به بزرگ نمایی نداشته باشند.
- قرار دادن لینک هایی در صفحه های وب سایت خود که کاربران به راحتی بتوانند به آن ها دسترسی داشته باشند.
- استفاده نکردن از فایل ها یا ابزار هایی همچون فلش که برای موبایل ها و تبلت ها کاربرد ندارد.
- سایت شما باید دارای طراحی واکنش گرا یا اصطلاحاً ریسپانسیو باشد و قابلیت نمایش در هرگونه دستگاهی اعم از موبایل، کامپیوتر، تبلت و … را داشته باشد.
- ربات گوگل باید قابلیت دسترسی صد درصدی به فایل های css و js شما داشته باشد.
الگوریتم رنک برین (Rank Brain Algorithm) در سال 2015
به گفته گوگل، رنک برین سومین سیگنال مهم در رتبهبندی است. الگوریتمRankBrain گوگل را می توان بخشی از الگوریتم Hummingbird Google دانست.
الگوریتم RankBrain یکی از الگوریتمهای مهم موتور جستجوی گوگل است که در سال 2015 معرفی شد. این الگوریتم از هوش مصنوعی و یادگیری عمیق استفاده می کند تا درک بهتری از مفهوم پشت پرسش کاربران و جستجوهای آنها داشته باشد.
به عبارت ساده، RankBrain به گوگل کمک می کند تا با استفاده از یادگیری ماشینی، بهترین نتایج جستجو را برای کاربران پیدا کند. این الگوریتم با تحلیل ساختار پرسش کاربران و ترجیحات آنها، بهترین صفحات وب را برای نمایش در نتایج جستجو پیدا می کند.
RankBrain علاوه بر تحلیل کلمات کلیدی، به دنبال معنای پشت پرسش کاربر است و با توجه به این معنا، بهترین صفحات را برای نمایش در نتایج جستجو انتخاب می کند. این الگوریتم همچنین می تواند بازخورد کاربران را در نظر بگیرد و با توجه به پاسخهای کاربران به نتایج جستجو، بهترین نتایج را ارائه دهد.
با این حال، RankBrain تنها یکی از بخش هایی از الگوریتم کلی گوگل است و عوامل دیگری نیز مانند کیفیت محتوا، ارتباطات وب، سئو و بیشتر، بر روی رتبه بندی سایت ها در نتایج جستجو تأثیر می گذارند.
- محتواهای بی کیفیت
- سایت با ux ضعیف
تا قبل از سال 2015 اگر می خواستید جایی برای غذا خوردن پیدا کنید، باید عبارتی مانند “رستوران های محدوده تهران پارس” را جستجو می کردید، تا شاید بتوانید آدرس رستوران های این منطقه را بیابید. اما امروزه اگر فقط عبارت “کجا باید ناهار بخورم؟” را در گوگل سرچ کنید، می توانید یک رستوران خوب در نزدیکی موقعیت خود پیدا کنید.
شاید جذابترین الگوریتم گوگل، الگوریتم رنک برین (Rank Brain) باشد. الگوریتمی که تا حدی رفتاری مشابه با الگوریتم مرغ مگسخوار دارد و هر بار که شما عبارتی را سرچ میکنید، مانند مرغ مگسخوار به دنبال مفهوم پشت عبارت میگردد اما به شکل گستردهتر و کاملتر! الگوریتم رنک برین مثل یک انسان رفتار میکند و از تجربیات گذشته برای رشد استفاده میکند و میتوان گفت از آن دست انسانهاییست که خیلی به رفتار و قضاوت سایر انسانها اهمیت میدهد و مدام در حال آنالیز رفتارهای کاربران است تا خودش را بر اساس آن تغییر دهد.
چه چیزهایی بر روی الگوریتم رنک برین تاثیر می گذارد؟
1 . نرخ کلیک CTR
2 . نرخ پرش Bounce Rate
3 . مدت زمان ماندگاری کاربر روی سایت
4 . اندازه گیری رفت و برگشت های کاربر
الگوریتم موبایل فرست ایندکس
الگوریتم موبایل فرست ایندکس (Mobile-First Indexing) یکی از الگوریتمهای جستجوی گوگل برای رتبهبندی صفحات وب است که در سال 2016 معرفی شد. در این الگوریتم، گوگل ابتدا نسخه موبایل یک صفحه وب را برای ایندکس کردن استفاده میکند و سپس ایندکس را برای نسخه دسکتاپ اعمال میکند.
با این که این الگوریتم برای صفحات موبایلی طراحی شده است، اما بر روی رتبهبندی صفحات دسکتاپ نیز تأثیرگذار است. به طور کلی، استفاده از طراحی ریسپانسیو و بهینهسازی صفحات وب برای دستگاههای موبایل میتواند بهبود رتبهبندی صفحات وب در جستجوهای گوگل منجر شود.
دلیل اصلی برای معرفی این الگوریتم، افزایش استفاده از دستگاههای موبایل برای جستجو در گوگل بوده است. با این که صفحات وب در دستگاههای موبایل و دسکتاپ قابل دسترسی هستند، اما نحوه نمایش آنها بسیار متفاوت است. با استفاده از این الگوریتم، گوگل بهتر میتواند صفحات وب را برای نمایش در دستگاههای موبایل بهینه کند و رتبهبندی صفحات را بر اساس این نسخه بهبود بخشد.
الگوریتم موش کور (Possum Algorithm) در سال 2016
در سال 2016 گوگل بعد از الگوریتمهای ونیز و کبوتر، از الگوریتم موش کور رونمایی کرد. الگوریتم موش کور Possum (Possum Algorithm) یکی از الگوریتمهای جستجوگری موتور جستجوی گوگل است که در سپتامبر ۲۰۱۶ معرفی شد. این الگوریتم به منظور بهبود دقت جستجوی لوکال در گوگل و همچنین تصفیه نتایج جستجو برای کسب و کارهای محلی ایجاد شده است.
الگوریتم موش کور Possum به گونهای طراحی شده است که بهترین نتایج جستجو را برای کاربران در نزدیکی فراهم کند. به عنوان مثال، اگر یک کاربر در یک شهر خاص جستجو کند، گوگل سعی میکند که نتایج مرتبط با آن شهر را به نمایش بگذارد. همچنین، این الگوریتم به صورت خودکار تعیین میکند که آیا یک کسب و کار در مرکز شهر یا در حومه واقع شده است و به این ترتیب، نتایج جستجو را تصفیه میکند.
به علاوه، الگوریتم موش کور Possum میتواند تفاوتهایی در نتایج جستجوی محلی برای کاربرانی با موقعیت جغرافیایی متفاوت ایجاد کند. به عنوان مثال، نتایج جستجوی یک کسب و کار محلی برای یک کاربری که در یک منطقه خاصی از شهر واقع شده است، ممکن است با نتایج جستجوی یک کاربری که در منطقه دیگری از همان شهر واقع شده است، تفاوت داشته باشد.
با توجه به اینکه الگوریتم موش کور Possum بهبود جستجوهای محلی در گوگل را به دنبال دارد، بهترین راه برای بهینهسازی وبسایت برای این الگوریتم، ثبت نام در سامانههای محلی مانند Google My Business و ارائه اطلاعات کسب و کار به شکل کامل می پردازد.
الگوریتم فِرد (Fred Algorithm) در سال 2017
در تاریخ 7 مارس 2017 برخی از سایت ها دچار کاهش شدید رتبه بندی و ترافیک شدند. گوگل برای بهبود تجربه کاربری همواره در حال به روزرسانی الگوریتم های خود می باشد. الگوریتم فرد به عنوان مبارزه با تخلفات قوانین گوگل وارد عمل شد و شروع به پاکسازی صفحات مختلف نمود. برخی از فاکتورهایی که الگوریتم فرد مورد بررسی قرار می دهد به صورت زیر است:
- تبلیغات بیشازحد دارند.
- محتواهای کوتاه تولید میکنند.
- کیفیت لینک کمیدارند.
- محتواها کیفیت مطلوبی ندارند.
- تعداد زیادی لینک افیلیت دارند.
- تبلیغات بیش از حد در محتواها به نمایش درمیآورند.
- مخاطبان تعاملی با محتواها برقرار نمیکنند.
الگوریتم مدیک یا طبی (Medic Algorithm) در سال 2018
الگوریتم مدیک همانطور که از نامش پیداست فقط سایت های حوزه پزشکی را مورد بررسی قرار می دهد و در سال 2018 برای همه ی کشورها و همه ی زبانه ها اعمال شد. هدف از معرفی این الگوریتم جلوگیری از دادن اطلاعات اشتباه پزشکی به کاربران است. این تنها الگوریتمی است که فقط یک حوزه را هدف قرار گرفته و تمام تلاش خود را می کند تا بهترین نتایج را در اختیار کاربران قرار دهد. به طور کلی، متخصصان سئو معتقدند که الگوریتم مدیک، بهروزرسانی دیگری با هدف حل مشکلات محتوایی مانند محتوای بیکیفیت و کپی، سرعت بارگذاری کم، تگهای عنوان غیردقیق و تجربه کاربری بد بوده است.
الگوریتم برت (BERT Algorithm) در سال 2018
نام الگوریتم برت مخفف شدهی عبارت Bidirectional Encoder Representations from Transformers به معنی «رمزگذار دوطرفه نمایش داده شده از مبدلها» است. الگوریتم برت نیز مانند الگوریتم رنک برین برای درک بهتر زبان جستجوی کاربران معرفی شد. این الگوریتم جایگزین رنک برین نشد و در کنار آن به درک هدف جستجو کاربران یا درک زبان انسان ها کمک می کند. BERT به عنوان یکی از مهمترین بهروزرسانیهای الگوریتم گوگل شناخته میشود. به طور کلی، الگوریتم BERT به کاربران گوگل کمک میکند که اطلاعات مفید و دقیقی بیابند. این بهروزرسانی به گوگل این امکان را میدهد که نشانههای بیشتری از عبارات جستجو شده را درک کند و فقط به استفاده از کلمههای ربط یا طرز نوشته شدن عبارت برای فهم پرسشها تکیه نکند. همچنین، الگوریتم BERT در بیش از بیست زبان دنیا به بخش اسنیپتهای شاخص اضافه شده است.
الگوریتم YMYL در سال 2018
الگوریتم YMYL گوگل (Your Money or Your Life) یکی از الگوریتمهای جستجوی گوگل است که در سال 2018 معرفی شده است. این الگوریتم به خصوص برای رتبهبندی صفحات وبی که با محتوای پزشکی، مالی، حقوقی، شخصی و دیگر موضوعات مشابه مرتبط هستند، طراحی شده است.
در واقع، این الگوریتم به صفحات وبی که بازدیدکنندگان در آنها ممکن است با مشکلات مرتبط با سلامتی، امور مالی و حقوقی، و سایر موضوعات مرتبط روبرو شوند، توجه میکند. برای مثال، صفحاتی که شامل محتوای پزشکی در مورد بیماریها، درمانها و سایر موضوعات مشابه هستند، از دسته صفحات YMYL گوگل هستند.
با توجه به این که محتوای صفحات YMYL میتواند تأثیر گذار بر سلامت و امنیت کاربران باشد، گوگل از معیارهای بسیار دقیقی برای ارزیابی صحت و قابل اعتماد بودن این صفحات استفاده میکند. به عنوان مثال، گوگل به دنبال محتوای کیفی، منبع معتبر و اثباتپذیر، حضور تخصصی در صفحات وب YMYL، سابقه ارائه محتوای قابل اعتماد و دیگر معیارهای مرتبط است.
برای بهینهسازی صفحات YMYL برای الگوریتم گوگل، بهتر است محتوای صفحات را با توجه به موضوع مرتبط، کیفی و قابل اعتماد به روز رسانی کرد و از منابع قابل اطمینان استفاده کرد.
الگوریتم E-A-T در سال 2019
E-A-T یکی از الگوریتمهای مهم جستجوی گوگل است که در سال 2019 معرفی شد. این الگوریتم به کیفیت صفحات وب مرتبط با محتوای پزشکی، مالی، حقوقی و سایر موضوعات مشابه توجه میکند. الگوریتم E-A-T مخفف Expertise، Authority و Trustworthiness است و بر روی سه معیار اساسی تخصص، اعتبار و قابل اعتماد بودن تمرکز دارد. این الگوریتم به دنبال تأیید و اعتماد کاربران به محتوای صفحات وب است. در این الگوریتم باید به موارد زیر توجه کنید:
1 . تخصص: صفحات وب باید از نظر محتوایی تخصصی باشند و بهترین ممکن برای بررسی محتوا توسط افراد متخصص باشند.
2 . اعتبار: صفحات وب باید اعتبار بالایی داشته باشند. برای این منظور، باید محتوای ارائه شده روی صفحات وب، از منابع معتبر و مورد تأیید استفاده کنید.
3 . قابل اعتماد بودن: صفحات وب باید به نحوی طراحی شوند که کاربران مطمئن باشند اطلاعات درج شده در آنها قابل اطمینان و درست است. به عنوان مثال، صفحات وب باید شامل جزئیات تماس، صفحات درباره ما و شرایط استفاده باشند.
به طور کلی، بهبود تخصص، اعتبار و قابل اعتماد بودن صفحات وب با توجه به E-A-T الگوریتم گوگل، میتواند در بهبود رتبهبندی سایت و جذب ترافیک مطمئن و بهتر کاربران، موثر باشد.
الگوریتم MUM (Multitasking United Model Algorithm) در سال 2021
MUM مخفف عبارت Multitask Unified Model یکی از الگوریتمهای جدید گوگل است که در سال ۲۰۲۱ معرفی شده است. این الگوریتم با استفاده از تکنولوژی های هوش مصنوعی پیشرفته، قابلیت پردازش زبان طبیعی را به صورت چند زبانه (Multilingual) و چندمنظوره (Multimodal) فراهم میکند.
این الگوریتم همانطور که از نامش پیداست، میتواند چند کار را با هم انجام دهد و از آن برای بهبود نتایج جستجو، جستجوی صوتی و تصویری، ترجمه، پرسش و پاسخ، مقایسه محصولات و بسیاری از انواع جستجوهای مختلف در گوگل استفاده میشود. برخلاف سایر الگوریتمها که تسکها را یکی پس از دیگری انجام میدادند، الگوریتم MUM چندین کار را باهم انجام میدهد. با استفاده از MUM، کاربران میتوانند به سرعت و با دقت بیشتر، به محتوای مناسب خود دسترسی پیدا کنند.
از ویژگیهای MUM میتوان به توانایی فهم جملات و ارائه پاسخهای دقیق و کامل به سؤالات پیچیده، توانایی بررسی اطلاعات در صورت عدم وجود اطلاعات کافی در سایتها، توانایی پردازش تصاویر و ویدئوها در بسیاری از زبانها و توانایی نمایش مقایسه محصولات در جستجوها اشاره کرد.
از آنجا که MUM یک الگوریتم جدید است و در حال توسعه است، تأثیر آن در بهبود نتایج جستجو هنوز مشخص نیست. با این حال، بهبود توانایی جستجو در گوگل و افزایش دقت و سرعت آن با استفاده از MUM انتظار میرود.