درس دوم

اشتراک گذاری

الگوریتم گوگل چیست؟ معرفی ۲۲ الگوریتم‌ گوگل

الگوریتم گوگل چیست؟

گوگل به عنوان یکی از مطرح‌ترین موتورهای جستجو که هدف اصلی آن جلب رضایت کاربران است، الگوریتم‌های مختلفی دارد که وظیفه اصلی آنها بهینه‌سازی نتایج گوگل است. هر یک از این الگوریتم‌ها برای هدف خاصی طراحی شده‌اند، اما در کل، هدف همه آنها ارائه مرتبط‌ترین و مفیدترین وبسایت‌ها به کاربرانی است که در جستجوی اطلاعات، محصولات یا خدمات آنلاین هستند.

با درک نحوه عملکرد الگوریتم، کسب و کارهای اینترنتی می‌توانند تغییرات لازم را در سایت‌های خود ایجاد کنند تا رتبه سایت را در صفحه نتایج جستجوی گوگل بهبود بخشند و ترافیک سایت و مشتریان بالقوه آنها افزایش یابند. در ادامه به اهمیت الگوریتم گوگل  و معرفی کامل آنها پرداخته‌ایم:

آنچه در این مقاله می‌خوانیم:

الگوریتم گوگل چیست؟

الگوریتم‌ گوگل مجموعه پیچیده‌ای از قوانین و فرآیندهایی است که برای بازیابی داده‌ها از فهرست جستجو و ارائه فوری بهترین نتایج ممکن برای یک عبارت جستجو شده استفاده می‌شود. موتور جستجو از ترکیبی از الگوریتم‌ها و فاکتورهای رتبه‌بندی متعدد برای تعیین ارتباط و رتبه‌بندی صفحات سایت در صفحات نتایج موتورهای جستجو (SERP) استفاده می‌کند.

الگوریتم گوگل هنگام رتبه‌بندی صفحات وب فاکتورهای مختلفی از جمله کلمات کلیدی، بک‌لینک‌ها، سرعت بارگذاری صفحه، سازگاری با موبایل، کیفیت محتوا، تجربه‌کاربری و موارد دیگر را در نظر می‌گیرد. با تجزیه و تحلیل و ارزیابی این عوامل، گوگل تعیین می‌کند که کدام صفحات وب مرتبط‌ترین و معتبرترین برای یک عبارت جستجو شده معین هستند و آنها را در SERPها به ترتیب مرتبط بودن و مفید بودنشان نمایش می‌دهد.

الگوریتم گوگل چه اهمیتی دارد؟

هدف اصلی گوگل ارائه دقیق‌ترین و مفیدترین نتایج جستجو به کاربر است و  الگوریتم گوگل نقش مهمی در ارائه محتوای با کیفیت به کاربران در صفحه نتایج جستجو دارد. این امر گوگل را به محبوب‌ترین موتور جستجو در جهان تبدیل کرده است و کسب و کارها و سایت‌ها را قادر می‌سازد تا با بهینه‌سازی محتوای سایت خود و رعایت بهترین اصول سئو به مخاطبان بیشتری دست یابند. برخی از دلایل اهمیت الگوریتم گوگل موارد زیر است:

۱.نتایج جستجوی مرتبط: هدف اصلی الگوریتم گوگل ارائه مرتبط‌ترین و مفیدترین نتایج جستجوی کاربران براساس درخواست آنها است. به این معنی که وقتی از گوگل برای جستجوی اطلاعات، محصولات یا خدمات استفاده می‌کنید، به احتمال زیاد آنچه را که به دنبالش هستید سریع و آسان پیدا می‌کنید.

۲.تجربه کاربری بهتر: الگوریتم گوگل عوامل مختلفی را که بر تجربه کاربر تأثیر می‌گذارند در نظر می‌گیرد، مانند سرعت بارگذاری صفحه، سازگاری با موبایل و کیفیت محتوا. با رتبه‌بندی صفحات وب بر اساس این عوامل، گوگل تضمین می‌کند که کاربران در هنگام مرور وب تجربه مثبتی دارند.

۳.رقابت منصفانه: الگوریتم گوگل شرایط را برای کسب و کارها و سایت‌هایی که می‌خواهند در SERP رتبه خوبی داشته باشند، فراهم می‌کند. با ارزیابی سایت‌ها بر اساس عوامل مختلف، از جمله ارتباط و اعتبار، گوگل تضمین می‌کند که بهترین محتوا بدون توجه به اندازه یا بودجه وبسایت، به رتبه‌های بالاتری دست می‌یابد.

۴.محتوای با کیفیت: الگوریتم گوگل ارزش بالایی برای محتوایی قائل است که ارزشی را برای کاربران ایجاد می‌کند. به این معنی که سایت‌هایی که برای تولید محتوای با کیفیت بالا سرمایه‌گذاری می‌کنند، احتمالاً در رتبه‌بندی SERP قرار می‌گیرند، که باعث ایجاد محتوای با کیفیت بیشتر در سراسر وب می‌شود.

معرفی الگوریتم‌های گوگل

توجه به این نکته ضروری است که الگوریتم‌های گوگل دائما در حال تغییر و تحول هستند. گوگل چندین بار در سال الگوریتم خود را به روز می‌کند و این به‌روزرسانی‌ها ممکن است تاثیر قابل توجهی بر رتبه سایت داشته باشند. برخی به‌روزرسانی‌ها ممکن است فاکتورهای رتبه‌بندی جدیدی را معرفی کنند یا وزن جدیدی برای فاکتورهای موجود در نظر بگیرند، یا ممکن است انواع خاصی از سایت‌ها یا اقداماتی را که هرزنامه یا اسپم تلقی می‌شوند هدف قرار دهند. در ادامه به معرفی این الگوریتم‌ها پرداخته‌ایم:

الگوریتم پاندا(Panda Algorithm)

الگوریتم پاندا

الگوریتم پاندا تلاش گوگل برای حذف تکنیک‌های سئو کلاه سیاه و هرزنامه‌ها است. هدف اصلی این الگوریتم بررسی کیفیت محتوا، کاهش رتبه سایت‌هایی که محتوای بی‌کیفیت دارند و شناسایی میزان رضایت کاربران از متن قرار گرفته در صفحه است. براساس این الگوریتم سایت‌هایی که ارزش پایینی برای کاربران دارند، محتوای سایت‌های دیگر را کپی می‌کنند یا سایت‌هایی که خیلی مفید نیستند، رتبه آنها در نتایج گوگل کاهش می‌یابد. بنابراین بهتر است از محتوای یونیک استفاده کنید و حجم مناسبی از نظر تعداد کلمات و لینک را در سایت خود لحاظ کنید.


الگوریتم پاندا بر اساس عواملی مانند میزان و کیفیت محتوا، تجربه کاربر، سرعت صفحه و قدرت کلی وبسایت، امتیاز کیفیت را به صفحات وب اختصاص می‌دهد. صفحاتی که محتوای کم کیفیت، محتوای تکراری یا تبلیغات بیش از حد دارند، کیفیت پایین‌تری دارند و ممکن است از نتایج جستجو رتبه پایین‌تری به دست آورند یا حذف شوند.

الگوریتم پنگوئن(Penguin Algorithm)

الگوریتم پنگوئن

الگوریتم پنگوئن به‌روزرسانی الگوریتم جستجوی گوگل است که بر شناسایی و جریمه کردن سایت‌هایی تمرکز دارد که به ساخت بک‌لینک‌های اسپم یا سایر روش‌های دست‌کاری برای افزایش غیرطبیعی رتبه خود در صفحات نتایج جستجو  اقدام می‌کنند. این شیوه‌ها شامل خرید لینک، شرکت در مزارع لینک یا استفاده از ابزارهای لینک‌سازی خودکار است. سایت‌هایی که از این شیوه‌ها استفاده می‌کنند ممکن است توسط اگوریتم پنگوئن جریمه شوند، که منجر به کاهش رتبه‌ سایت یا حتی حذف از صفحه نتایج جستجو می‌شود.

هدف الگوریتم پنگوئن بهبود کیفیت نتایج جستجو با تبلیغ سایت‌هایی است که از شیوه‌های سئو کلاه سفید استفاده می‌کنند. این الگوریتم  صاحبان سایت را تشویق می‌کند تا بر ایجاد پیوندهای با کیفیت بالا و مرتبط از طریق روش‌های طبیعی، مانند ایجاد محتوای ارزشمند و تعامل با مخاطبان خود تمرکز کنند.

الگوریتم تازگی محتوا(Freshness Algorithm)

الگوریتم تازگی محتوا

تازگی محتوا یک الگوریتم خاص مورد استفاده گوگل نیست، بلکه مفهومی است که به اهمیت به روز و مرتبط نگه داشتن محتوای سایت اشاره دارد. در حالی که گوگل از الگوریتم‌های مختلفی برای تعیین رتبه‌بندی جستجو استفاده می‌کند، تازگی محتوا عاملی است که در برخی موارد می‌تواند بر رتبه‌بندی جستجو تأثیر بگذارد.

به طور کلی، موتورهای جستجو محتوای تازه و مرتبط را بر محتوای قدیمی ترجیح می‌دهند. سایت‌هایی که اطلاعات جدید و مفید به کاربران خود ارائه می‌دهند احتمالاً در نتایج جستجو رتبه خوبی دارند. از سوی دیگر، سایت‌هایی که  محتوای قدیمی دارند ممکن است در رتبه‌بندی جستجو جریمه شوند.


الگوریتم‌های گوگل هنگام ارزیابی تازگی محتوا، عوامل مختلفی از جمله تعداد دفعات به‌روزرسانی، نوع محتوا و ارتباط بروز رسانی‌ها با موضوع کلی سایت را در نظر می‌گیرند. به عنوان مثال، وبسایت‌های خبری که اخبار روز را پوشش می‌دهند، معمولاً باید محتوای خود را بیشتر از وبلاگی که بر یک موضوع خاص متمرکز است، به‌روزرسانی انجام دهند.

الگوریتم رقص گوگل(Google Dance Algorithm)

الگوریتم رقص گوگل

رقص گوگل اصطلاحی است مربوط به زمانی که گوگل در طی چند روز، رتبه صفحات را در صفحات نتایج جستجوی گوگل جابجا می‌کند تا رفتار کاربران را نسبت به آن بسنجد. رقص گوگل اغلب مربوط به سایت‌ها و صفحات جدید است. این تغییرات ناگهانی برای بررسی نحوه واکنش کاربران به یک سایت انجام می‌شود. اگر CTR، میانگین زمان صرف شده در یک سایت بالا و نرخ پرش پایین باشد، سایت رتبه خوبی به دست می‌آورد. در این روش گوگل سعی می‌کند سایت‌ها را به درستی ارزیابی و رتبه‌بندی کند.

الگوریتم فِرِد(Fred Algorithm)

الگوریتم فِرِد

گوگل فرد یک نام غیر رسمی است که به یک به‌روزرسانی الگوریتم اصلی که گوگل در مارس ۲۰۱۷ منتشر کرد داده شده است. نام رسمی این به‌روزرسانی توسط گوگل فاش نشده است، اما به طور گسترده اعتقاد بر این است که مربوط به بهبود کیفیت محتوا در وبسایت‌ها بوده است.

به‌روزرسانی الگوریتم فرد وبسایت‌هایی را هدف قرار می‌دهد که به نظر می‌رسید محتوای با کیفیت پایینی دارند، به ویژه آنهایی که برای ایجاد درآمد به تبلیغات یا افیلیت مارکتینگ متکی بودند. چنین سایت‌هایی اغلب محتوای مفید کمی داشتند و در درجه اول برای هدایت ترافیک به سایت‌های دیگر طراحی شده بودند. به‌روزرسانی الگوریتم فِرد باعث کاهش قابل توجهی در رتبه‌بندی و ترافیک بسیاری از سایت‌هایی شد که تحت تأثیر قرار گرفتند.

این الگوریتم در کنار الگوریتم E-A-T قصد دارد نتایج باکیفیت‌تری را در اختیار کاربران قرار دهد. در اصل الگوریتم فِرد به سایت‌هایی که شرایط زیر را دارند، رتبه‌های پایین‌تری اختصاص می‌دهد:
• تبلیغات بیش‌ از حد
• تولید محتواهای کوتاه
• کیفیت لینک پایین
• محتواهای بی‌کیفیت
• تعداد زیادی لینک افیلیت
• عدم تعامل مخاطبان با محتوا

الگوریتم گورخر(Zebra Algorithm)

الگوریتم گورخر

الگوریتم گورخر که در سال ۲۰۱۳ معرفی شد و هدف از طراحی این الگوریتم شناسایی سایت‌های فروشگاهی نامعتبر و جلوگیری از کلاهبرداری آنها از کاربران و خریداران بوده است. امروزه با افزایش فروشگاه‌های اینترنتی، اکثر مردم خرید خود را از طریق اینترنت انجام می‌دهند. بنابراین گوگل با کمک این الگوریتم اعتماد کاربران خود را حفظ می‌کند.

الگوریتم دزد دریایی(Pirate Algorithm)

الگوریتم دزد دریایی

الگوریتم دزد دریایی که در سال ۲۰۱۲ با هدف کاهش رتبه سایت‌هایی که قوانین کپی رایت را نقض می‌کنند معرفی شد. این اقدام برای محافظت از مالکیت معنوی سازندگان و جلوگیری از انتشار محتوای غیرقانونی است که می‌تواند به کسب درآمد صاحبان اثر آسیب برساند. هدف گوگل از پیاده‌سازی این الگوریتم تلاش‌ برای اطمینان از کیفیت بالا و مرتبط بودن نتایج جستجوی آن برای کاربران، ایجاد شرایط منصفانه‌تر برای همه وبسایت‌ها و جلوگیری از دزدی آنلاین است.

الگوریتم مرغ مگس خوار(Hummingbird Algorithm)

الگوریتم مرغ مگس‌خوار

مرغ مگس خوار یک الگوریتم جستجوی مورد استفاده توسط گوگل است که در سال ۲۰۱۳ معرفی شد. این الگوریتم برای درک معانی و مفهوم کلمات در یک عبارت جستجو و ارائه نتایج جستجوی دقیق‌تر و مرتبط‌تر طراحی شده است.
این الگوریتم به جای تطبیق تک تک واژگان در کوئری با واژگان در نتایج جستجو، بر درک معنای کوئری و تطبیق آن با نتایج مرتبط تمرکز می‌کند و می‌تواند کوئری‌های پیچیده و طولانی را تفسیر کند و نتایج مرتبط‌تری ارائه دهد که با هدف کاربر مطابقت دارد.

به عنوان مثال قبل از این الگوریتم با جستجوی عبارت” پرداخت آنلاین قبض از طریق بانک ملت” صفحه اصلی بانک در نتایج جستجو نمایش داده می‌شد اما بعد از این الگوریتم لینک صفحه مربوط به پرداخت قبوض مستقیماً در صفحه جستجوی گوگل نمایش داده می‌شود.

الگوریتم رنک برِین(Rank Brain Algorithm)

الگوریتم رنک بِرِین

الگوریتم رنک برین یک الگوریتم یادگیری ماشینی است که از هوش مصنوعی برای تفسیر و پردازش کوئری‌های جستجو به روشی شبیه انسان استفاده می‌کند. این الگوریتم از تکنیک‌های هوش مصنوعی و یادگیری ماشین برای تجزیه و تحلیل سوالات جستجو و درک زمینه و معنای آنها استفاده می‌کند. سپس می‌تواند از این اطلاعات برای تطبیق بهتر کوئری با صفحات مرتبط در وب استفاده کند، حتی اگر کلمات کلیدی دقیق مورد استفاده در کوئری در آن صفحات وجود نداشته باشد.

با بهبود ارتباط نتایج جستجو، الگوریتم رنک برین به بهبود کیفیت کلی موتور جستجوی Google و ارائه تجربه کاربری بهتر به کاربران کمک می‌کند.

الگوریتم کبوتر(Pigeon Algorithm)

الگوریتم کبوتر

الگوریتم کبوتر یک الگوریتم جستجوی مورد استفاده توسط گوگل است که در سال ۲۰۱۴ معرفی شد. هدف آن ارائه نتایج جستجوی محلی مرتبط‌تر و دقیق‌تر با استفاده از مکان و فاصله به عنوان عوامل رتبه‌بندی است.
این الگوریتم بر بهبود رتبه‌بندی نتایج جستجوی محلی، مانند جستجو برای مشاغل یا خدمات محلی تمرکز دارد. از داده‌های لوکیشن برای ارائه نتایج دقیق‌تری که به مکان فیزیکی کاربر نزدیکتر است استفاده می‌کند و مشاغلی که در نزدیکی کاربر قرار دارند، بیشتر در صفحه نتایج جستجو ظاهر می‌شوند.

کبوتر فاکتورهای دیگری را نیز در نظر می گیرد، مانند ارتباط جستجوی جستجو با موقعیت مکانی کاربر و کیفیت و اعتبار وب سایت کسب و کار. این کمک می کند تا اطمینان حاصل شود که نتایج نه تنها از نظر جغرافیایی مرتبط هستند، بلکه برای کاربر مفید و آموزنده هستند.

به طور کلی، الگوریتم کبوتر برای ارائه تجربه جستجوی بهتری برای کاربرانی که به دنبال مشاغل یا خدمات محلی هستند طراحی شده است. کسب‌وکارها را تشویق می‌کند تا روی بهینه‌سازی وب‌سایت‌هایشان برای جستجوی محلی تمرکز کنند و اطمینان حاصل کنند که داده‌های مکانشان دقیق و به‌روز است.

الگوریتم موش کور(Possum Algorithm)

الگوریتم موش کور

الگوریتم موش کور یا Possum الگوریتم بهینه‌سازی است که از رفتار موش‌های کور در جستجوی غذا در محیط اطرافشان الهام گرفته شده است. هدف آن بهبود دقت و ارتباط نتایج جستجوی محلی است. این الگوریتم بر فیلتر کردن محتوای تکراری و فهرست‌های هرزنامه از نتایج جستجوی محلی متمرکز است و فقط مرتبط‌ترین و باکیفیت‌ترین نتایج را به کاربران نشان می‌دهد.

الگوریتم موش کور با هدف ارائه نتایج دقیق‌تری بر اساس موقعیت مکانی کاربر و هدف جستجوی او می‌باشد. به این معنی که کسب و کارهای محلی که به موقعیت مکانی کاربر نزدیکتر هستند و بیشتر به جستجوی آنها مرتبط هستند، در نتایج جستجو اولویت بیشتری خواهند داشت.

الگوریتم بِرت(Bert Algorithm)

الگوریتم برت

برت الگوریتمی است که برای درک بهتر زبان طبیعی مورد استفاده در کوئری‌ها استفاده می‌شود. یک الگوریتم یادگیری عمیق مبتنی بر معماری ترانسفورماتور است که بر روی مقادیر زیادی از داده‌های متنی آموزش داده شده است.
این الگوریتم برای درک زمینه و تفاوت‌های ظریف زبان، از جمله معنای تک تک کلمات و نحوه ارتباط آنها با یکدیگر در یک جمله طراحی شده است و به گوگل کمک می‌کند تا کوئری‌های جستجو را بهتر با صفحات مرتبط در وب مطابقت دهد، حتی اگر کوئری حاوی زبان پیچیده یا مبهم باشد.

یکی از ویژگی های کلیدی الگوریتم برت توانایی آن در درک معنای حروف اضافه مانند “به”، “برای” و “با” است که می‌تواند به طور قابل توجهی بر معنای جمله تأثیر بگذارد. با درک متن این کلمات، برت قادر است نتایج جستجوی دقیق‌تری ارائه دهد.

الگوریتم Page lay out

الگوریتم Page-lay-out

الگوریتم پیج لی اوت الگوریتمی است که  برای جریمه کردن سایت‌هایی که از تبلیغات بیش از حد نسبت محتوا در بالای صفحه(بخشی از صفحه وب که بدون پیمایش قابل مشاهده است) استفاده می‌کنند.
هدف این الگوریتم بهبود تجربه کاربر با اولویت‌بندی ‌سایت‌هایی است که محتوای باکیفیت و تجربه کاربری خوب ارائه می‌دهند. وبسایت‌هایی که تبلیغات بیش از حد یا محتوای کمی در بالای صفحه دارند، ممکن است توسط الگوریتم جریمه شوند و رتبه‌ خود را از دست دهند.

الگوریتم Payday

الگوریتم payday

الگوریتم Payday در سال ۲۰۱۳ به منظور حذف سایت‌های هرزنامه و با کیفیت پایین از صفحات نتایج جستجو برای کوئری‌های مربوط به خدمات مالی، پورنوگرافی و سایر عبارت‌های اسپم معرفی شد. هدف این الگوریتم بهبود کیفیت نتایج جستجو برای کاربران با کاهش نمایش وبسایت‌های هرزنامه و بی‌کیفیت است.

الگوریتم کافئین(Caffeine Algorithm)

الگوریتم کافئین

الگوریتم کافئین توسط گوگل در سال ۲۰۱۰ معرفی شد و هدف آن بهبود سرعت و کارایی موتور جستجوی گوگل بود. الگوریتم کافئین یک به‌روزرسانی بزرگ برای سیستم ایندکس گوگل بود که به موتور جستجو اجازه می‌داد تا صفحات وب را سریعتر و در زمان واقعی‌تر کراول و ایندکس کند.
کافئین همچنین برای بهبود رتبه‌بندی محتوای تازه‌تر، مانند اخبار فوری یا رویدادهای اخیر طراحی شده است. وقتی کاربران موضوعی را جستجو می‌کنند، احتمالاً مرتبط‌ترین و جدیدترین محتوا را در بالای نتایج جستجو می‌بینند.
به طور کلی، هدف این الگوریتم ارائه تجربه جستجوی سریعتر و دقیق‌تری برای کاربران است. 

الگوریتم Mobilegeddon

الگوریتمMobilegeddon

الگوریتم Mobilegeddon در سال ۲۰۱۵ برای بهبود تجربه جستجو برای کاربران در دستگاه‌های تلفن همراه با اولویت‌بندی صفحات سازگار با موبایل در نتایج جستجو طراحی شده است. این الگوریتم بر جستجوهای تلفن همراه تأثیر می‌گذارد و رتبه سایت‌هایی که سازگار با موبایل یا واکنش‌گرا نیستند، در نتایج جستجوی تلفن همراه کاهش می‌یابد. 

الگوریتم MUM

الگوریتم MUM

الگوریتم MUM(Multitask Unified Model) الگوریتم جدیدی است که توسط گوگل در سال ۲۰۲۱ معرفی شد. MUM یک مدل هوش مصنوعی در مقیاس بزرگ است که برای بهبود دقت و جامعیت نتایج جستجو طراحی شده است. هدف پاسخگویی به نیازهای جستجوی با استفاده از الگوریتم مبتنی بر هوش مصنوعی برای بهبود قابلیت جستجوی آنلاین است.
با کمک این الگوریتم دیگر نیازی به انجام چندین جستجو برای مقایسه و به دست آوردن بینش عمیقتر در مورد موضوع را از بین می‌برد. این الگوریتم توانایی درک و ارائه راه‌حل‌هایی را دارد که نه تنها بر اساس محتوای متنی، بلکه بر اساس تفسیر تصاویر، ویدیوها و پادکست‌ها به روشی که قبلاً هرگز امکان‌پذیر نبوده است.

الگوریتم Mobile First Index

الگوریتم mobile-first-index

این الگوریتم جستجوی گوگل که در سال ۲۰۱۸ معرفی شد، در درجه اول بر روی نسخه موبایل یک سایت تمرکز دارد و از آن به عنوان نسخه اولیه برای اهداف ایندکس و رتبه بندی استفاده می‌کند. با افزایش محبوبیت دستگاه‌های تلفن همراه برای جستجو در اینترنت، گوگل تمرکز خود را به نسخه موبایل سایت‌ها معطوف کرده است.

با الگوریتم Mobile First Index، گوگل نسخه موبایل یک وبسایت را برای تعیین ارتباط و رتبه آن در نتایج جستجو ارزیابی می‌کند و سایت‌هایی که سازگار با موبایل هستند و تجربه کاربری خوبی را در دستگاه‌های تلفن همراه ارائه می‌دهند، احتمالاً در نتایج جستجو رتبه بالاتری دارند.

الگوریتم E-A-T

الگوریتم E-A-T

این الگوریتم به مجموعه‌ای از دستورالعمل‌های کیفی اشاره دارد که گوگل برای ارزیابی محتوا و اعتبار سایت‌ها از آنها استفاده می‌کند. E-A-T بلکه مجموعه‌ای از معیارهایی است که الگوریتم‌های گوگل برای رتبه‌بندی وبسایت‌ها استفاده می‌کنند. 

دستورالعمل‌های E-A-T به ویژه برای وبسایت‌هایی که مشاوره بهداشتی، مالی، یا حقوقی ارائه می‌دهند، و همچنین سایت‌های خبری و سایر سایت‌هایی که هدفشان اطلاع‌رسانی یا آموزش کاربران است، مرتبط است. این نوع سایت‌ها می‌توانند تاثیر قابل توجهی بر زندگی کاربران داشته باشند و به همین دلیل، گوگل می‌خواهد اطمینان حاصل کند که آنها اطلاعات دقیق و قابل اعتمادی را ارائه می‌دهند.

E-A-T مخفف Expertise, Authority, Trustworthiness است:

Expertise (تخصص) به دانش و مهارت‌های تولیدکننده محتوا یا صاحب وبسایت اشاره دارد. گوگل به این توجه می‌کند که محتوا توسط متخصصان در زمینه مربوطه ایجاد شده است.
Authority (اعتبار ) به شهرت و نفوذ تولیدکننده محتوا یا صاحب سایت اشاره دارد. گوگل به این توجه می‌کند که این سایت در صنعت شهرت زیادی دارد و به عنوان یک منبع اطلاعاتی قابل اعتماد دیده می‌شود.
Trustworthiness (قابل اعتماد بودن) به اعتبار و قابل اعتماد بودن محتوا اشاره دارد. گوگل به این توجه می‌کند که سایت اطلاعات دقیق و بی‌طرفانه ارائه می‌دهد و درگیر اقدامات گمراه‌کننده یا فریبنده نمی‌شود.

الگوریتم EMD

الگوریتم EMD

الگوریتمEMD(Exact Match Domain) الگوریتم جستجوی گوگل است که در سپتامبر ۲۰۱۲ معرفی شد. این الگوریتم سایت‌هایی که کیفیت پایینی دارند و برای کسب رتبه بالاتر در نتایج جستجو از نام دامنه‌ای استفاده می‌کنند که دقیقاً با عبارت جستجوی شده توسط کاربر مطابقت دارد(به عنوان مثال برای سایتی در زمینه آموزش سئو انتخاب نام دامنه SEOTraining ) را هدف قرار می‌دهد. 

در گذشته، چنین ‌سایت‌هایی می‌توانستند فقط به دلیل نام دامنه خود در نتایج جستجو رتبه بالاتری داشته باشند، حتی اگر محتوای آنها کیفیت پایینی داشت. اما در حال حاضر الگوریتم EMD این سایت‌های با کیفیت پایین را با کاهش رتبه آنها در نتایج جستجو هدف قرار می‌دهد. این الگوریتم کیفیت و ارتباط محتوای وبسایت و همچنین کیفیت و ارتباط نام دامنه را ارزیابی می‌کند.

الگوریتم ونیز (Venice Algorithm)

الگوریتم ونیز


الگوریتم ونیز الگوریتم جستجوی گوگل است که در سال ۲۰۱۲ معرفی شد. هدف این الگوریتم ارائه نتایج جستجوی محلی بیشتر برای کاربران با استفاده از موقعیت مکانی کاربر برای تأثیرگذاری بر نتایج جستجو است. این الگوریتم می‌تواند موقعیت مکانی بازدیدکنندگان را با آدرس IP آنها دریافت کند و  وقتی یک عبارت را جستجو می‌کنید، نتایج محلی نزدیک به موقعیت مکانی شما را  نشان می‌دهد، چه مکان خود را تنظیم کنید یا نه.


با الگوریتم ونیز، گوگل موقعیت مکانی کاربر را ارزیابی می‌کند و از این اطلاعات برای ارائه نتایج جستجوی مرتبط با منطقه محلی آنها استفاده می‌کند. به عنوان مثال، اگر کاربری در شهر شیراز عبارت “پیتزا” را جستجو کند، صفحه نتایج جستجو مکان‌ فست فودها در شهر شیراز  را به جای سایر نقاط جهان نشان می‌دهد.

الگوریتم مدیک یا طبی( Google Medic Algoithm)

الگوریتم مدیک یا طبی

الگوریتم Google Medic برای بهبود کیفیت و ارتباط نتایج جستجو، به‌ویژه در حوزه سلامت و تندرستی طراحی شده است. این به‌روزرسانی بر ارزیابی تخصص، اعتبار و قابل اعتماد بودن سایت‌هایی که اطلاعاتی در مورد مسائل بهداشتی،سلامتی، پزشکی و موضوعات مرتبط ارائه می‌دهند، متمرکز است.

هدف الگوریتم گوگل مدیک این است که کاربرانی که در جستجوی اطلاعات مرتبط با سلامت هستند، منابع قابل اعتمادی را پیدا کنند و سایت‌های بی‌کیفیت یا غیرقابل اعتمادی را که ممکن است قبلاً در نتایج جستجو نمایش داده شده‌اند حذف کند. این امر به ویژه با توجه به آسیب احتمالی که اطلاعات بهداشتی نادرست یا گمراه کننده می‌تواند ایجاد کند بسیار مهم بود.

سوالات متداول

الگوریتم گوگل مجموعه پیچیده‌ای از قوانین ریاضی است که گوگل برای تعیین ارتباط، اعتبار و کیفیت صفحات وب و رتبه‌بندی آنها در صفحات نتایج موتورهای جستجو استفاده می‌کند. گوگل الگوریتم‌های خود را مرتباً به‌روزرسانی می‌کند تا دقت و ارتباط نتایج جستجوی خود را بهبود بخشد.

الگوریتم‌های پاندا، پنگوئن، مرغ مگس‌خوار، برت،کبوتر، رنک بِرین،رقص گوگل،موبایل فِرست ایندکس از مهمترین الگوریتم‌های گوگل هستند.

    ارسال نظر

    دیدگاه خود را بنویسید:
    نشانی ایمیل شما منتشر نخواهد شد.

    تمامی حقوق محفوظ است.