سئو چیست؟

سئو چیست؟ آموزش و راهنمای کامل


جزئیات مقاله

زمان مورد نیاز برای مطالعه

۸۰


دقیقه

میزان سختی مقاله

درصد سختی مقاله


سئو چیست؟

مقاله سئو تیم ویراکام به صورت هفتگی آپدیت می شود. این مقاله در یک مقدمه و ۷ بخش آماده سازی خواهد شد. طراحی وب سایت و سئو از جمله خدمات IT فناوران ویرا آکام می باشد.

به تور آموزشی سئو ما خوش آمدید!

اگر شما برای اجرا و تست راهکار های ارائه شده توسط این مقاله در مورد “بهینه‌ سازی موتور جستجو” یا همان (SEO) به این سایت آمده اید، بیشترین استفاده را از این مقاله خواهید کرد.

این راهنما برای توصیف تمام جنبه‌ های مهم  سئو ، از پیدا کردن عبارات (کلمات کلیدی) که می‌ تواند مخاطبان مطلوب را برای وب سایت شما پیدا کند تا آماده سازی سایت شما برای جستجوی موتور های جستجو و ایجاد ارتباط و بازاریابی با ارزش برای سایت شما ارائه شده است.

دنیای بهینه‌ سازی موتور جستجو، پیچیده و همیشه در حال تغییر است، اما شما می‌ توانید به راحتی اصول اولیه را درک کنید، حتی مقدار کمی از دانش در این حوزه می‌ تواند تفاوت بزرگی ایجاد کند. آموزش رایگان سئو به طور کلی در این مقاله توضیح داده شده است.

این اطلاعات را با کمی تمرین ترکیب کنید تا تبدیل به یک سئو کار قابل شوید.

آموزش سئو

آیا تا به حال از هرم سلسله‌ مراتب نیاز های Maslow چیزی شنیده‌ اید؟ سلسله‌ مراتب نیاز های Maslow یک نظریه روانشناسی است که مهم‌ ترین نیاز های انسانی (مانند هوا، آب و امنیت فیزیکی) را نسبت به نیاز های پیشرفته‌ تر (مانند عزت‌ نفس و تعلق اجتماعی) در اولویت قرار می‌ دهد. نظریه به طور خلاصه به این صورت است که شما نمی‌ توانید بدون برطرف کردن نیاز های اولیه خود در ابتدا، به نیاز های ثانویه ی خود برسید. اگر غذا برای خوردن نداشته باشید، پس عشق اهمیتی ندارد!

Rand Fishkin بنیانگذار سایت Moz ، یک هرم مشابه برای توضیح نحوه طبقه بندی در مورد سئو به دست آورده و ما با مشابه سازی هرم Maslow به هرم سئو ، نیاز های اصلی سئو را توضیح داده ایم.

این هرم به شکل زیر است:

هرم SEO

  1. Crawl accessibility تا موتور های جستجو بتوانند سایت شما را ببینند و اطلاعات آن را در انبار داده خود ذخیره یا به اصطلاح Index کنند.
  2. محتوای قابل استناد که پاسخگوی نیاز های جستجو کننده باشد.
  3. لغت کلیدی بهبود یافته برای جذب جستجو کنندگان و موتور های جستجو.
  4. ایجاد تجربه خوب برای کاربر که شامل سرعت بارگذاری، راحت بودن برای استفاده و رابط کاربری جالب بر روی هر دستگاه.
  5. محتوای ارزشمندی که بتوان از آن به عنوان یک لینک معتبر استفاده کرد.
  6. عنوان، نشانی اینترنتی و توصیف هایی مناسب برای بدست آوردن CTR بالا در رتبه‌ بندی‌.
  7. نشانه‌ گذاری Snippet / Schema برای برجسته شدن در SERPs

ما برای توضیح هر کدام از این زمینه‌ ها در طول این راهنما زمان لازم را صرف خواهیم کرد، ولی در این قسمت می‌ خواهیم کلیت و اساس سئو را به صورت یکجا معرفی کنیم و کمی راجب هر بخش توضیح دهیم.


بخش ۱: SEO 101

چیست و چرا مهم است؟

برای مبتدیان واقعی! در مورد آنکه سئو چیست، چرا مهم است و دانش اولیه لازم برای فهم اصول اولیه.


بخش ۲: موتور های جستجو چطور کار می کنند؟ –Crawling, Indexing, Ranking

اول از همه، خودتان را نشان دهید.

اگر موتور های جستجو نمی‌ توانند شما را پیدا کنند، هیچ کدام از کار های شما اهمیت ندارد. این بخش به شما نشان می‌ دهد که روبات‌ ها چگونه از اینترنت برای پیدا کردن سایت شما و اضافه کردن آن به شاخص‌ ها استفاده می‌ کنند.


بخش ۳: تحقیقات لغات کلیدی

بفهمید که مخاطبتان چه چیزی را می‌خواهند پیدا کنند.

رویکرد ما ابتدا کاربران را هدف قرار می‌ دهد، چون که موتور های جستجو هم همین کار را می کنند. در این بخش به توضیح تحقیقات برای لغات کلیدی و روش‌ های دیگری برای پیدا کردن آنچه که مخاطب شما به دنبال آن است می پردازد.


بخش ۴: بهینه سازی در سایت

از تحقیقات معتبر برای رساندن پیام خود استفاده کنید.

این فصل سنگین است! طراحی بهینه، تجربه کاربر، معماری اطلاعات و همه راه‌ هایی که شما می‌ توانید نحوه انتشار محتوا را برای به حداکثر رساندن بازدید هایتان و ارتباط صحیح با مخاطبین خود تنظیم کنید در این بخش توضیح داده شده است.


بخش ۵: سئو تکنیکال

دانش فنی اولیه به شما کمک می‌ کند سایت خود را برای موتور های جستجو بهینه کرده و اعتبار خود را پیش توسعه دهندگان بیشتر کنید.

با اجرای طرح بازخوردی، دستورالعمل ربات ها و سایر عناصر فنی مانند داده‌ های ساختاری و برچسب‌ های متا، شما می‌ توانید به گوگل (همان روبات ذکر شده) بگویید که سایت شما در چه مورد تولید محتوا دارد. این کار به آن‌ ها کمک می‌ کند که به دنبال اطلاعات درستی که مد نظر شما است باشند.


بخش ۶: ساختن لینک و ایجاد تشکیلات

سطح کاری خود را بالا ببرید.

زمانی که همه چیز سر جای خود قرار گرفت، زمان آن رسیده است که تاثیر خود را با تبادل لینک‌ با سایت‌ های دیگر گسترش دهید.


بخش ۷: اندازه گیری، اولویت بندی و اجرای سئو

هدف را موفقیت قرار بده!

بخش مهمی از هر استراتژی سئو دانستن این است که هر روش کجا به کار می آید.


 

SEO 101

اگر شما از قبل درک خوبی از سئو دارید، پس اهمیت آن را می دانید.

کسانی که آشنایی با شَمای کلی سئو دارند، می‌ توانند از این قسمت صرف‌ نظر کنند (گرچه باز هم توصیه می‌ شود که صرف نظر نکنید! به این خاطر که توضیحاتی درباره گوگل و بینگ در انتهای این فصل داده شده است که دانستن آن خالی از لطف نیست).

برای تازه کاران، این بخش به بالا بردن اعتماد به نفس و دانش شما در بخش سئو کمک خواهد کرد.

سئو چیست؟

SEO مخفف ” search engine optimization ” یا همان بهینه سازی موتور جستجو است. این روش افزایش کیفیت و کمیت ترافیک وب سایت (میزان بازدید سایتتان) و نیز در معرض دید قرار گرفتن برند شما را از طریق نتایج موتور جستجوی بدون پرداخت هزینه (که به عنوان “ارگانیک” شناخته می‌ شود) به ارمغان می آورد.

سئو به همان اندازه ای که با خودِ موتور جستجو ارتباط دارد، با مردم نیز در ارتباط است. دانش سئو به این معناست که شما متوجه شوید که کاربران اینترنت در جستجوی چه چیزی هستند، به دنبال چه نوع جوابی می گردند، لغاتی که برای جستجو استفاده می کنند چیست و محتوایی که می خواهند در چه زمینه ای می باشد. دانستن جواب این سوالات به شما این امکان را می‌ دهد که جواب و راه حل هایی در اختیار کاربران بگذارید که به آن نیاز دارند.

اگر دانستن قصد مخاطب شما یک طرف سکه سئو باشد، درآوردن شیوه‌ ای که crawler های موتور جستجو بتوانند آن را پیدا و درک کنند، طرف دیگر آن سکه است. در این راهنما شما یاد می گیرید چطور هر دوی این کار ها را انجام دهید.

اصول اولیه موتور جستجو

موتور های جستجو، ماشین‌ های پاسخ دهی هستند. آن‌ ها میلیارد ها قسمت از کل محتوا های موجود را جستجو می کنند و هزاران عامل را ارزیابی می‌ کنند تا مشخص کنند کدام محتوا بیشتر به نیاز کاربران پاسخگو می باشد.

موتور های جستجو تمام این کار ها را با کشف و مرتب سازی محتوای موجود در اینترنت (صفحات وب، PDF ها، تصاویر، ویدیو و غیره) از طریق فرایندی که به آن “Crawling” و “Indexing” گفته می شود انجام می‌ دهند و این اطلاعات را دسته بندی می کنند. درباره Indexing و Crawling در بخش دوم بیشتر صحبت خواهیم کرد.

کدام یک از نتایج جستجو ارگانیک هستند؟

همانطور که قبلاً گفتیم، نتایج جستجوی ارگانیک آن‌ هایی هستند که از طریق سئو موثر بدست‌ آمده اند (نه آن هایی که برایشان پرداخت مالی صورت گرفته یعنی تبلیغات). لینک هایی که تبلیغاتی هستند به راحتی تشخیص داده می شوند چون به وضوح در کنارشان برچسب Ad میخورد و نتایج باقیمانده مثل همیشه به شکل همان “۱۰ لینک آبی” در زیر آن‌ ها قرار می گیرد.

امروزه، نتایج موتور های جستجو به عنوان “SERP ها” شناخته می‌ شوند – با هر دو نوع از نتایج جستجو، اعم از ارگانیک و تبلیغ شده پر شده اند. برخی از فرمت های SERP شامل Answer Box ها ، People Also Ask، اسلاید های عکس و غیره می شوند. ویژگی ها و فرمت های جدید SERP هر روزه در حال بزرگ تر شدن و تغییر کردن هستند و این تغییرات بر مبنای درخواست کاربران است.

برای مثال اگر به دنبال “آب و هوای تهران” بگردید، به جای لینک به سایتی که ممکن است این پیش‌ بینی را داشته باشد، پیش‌ بینی آب و هوایی برای شهر تهران را مستقیما خواهید دید. و اگر شما به دنبال “کبابی در تهران” بگردید، ” نزدیک ترین کبابی ” به خودتان را خواهید دید.

مهم است به یاد داشته باشید که موتور های جستجو از طریق تبلیغات درآمد زایی میکنند. هدف آن‌ ها پاسخگویی بهتر به درخواست های سرچ کنندگان (درون SERP ها) است تا سرچ کنندگان را در SERP ها بیشتر نگه دارند.

برخی از ویژگی‌ های SERP در گوگل، ارگانیک هستند و می‌ توانند تحت‌ تاثیر سئو باشند. بعضی از این لینک ها در قسمت Answer Box ها ظاهر می شود که مربوط به سوالات پرسیده شده است. لازم به ذکر است که ویژگی‌ های بسیار دیگری نیز در جستجو وجود دارد که با وجود اینکه از گروه تبلیغات پرداختی نیستند اما نمی توان آن ها را تحت‌ تاثیر سئو نیز دانست. این ویژگی‌ ها اغلب اطلاعات بدست‌ آمده از منابع اختصاصی مانند ویکی‌ پدیا، WebMD و IMDb هستند.

چرا سئو مهم است؟

در حالی که تبلیغات پرداختی، رسانه‌ های اجتماعی و دیگر سیستم‌ عامل‌ های آنلاین، میتوانند ترافیک قابل قبولی را برایتان بدست بیاورند، باز به هر حال اغلب ترافیک به موتور های جستجو هدایت می‌ شوند.

جستجو های ارگانیک معمولا بیشتر به چشم می آیند و برای جستجو کنندگان، نتایج جستجو های ارگانیک قابل اعتماد تر به نظر می رسد و در کل بیشتر از لینک هایی که تبلیغات دارند کلیک می شوند. برای مثال ، فقط ۲٫۸ درصد از کاربران آمریکایی بر روی لینک های تبلیغ شده کلیک می کنند.

به طور کلی می توان گفت که استفاده از سئو حدود ۲۰ برابر شانس بیشتری به شما برای دیده شدن سایتتان می دهد.

سئو یکی از تنها کانال‌ های بازاریابی آنلاین است که هنگامی که به درستی تنظیم شود، در مرور زمان امکان افزایش بازدهی دارد. اگر شما محتوایی حسابی که شایسته رتبه‌ بندی خوب برای کلمات کلیدی که در آن استفاده شده است فراهم کنید، ترافیک شما می‌ تواند به مرور زمان زیاد شود، در حالی که تبلیغات پرداختی به سرمایه‌ گذاری مستمر برای ثابت نگه داشتن و بدست آوردن ترافیک جدید برای سایت شما نیاز دارد.

موتور های جستجو همیشه در حال هوشمند تر شدن هستند، اما هنوز به کمک ما نیاز دارند.

بهینه سازی سایتتان برای ارائه اطلاعات بهتر به موتور های جستجو کمک می‌ کند، تا محتوای شما بتواند به درستی Index شود و در نتایج جستجو به نمایش گذاشته شود.

Black hat و White hat در سئو

“White Hat” به یکی از تکنیک‌ ها و استراتژی‌ های سئو اشاره دارد که به قوانین موتور جستجو پایبند است، تمرکز اولیه آن اهمیت دادن بیشتر به کاربران است.

” Black Hat ” یک تکنیک‌ و استراتژیی دیگر است که برای فریب دادن موتور های جستجوی تلاش می‌ کند. در حالی که سئو مدل Black Hat می‌ تواند کارساز باشد, وب سایت را در خطر قرار میدهد  و احتمال deindex شدن را (حذف از نتایج جستجو) بیشتر می کند.

وب سایت‌ هایی که همچین اتفاقی برایشان می افتد، میتوان گفت کسب‌ و کار خود را ورشکست کرده‌ اند و این دلیلی دیگر است که برای سئو یک متخصص سئو درست انتخاب کنید تا مراقب باشد که چنین اتفاقاتی رخ ندهد.

موتور های جستجو اهداف یکسانی با سئو دارند

موتور های جستجو می‌ خواهند به موفقیت شما کمک کنند. در واقع، گوگل حتی یک راهنمای پایه ای برای موتور جستجو به نام “Search Engine Optimization Starter Guide” دارد که درست شبیه راهنمای مبتدیان است! آن‌ ها همچنین از تلاش‌ های جامعه سئو به طور کامل حمایت می‌ کنند. کنفرانس‌ های بازاریابی دیجیتال مثل Unbounce ، MNsearch،  و MozCon به طور منظم مهندسان و نمایندگانی از موتور های جستجوی اصلی را جذب می کند.

گوگل به وب مستر ها و متخصصین سئو از طریق Webmaster Central Help Forum و hangouts کمک می‌ کند. (متاسفانه بینگ، در سال ۲۰۱۴ Forums Webmaster خود را حذف کرد.)

در حالی که دستورالعمل‌ های وب مستر ها در هر موتور جستجو با موتور جستجوی دیگر متفاوت هستند، اصول اساسی همچنان یکسان هستند: سعی نکنید موتور های جستجو را گول بزنید. به جای آن،  برای بازدید کنندگان خود یک تجربه آنلاین فوق‌ العاده فراهم کنید. برای انجام این کار، دستورالعمل‌ های موتور جستجو را دنبال کنید و اهداف کاربران را دنبال کنید.

راهنمای وب مستر گوگل

اصول اساسی که باید رعایت شوند:

  •     مخاطب را در اولویت قرار بدهید، نه موتور جستجو را!
  •     دنبال فریب دادن کاربران نباشید.
  •     از حقه ها‌ برای بهبود رتبه‌ بندی سایت خود در موتور جستجو اجتناب کنید. یک روش خوب این است که فکر کنید قرار است بعدا برای یکی از نمایندگان گوگل کارهایتان را توضیح دهید. روش دیگر این است که از خود بپرسید آیا این روش به درد مخاطبتان شما میخورد یا خیر! وی اینکه اگر موتور جستجو نبود باز هم این کار را انجام میدادم؟
  •     به این فکر کنید که چه چیزی وب سایت شما را منحصر به فرد، با ارزش و یا جذاب می‌ کند.

نکاتی که باید از آن ها اجتناب شوند:

  •     از گذاشتن محتویات بدون کیفیت خودداری کنید.
  •     از گذاشتن لینک های بدون دلیل خودداری کنید.
  •     ایجاد صفحه بدون محتوای اورجینال یا همان کپی کردن محتوای باقی رقیبان اجتناب کنید.
  •     از Cloaking – نشان دادن محتوایی متفاوت به کراولر ها (نسبت به کاربران) خودداری کنید.
  •     از ساختن لینک و متن مخفی اجتناب کنید.

راهنمای وب مستر بینگ

اصول اساسی که باید رعایت شوند:

  •     در سایت خود مطالبی روشن، عمیق، جذاب و آسان فراهم کنید.
  •     عناوین صفحه را واضح و مرتبط نگه دارید.
  •     لینک های معتبر استفاده کنید و مطالبی بگذارید که لینک برگشتی دریافت کنید.
  •     نفوذ و اعتبار اجتماعی، نشانه های مثبت هستند و می‌ توانند تاثیر زیادی بر چگونگی رتبه بندی شما در دراز مدت داشته باشند.
  •     سرعت بارگذاری صفحه مهم است.
  •     از ویژگی‌ های alt برای توصیف تصاویر استفاده کنید تا بینگ بتواند محتوای آن را بهتر درک کند.

نکاتی که باید از آن ها اجتناب شوند:

  •     تین کانتنت (Thin Content) یا همان صفحات نمایشی که اغلب آگهی‌ ها یا لینک‌ های وابسته را نشان می‌ دهد، و یا این که بازدیدکنندگان را به سایت‌ های دیگر هدایت کند، رتبه خوبی نخواهد داشت.
  •     از گذاشتن لینک های بدون دلیل خودداری کنید.
  •     اطمینان حاصل کنید که ساختار نشانی اینترنتی کاملاً ساده، مختصر و دارای کلمه کلیدی مورد نظر میباشد. پارامتر های دینامیک می‌ توانند نشانی‌ های اینترنتی شما را دچار اختلال کنند و باعث مشکلات کپی محتوا شوند.
  •     نشانی‌ های اینترنتی تان را به صورت توصیفی, کوتاه, و در صورت امکان پر محتوا بنویسید و از کاراکتر های غیر مکتوب اجتناب کنید.
  •     مخفی کردن لینک ها در Javascript / Flash / Silverlight.
  •     کپی محتوا از سایت های دیگر.
  •     زیاد استفاده کردن از لغات کلیدی.
  •     از Cloak کردن – نشان دادن دو محتوای متفاوت به Crawler ها و کاربران خودداری کنید.

راهنما برای نمایش کسب‌ و کار محلی خود در گوگل

در صورتی که صاحب کسب و کاری محلی هستید و قصد ثبت موقعیت مکانی آن را دارید، کافیست اطلاعات مربوط به خودتان را در گوگل ثبت کنید، که با انجام این کار در صورت جستجو اسم کسب و کارتان، نام، آدرس و توضیحات مورد نیازی که مد نظر شماست برای مخاطب در گوگل به نمایش گذاشته می شود.

اصول اساسی که باید رعایت شوند:

  •     مطمئن شوید که واجد شرایط ورود Google My Business Index هستید; شما باید آدرسی مشخص داشته باشید, حتی اگر آدرس خانه تان باشد و شما باید به مشتریان در محل (مانند فروشگاه خرده‌ فروشی) یا در موقعیت آن‌ ها (مانند لوله‌ کش) خدمت ارائه کنید.
  •     دقیق باشید، تمام جنبه‌ های داده کسب‌ و کار محلی، از جمله نام، آدرس، شماره‌ تلفن، آدرس وب سایت، مقوله‌ های تجاری، ساعات کار، و دیگر ویژگی‌ ها را به اشتراک بگذارید.

نکاتی که باید از آن ها اجتناب شوند:

  •     از ارائه اطلاعات نادرست پرهیز کنید. یعنی آدرس، شماره تماس را دقیق وارد کنید.
  •     از استفاده از PO Box و محل کار غیر واقعی اجتناب کنید
  •     از نقد منفی علیه رقیبانتان یا نقد مثبت به نفع خودتان، بپرهیزید.

اهداف وب سایت خود را بشناسید

هر وب سایت رویه ای متفاوت دارد، بنابراین زمان بگذارید تا اهداف تجاری سایت مد نظرتان را کاملا درک کنید. این نه تنها به شما کمک می‌ کند تا مشخص کنید کدام بخش از سئو را باید روی آن تمرکز کنید ، بلکه به شما کمک می‌ کند برای مذاکره درباره پروژه‌ های سئو با مشتریان، روسا و غیره بتوانید صحبت کنید.

KPI ها یا همان Key Performance Indicator (شاخص عملکرد کلیدی) های شما چگونه میزان بازگشت سرمایه‌ شما را در سئو بررسی کند؟ ساده تر بخواهیم بگوییم, معیار شما برای اندازه‌ گیری موفقیت نتایج جستجو ارگانیک شما چیست؟ باید آن را سند سازی کنید, حتی اگر این کار به نظر پیش پا افتاده بیاید:

| برای وبسایتم ……………….. ، هدف اصلی KPI سئو من ……………….. میباشد.

در اینجا چند KPI کلی برای شروع کار مثال زده شده است:

  •     فروش
  •     بارگیری‌ ها
  •     ثبت نام الکترونیکی
  •     فرم‌ های تماس
  •     تماس‌ های تلفنی

و اگر کسب‌ و کار شما یک بخش محلی داشته باشد، شما می‌ خواهید KPI ها را برای شرکت ثبت شده خود در گوگل تعریف کنید. این موارد ممکن است شامل موارد زیر باشند:

  •     کلیک برای تماس
  •     کلیک برای وبسایت
  •     کلیک برای مسیریابی

ممکن است متوجه شده‌ باشید که چیز هایی مانند “رتبه‌ بندی” و “ترافیک” در فهرست KPI ها موجود نبودند، و این قضیه عمدی است.

سئو به رتبه وب سایت شما در نتایج جستجو کمک می‌ کند و متعاقباً ترافیک بیشتری را به وب سایت شما هدایت می‌ کند، این یعنی رتبه‌ بندی و ترافیک وسیله‌ ای برای رسیدن به هدف هستند. اگر حتی رتبه یک هم باشید، تا زمانی که روی سایتتان کلیک نشود باز ترافیک لازم را بدست نمیاورید! و نکته بعدی اینجاست که حتی با داشتن ترافیک مورد نظر، چند درصد بازدید کنندگان عضو سایت شما شده اند؟

برای مثال کدام یک از گزینه های زیر به نظر شما بهتر است:

  •     ۱۰۰۰ بازدید کننده در ماه و ۳ نفر فرم‌ های تماس را پر می‌ کنند.
  •     ۳۰۰ بازدید کننده در ماه و ۴۰ نفر فرم‌ های تماس را پر می‌کنند.

موتور های جستجو چطور کار می کنند؟ –CRAWLING, INDEXING, RANKING

موتورهای جستجو دستگاه های پاسخگویی هستند. آن ها ساخته شده اند تا محتوای اینترنتی را کشف، درک و سازماندهی کنند تا مرتبط ترین نتایج را به جستجو کنندگان ارائه دهند.

برای اینکه محتوای شما در نتایج جستجو کاربران نشان داده شود، محتوای شما باید ابتدا برای موتور های جستجو قابل رویت باشد. این اصل یکی از مهم ترین قسمت های پازل سئو است. اگر سایت شما توسط موتور های جستجو پیدا نشود، هیچ شانسی برای شما وجود ندارد که در صفحه نتایج موتور جستجو (SERP) قرار بگیرید.

موتور های جستجو چگونه کار می کنند؟

موتور های جستجو سه کارکرد در سئو اصلی دارند:

  1.   Crawl: در اینترنت به دنبال محتوا بگردند و URL هر محتوا/کد نوشته شده را بررسی کنند.
  2.   Index: محتوایی که در روند Crawl پیدا شد را ذخیره و منظم کنند. زمانی که یک صفحه در Index قرار می گیرد، آماده است که در جواب جستجو های مربوط، به نمایش گذاشته شود.
  3.   رتبه بندی (Rank) : همانطور که از اسم این کارکرد مشخص است، محتوا را نسبت به نیاز و مرتبط بودن با سوال جستجوگر مرتب می کند.

Crawling موتور جستجو به چه معناست؟

Crawling، فرایندی است که در آن موتور های جستجو گروهی از ربات ها( که به عنوان عنکبوت ها یا Crawler شناخته می شوند) را برای یافتن محتوای جدید به سایت ها می فرستند. محتوای یافته شده می تواند متفاوت باشد، به این معنی که این محتوا می تواند یک صفحه وب، یک تصویر، یک ویدیو، یا یک فرمت pdf باشد؛ ولی صرف نظر از فرمت، محتوا به کمک لینک ها پیدا می شوند که این مسئله به سئو وبسایت شما کمک بسزایی می کند.

Googlebot با پیدا کردن چند صفحه وب کار خود را شروع می کند و سپس لینک هایی که داخل آن صفحه است را دنبال می کند تا به URL های دیگر دست یابد. با این روش Crawler می تواند محتوای جدید را پیدا کند و به Index خود که به آن Caffeine گفته می شود اضافه کند تا زمانی که کاربر کلمه ای را جستجو می کند URL مورد ارتباط با جستجو نشان داده شود.

Index یک موتور جستجو چیست؟

موتور های جستجو اطلاعاتی که پیدا می کنند را در Index، پردازش و ذخیره سازی می کنند. Index، یک پایگاه داده (Database) بزرگ از تمامی محتوای قابل استفاده برای جستجو کننده ها می باشد.

رتبه بندی (Ranking) موتور های جستجو

زمانی که یک نفر جستجویی انجام می دهد، موتور های جستجو در Index به دنبال مطالب مرتبط با جستجوی کاربر می گردند و به ترتیب از مرتبط ترین تا نامرتبط ترین محتوا را در صفحه نتایج به کاربر نشان می دهند. این مرتب سازی را رتبه بندی می گویند. به طور کلی شما می توانید فرض کنید که سایتی که در بالای صفحه نتایج دیده می شود از نظر موتور جستجو مربوط ترین پاسخ به جستجوی شماست و نمونه ی یک سئو ی کاملاً صحیح می باشد.

این امر امکان پذیر است که شما جلوی ورود Crawler ها را به سایت خود بگیرید، یا به موتور های جستجو بگویید که صفحاتی از سایت شما را به Index خود اضافه نکنند ولی اگر بخواهید که محتوای شما برای جستجو کننده های قابل دسترسی باشد باید در مرحله اول مطمئن شوید که سایت شما برای Crawler ها قابل دسترسی است و محتوای شما قابلیت اضافه شدن به Index را دارد؛ در غیر این صورت سایت شما نامرئی خواهد بود.

Crawling: آیا موتور های جستجو می توانند سایت شما را پیدا کنند؟

همانطور که در قسمت بالا خواندید،برای رعایت نکات اولیه ی سئو و برای نشان داده شدن در SERP (Search Engine Result Page) سایت شما باید قابل Crawl و اضافه شدن به Index باشد. اگر در حال حاضر سایتی دارید، بهتر است که چک کنید که چندین صفحه از صفحات سایت شما به Index اضافه شده است.  این کار اطلاعات خوبی به شما در مورد آنکه Google در حال Crawl کردن و پیدا کردن تمام صفحات شما هست یا نه!

یک راه برای چک کردن صفحات Index شده، این است که در سایت گوگل “Site:yourdomain.com” را تایپ کنید. در صفحه نتایج، گوگل صفحاتی که در Index خود از سایت شما دارد را نمایش می دهد.

SEO آمازون

تعداد نتایجی که گوگل به شما نشان می دهد (“About XX results”) دقیق نیست ولی به شما یک ایده کلی از صفحاتی که در Index گوگل وجود دارد و اینکه چگونه در نتایج جستجو نمایش داده می شوند می دهد.

برای نتایج دقیق تر شما می توانید از گزارش Coverage درGoogle Search Console استفاده کنید. شما می توانید به صورت رایگان در Google Search Console عضو شوید. با این ابزار شما می توانید یک Sitemap برای سایت خود مشخص کنید و به طور دقیق بر تعداد صفحاتی که به Index اضافه شده اند نظارت کنید.

اگر سایت شما در نتایج جستجو نشان داده نمی شود، چند دلیل احتمالی وجود دارد:

  •       سایت شما جدید است و هنوز Crawl نشده است.
  •       سایت شما از طریق هیچ سایت دیگری لینک نشده است.
  •       مسیریابی سایت (Site Navigation) شما برای ربات های Crawler ساخته نشده است.
  •       سایت شما دارای کد نویسی به نام Crawler Directive است که دسترسی موتور های جستجو را مسدود می کند.
  •       سایت شما توسط گوگل به دلیل استفاده از روش های اسپم جریمه شده است.

بیشتر مردم درباره ی این که گوگل بتواند به سایت آن ها دسترسی پیدا کنند فکر می کنند، ولی این امر که بعضی صفحات در سایت آن ها وجود دارد که نباید توسط Googlebot ها پیدا شود. این صفحات می تواند شامل صفحات قدیمی، صفحات تکراری (همانند فیلترها) و یا صفحات تست.  برای اینکه Googlebot ها را از برخی صفحات خود دور کنید از robots.txt استفاده کنید.

Robots.txt

Robots.txt ها در شاخه ریشه ای سایت قرار میگیرند (مثال: yourdomain.com/robots.txt) و قسمت هایی که موتور های جستجو نباید به آنها دسترسی پیدا کنند و قسمت هایی که باید به آن دسترسی پیدا کنند را پیشنهاد می دهد.

Googlebot چگونه با فایل های robots.txt برخورد می کند؟

  •       اگر Googlebot نتواند فایل robots.txt را پیدا کند به Crawl کردن سایت ادامه می دهد.
  •       اگر Googlebot فایل robots.txt را پیدا کند، معمولا از روی پیشنهادات به Crawl کردن ادامه می دهد.
  •   اگر Googlebot در پیدا کردن فایل robots.txt به مشکل بر بخورد و یا با اخطاری مواجه شود به کل از Crawl کردن سایت دست برمی دارد.

همه ی ربات های وب به پیشنهادات robot.txt عمل نمی کنند. برخی افراد که مقاصد بدی دارند، ربات های طراحی می کنند که از این پروتکل پیروی نمی کنند. در واقع برخی از این افراد ربات هایی می سازند که از robots.txt سواستفاده می کنند و اطلاعات شخصی شما را به دست می آورند. برای اینکه از این اتفاقات جلوگیری کرد بهتر است که صفحات Login و Administration ها را در robots.txt قرار نداد و آن ها را جزو پیج های NoIndex قرار دهیم تا امنیتشان بیشتر شود.

معرفی پارامتر های URL در GSC

برخی از سایت ها یک محتوا را با افزودن پارامتر های خاصی به URLs، در چند URL مختلف قرار می دهند. اگر تا به حال خرید آنلاین انجام داده باشید، جستجوی خود را با استفاده از فیلتر های مختلف دقیق تر کرده اید. برای مثال ممکن است شما به دنبال “کفش” در دیجی کالا بگردید و سپس جستجوی خود را با نظر بر اندازه، رنگ و مدل آن اصلاح کنید. هر دفعه که شما از فیلتری استفاده می کنید URL تغییر کوچکی می کند.

https://www.example.com/products/women/dresses/green.htmhttps://www.example.com/products/women?category=dresses&color=greenhttps://example.com/shopindex.php?product_id=32&highlight=green+dress&cat_id=1&sessionid=123$affid=43

گوگل چگونه می داند که کدام نسخه از URL را به جستجو کنندگان نشان دهد؟ گوگل در شناخت URL نماینده (Representative URL) کار خود را به خوبی بلد است ولی شما می توانید از قابلیت URL Parameters در Google Search Console استفاده کنید تا به گوگل بگویید که دقیقا چطور می خواهید که با هر صفحه شما برخورد شود. اگر شما از این ویژگی استفاده کنید تا به گوگل بگویید که کدام URL را Crawl نکند، این حرکت به این معناست که شما محتوای داخل این URL را از Googlebot ها مخفی می کنید، که این امر باعث پاک شدن صفحه ذکر شده از نتایج جستجو می شود. این کار باید زمانی صورت بگیرد که شما می خواهید صفحاتی که تکرار شده اند قابل Index نباشند.

آیا Crawler ها می توانند تمام محتوای مهم شما را پیدا کنند؟

حالا که می دانید چگونه محتوای بی اهمیت خود را از موتورهای جستجو پنهان کنید، بیایید درباره تنظیماتی صحبت کنیم که به Googlebot ها اجازه می دهد صفحات مهم شما را پیدا کند تا امتیاز سئو ی سایت شما را بالا ببرد.

بیشتر وقت ها موتور های جستجو می توانند قسمت های مختلف سایت شما را با Crawl کردن پیدا کنند، ولی ممکن است که بعضی بخش ها به خاطر دلایلی قابل دسترسی نباشند. این موضوع که موتورهای جستجو بتوانند به کل صفحات مهم شما (نه فقط صفحه اصلی) دسترسی پیدا کنند بسیار مهم است.

از خودتان بپرسید: آیا ربات ها می توانند درون سایت شما Crawl کند، نه اینکه که فقط وارد آن شود!؟

آیا محتوای شما پشت فرم های ثبت نام پنهان شده است؟

اگر محتوایی که شما ارائه می کنید نیاز به ثبت نام کردن کاربر دارد، موتور های جستجو نمی توانند به آنها دسترسی پیدا کنند. قاعدتا یک Crawler در سایت شما ثبت نام نخواهد کرد.

آیا شما به پنل های جستجو تکیه کرده اید؟

ربات ها نمی توانند از پنل های جستجو استفاده کنند. بعضی از افراد فکر می کنند که اگر در سایت خود از Search Box استفاده کنند، موتور های جستجو می توانند از جستجو هایی که کاربران در سایت انجام می دهند به اطلاعات دسترسی پیدا کنند.

آیا متن استفاده شده در محتوای بدون متن (عکس) پنهان است؟

هیچگاه نباید از فرمت های بدون متن مانند عکس، ویدیو، GIF و غیره برای نشان دادن متن هایی که می خواهید Index شوند استفاده کنید. با این حال که موتور های جستجو در شناسایی تصاویر پیشرفت کرده اند، باز هم نمی توان به قطع گفت که آن ها می توانند نوشته داخل یک تصویر را بخوانند و درک کنند. بهترین کار این است که متن مورد نظر را در <HTML> سایت خود قرار دهید.

آیا موتور های جستجو می توانند مسیردهی سایت (Site Navigation) شما را دنبال کنند؟

همانطور که یک Crawler برای پیدا کردن سایت شما از لینک های خارجی سایت های دیگر استفاده می کند، برای گشتن درون سایت شما نیز نیاز به لینک های داخلی دارد که این امر یکی از حیاتی ترین مباحث سئو می باشد. اگر شما صفحه ای دارید که می خواهید موتور های جستجو آن را پیدا کند ولی هیچ لینکی از صفحات دیگر به صفحه ذکر شده وجود ندارد، آن صفحه در واقع نامرئی است. بعضی از سایت ها، ساختار خود را به اشتباه طوری طراحی می کنند که دسترسی موتور های جستجو به صفحات غیر ممکن می شود، و در نتیجه در SERP قرار نمی گیرند.

SEO

اشتباهات رایجی که از بازدید Crawler ها در تمام سایت شما جلوگیری می کند:

  •       داشتن مسیردهی موبایلی (Mobile Navigation) که نتایج آن با مسیردهی دسکتاپ (Desktop Navigation) متفاوت است.
  •       هر مدل از مسیردهی که مواردی که در منو وجود دارند در HTML قرار نمی گیرند، همانند کد ها JavaScript. گوگل Crawl کردن کدهای JavaScript بهتر شده است، اما هنوز روند کاملی نیست. روش مطمئن تر برای اطمینان از یافتن، درک و Crawl کردن چیزی توسط گوگل، قرار دادن آن ها در کد HTML است.
  •       شخصی سازی یا نوعی مسیردهی خاص که برای کاربران مختلف فرق دارد، می تواند جلوی دید یک Crawler را بگیرد.
  •       فراموش کردن گذاشتن یک لینک به صفحه اصلی سایت خودتان؛ یادتان باشد که Crawler ها از طریق لینک به صفحات مختلف دسترسی پیدا می کنند.

این توضیحات اهمیت داشتن یک Site Navigation خوب را یادآوری می کند.

آیا شما یک معماری اطلاعاتی تمیز دارید؟

معماری اطلاعات به سازماندهی و برچسب زدن بر روی محتوا در یک سایت می گویند که کارایی و قابل دسترسی بودن را برای کاربران بهبود می بخشد. بهترین نوع معماری اطلاعات غریزی است، به این معنی که کاربری که در سایت در حال گشت زدن است برای پیدا کردن محتوای مورد نظر خود به فکر کردن زیاد احتیاج نداشته باشد.

آیا از نقشه سایت (Sitemap) استفاده می کنید؟

یک نقشه سایت دقیقا به معنای اسمش است: یک لیست از URL های سایت شما که Crawler با استفاده از آن می توانند محتویات شما را Index کنند. یکی از راحت ترین راه هایی که شما می تواند از طریق آن متوجه شوید که گوگل صفحات مهم شما را پیدا می کند این است که یک فایل با استاندارد های گوگل بسازید و در Google Search Console ثبت کنید. در حالی که یک نقشه سایت جایگزین یک مسیر دهی خوب نیست ولی قطعا می تواند به Crawler ها کمک کند که تمامی صفحات مهم شما را پیدا کنند.

آیا Crawler ها در دسترسی به URL ها با اخطار روبرو می شوند؟

در فرآیند Crawl شدن URL ها بر روی سایت شما، Crawler ها ممکن است با اخطار مواجه شوند. شما می توانید در بخش Crawl Errors در Google Search Console گزارشی بابت اینکه کدام URL موجب این اخطار شده است را ببینید.

فایل های ورود به سیستم سرور همچنین می توانند این مورد را به شما نشان دهند و همچنین گنجینه ای از اطلاعات دیگر مانند فرکانس Crawl نیز نشان دهند، اما از آنجا که دسترسی و کالبد شکافی فایل های وارد شده به سیستم سرور یک روش پیشرفته تر به حساب میاید، ما در راهنمای سئو مبتدی خود خیلی به آن اشاره نخواهیم کرد.

قبل از این که بتوانید با گزارش خطای crawl کار معناداری انجام دهید، درک این که خطا های سرور و خطا های “پیدا نشده” چیستند، مهم است.

کدهای ۴xx: وقتی crawler های موتور جستجو به دلیل خطای کاربری نمی توانند به محتوای شما دسترسی پیدا کنند.

خطا های ۴xx خطا های کلاینت هستند، به این معنی که URL درخواستی حاوی سینتکس نامناسبی است. یکی از رایج ترین خطا های ۴xx خطای “۴۰۴ – یافت نشد” است. به عنوان مثال این موارد ممکن است به دلیل اشتباه تایپی در URL پیش بیاید یا صفحه ای حذف شده یا به غلط هدایت شده باشد. وقتی موتور های جستجو ۴۰۴ را بزنند یعنی نمی توانند به URL دسترسی پیدا کنند. وقتی کاربران به ۴۰۴ برخورد می کنند، معمولا نا امید شده و سایت شما را ترک می کنند.

کدهای ۵xx: وقتی crawler های موتور جستجو به دلیل خطای سروری نمی توانند به محتوای شما دسترسی پیدا کنند.

خطا های ۵xx خطا های سرور هستند که به این معنی می باشند که سروری که صفحه وب در آن قرار دارد نتوانسته درخواست جستجوگر و یا موتور جستجو را برای دسترسی به صفحه، برآورده کند. در گزارش “خطای Crawl” کنسول جستجوی Google، یک تب اختصاصی وجود دارد که برای این گونه خطا ها استفاده می شود. این موارد معمولاً به این دلیل اتفاق می افتند که درخواست URL به پایان رسیده است، بنابراین Googlebot درخواست را رد می کند. برای کسب اطلاعات بیشتر در مورد رفع مشکلات اتصال سرور، داکیومنت های Google را مشاهده کنید.

خوشبختانه، راهی وجود دارد که به جستجوگران و موتورهای جستجو می گوید که صفحه شما انتقال پیدا کرده است – هدایت ۳۰۱ (دائمی).

فرص کنید که یک صفحه را از example.com/young-dogs/ به example.com/puppies/ منتقل می کنید. موتور های جستجو و کاربران برای عبور از URL قدیمی به جدید، به یک پل نیاز دارند. آن پل ارتباطی، یک تغییر مسیر ۳۰۱ به حساب میاید.

وقتی ۳۰۱ را اجرا می کنید: وقتی ۳۰۱ را اجرا نمی کنید:
ارزش لینک ها ارزش لینک ها را از صفحه قدیمی به صفحه URL جدید انتقال می دهد. بدون ۳۰۱ ، ارزش لینک ها از URL قبلی به نسخه جدید URL منتقل نمی شود.
ایندکس کردن به Google کمک می کند نسخه جدید صفحه را پیدا و ایندکس کند. وجود خطا ۴۰۴ در سایت شما به تنهایی به عملکرد جستجو آسیب نمی رساند، اما اجازه دادن به رتبه بندی / ترافیک صفحات ۴۰۴ می تواند منجر به خارج شدن آنها از ایندکس شدن شود و رتبه بندی و ترافیک با آنها از بین می رود.
تجربه کاربر اطمینان می دهد کاربران صفحه مورد نظر خود را پیدا می کنند. اجازه دادن به بازدیدکنندگان خود برای کلیک بر روی پیوند هایی که دیگر وجود ندارند، آنها را به صفحات خطا به جای صفحه مورد نظر هدایت می کند، که بسیار نا امید کننده برای مخاطب می باشد.

 

کد وضعیت ۳۰۱ خود به این معنی است که صفحه به طور دائمی به مکان جدیدی منتقل شده است، کد وضعیت ۳۰۱ خود به این معنی است که صفحه به طور دائمی به مکان جدیدی منتقل شده است ، بنابراین از هدایت (ری دایرکت) URL ها به صفحات بی ربط خود داری کنید. اگر صفحه ای برای یک درخواست خاصی در رتبه بندی قرار بگیرد و شما آن را به یک URL با محتوای متفاوت ۳۰۱ تبدیل کنید، ممکن است رتبه اش افت کند زیرا محتوایی که این صفحه را به آن درخواست خاص مربوط می کند دیگر وجود ندارد. ۳۰۱ ها قدرتمند هستند – با دقت URL ها را انتقال دهید!

همچنین شما می توانید ری دایرکت ۳۰۲ یک صفحه را هدایت کنید، اما این باید برای حرکات موقت باشد و در مواردی انجام شود که در هنگام انتقال صفحه، دقت شود که ارزش لینک ها خیلی نگران کننده نباشد. ۳۰۲ ها به نوعی مانند دور زدن جاده هستند. شما به طور موقت ترافیک را از طریق یک مسیر خاص دور میاندازید، می کنید، اما برای همیشه اینطور نخواهد بود.

پس از اطمینان از بهینه بودن سایت برای قابلیت crawl، هدف بعدی ما این است که مطمئن شویم که index می شویم.

Indexing: موتورهای جستجو چگونه صفحات شما را تفسیر و ذخیره می کنند؟

برای پیشبرد اهداف سئو وبسایت خود، پس از اطمینان از crawl شدن سایت، اطمینان حاصل کنید که ایندکس هم می شوید. این که فقط به این دلیل که سایت شما توسط یک موتور جستجو قابل کشف و crawl است درست است، اما لزوماً به معنای ذخیره شدن و ایندکس شدن آن نمی باشد. در بخش قبلی که مربوط به crawl بود، ما در مورد چگونگی کشف موتورهای جستجو در صفحات وب شما بحث کردیم. ایندکس محلی است که صفحات کشف شده شما در آن ذخیره می شود. پس از اینکه crawler صفحه ای را پیدا کرد، موتور جستجو آن را دقیقاً مانند یک مرورگر تصور می کند. در ادامه روند انجام این کار، موتور جستجو محتویات آن صفحه را تجزیه و تحلیل می کند. همه این اطلاعات در ایندکس آن ذخیره می شود.

حال برای کسب اطلاعات در مورد نحوه کارکرد ایندکس و اینکه چگونه می توانید سایت خود را به این پایگاه دیتا مهم تبدیل کنید، ادامه مطلب را بخوانید.

یک Googlebot crawler چگونه صفحه های من را بررسی می کند؟

جواب کوتاه آن بله می باشد. نسخه پنهان شده صفحه شما عکس آخرین باری که Googlebot آن را crawl کرده است را منعکس می کند.

Google صفحات وب را با فرکانس های مختلف crawl و index می کند. سایت های معروف و شناخته شده مانند https://www.nytimes.com زود به زود crawl می شوند، یعنی بیشتر از وب سایت های نا معروف.

با کلیک روی پونتر (نشانگر) کشویی کنار URL در SERP و انتخاب “Cached” می توانید شکل پنهان شده یک صفحه ( ورژن  cached) را ببینید.

همچنین می توانید نسخه text-only سایت خود را نیز مشاهده کنید تا تعیین کنید آیا محتوای مهم شما به طور موثری crawl و index می شوند یا خیر.

آیا ممکن است صفحات از ایندکس حذف شوند؟

بله ، صفحات را ممکت است از ایندکس حذف شوند! برخی از دلایل اصلی حذف یک URL ممکن است شامل موارد زیر باشد:

  • اگر URL خطای “پیدا نشد” (۴XX) یا خطای سروری (۵XX) را نشان می دهد، می تواند تصادفی باشد ( یعنی یا صفحه منتقل شده است و یا تغییر مسیر ۳۰۱ تنظیم نشده است ) یا عمدی. (برای حذف صفحه کردن یا ۴۰۴ کردن صفحه بخاطر این که می خواهید از ایندکس حذف شود)
  • URL دارای یک برچسب متنی noindex می باشد. که یعنی این برچسب می تواند توسط مالکان سایت به موتور جستجو اضافه شود تا صفحه را از ایندکس خود حذف کند.
  • URL به دلیل نقض دستورالعملهای وب مستر به صورت دستی جریمه شده است و در نتیجه از ایندکس حذف شده است.
  • قبل ازاین که بازدیدکنندگان بتوانند به صفحه دسترسی پیدا کنند، crawl شدن URL با اضافه شدن رمز عبور مسدود شده باشد.

اگر فکر می کنید صفحه ای در وب سایت شما که قبلا در ایندکس Google بوده است اما دیگر نمایش داده نمی شود، می توانید از ابزار بازرسی URL برای یادگیری وضعیت صفحه استفاده کنید یا از Fetch as Google که دارای ویژگی “درخواست نمایه سازی” است استفاده کنید برای ارسال URL های جداگانه به ایندکس.

به موتور های جستجو بگویید که چگونه سایت شما را ایندکس کنند

دستورالعمل های Robots meta

دستورالعمل های متا (یا “برچسب های متا”) دستورالعمل هایی هستند که می توانید در مورد نحوه چگونگی رفتار صفحه وب خود به موتور های جستجو ارائه دهید.

می توانید به کراولر های موتور جستجو مواردی مانند “این صفحه را در نتایج جستجو ایندکس نکنید” یا “هیچ یک از ارزش لینک ها را به هیچ لینک روی صفحه منتقل نکنید” را دستور دهید. این دستورالعمل ها از طریق Robots Meta Tags در <head> صفحات HTML شما (که بیشتر مورد استفاده قرار می گیرد) یا از طریق X-Robots-Tag در هدر HTTP اجرا می شوند.

Robots meta tag

متا تگ ربات ها می توانند در <head> HTML صفحه وب شما استفاده شوند. این مسئله می تواند تمامی موتور های جستجوی یا موتور های جستجوی خاص را حذف کند. موارد زیر متداول ترین دستورالعمل های متا هستند، همراه با اینکه در چه موقعیت هایی می خواهید آن ها را اعمال کنید.

index / noindex به موتور های جستجو می گویند که آیا صفحه باید کراول شود و برای بازیابی در ایندکس موتور های جستجو نگهداری شود یا خیر. اگر استفاده از “noindex” را انتخاب کنید، در واقع با کراولر هایی که می خواهید صفحه از نتایج جستجو حذف شود ارتباط برقرار می کنید. به طور پیش فرض، موتور های جستجو تصور می کنند که می توانند همه صفحات را ایندکس کنند، بنابراین استفاده از ارزش “index” غیر ضروری است.

  • چه زمانی ممکن است استفاده کنید: اگر می خواهید پس از انتخاب یک صفحه خود آن را noindex کنید؛ این بدین معناست که قصد دارید صفحات کمتری از سایت شما توسط گوگل ایندکس شود (به عنوان مثال: صفحات نمایه ایجاد شده توسط کاربر)، پس ممکن است یک صفحه را به عنوان “noindex” علامت گذاری کنید.

follow / nofollow به موتور های جستجو می گوید که آیا لینک های صفحه باید دنبال شوند یا خیر. “follow” منجر به این می شود که ربات ها  لینک های صفحه خود را دنبال کنند و ارزش لینک را از طریق آن به URL ها منتقل کنند. اما اگر “nofollow” را انتخاب کنید، موتور های جستجو هیچ یک از ارزش لینک ها را به لینک های صفحه follow نمی کنند یا منتقل نمی کنند. به طور پیش فرض، همه صفحات دارای ویژگی “follow” هستند.

  • چه زمانی ممکن است استفاده کنید: nofollow معمولاً همراه با noindex هنگامی که می خواهید صفحه ای ایندکس نشود و همچنین کراولر از لینک های موجود در صفحه جلوگیری کند، استفاده می شود.

noarchive برای محدود کردن موتور های جستجو در زمینه cached copy شده از صفحه استفاده می شود. به طور پیش فرض، موتور ها نسخه های قابل مشاهده از تمام صفحاتی را که نمایه سازی کرده اند، برای جستجوگران از طریق پیوند cached در نتایج جستجو حفظ می کنند.

  • چه زمانی ممکن است استفاده کنید: اگر سایتی برای تجارت الکترونیکی در دست توسعه دارید و قیمت های شما مرتباً تغییر می کند، می توانید از برچسب noarchive استفاده کنید تا از مشاهده قیمت های منسوخ شده توسط جستجوگران جلوگیری شود.

در اینجا مثالی از برچسب های متفرقه noindex ، nofollow وجود دارد:

<!DOCTYPE html><html><head><meta name="robots" content="noindex, nofollow" /></head><body>...</body></html>

این مثال کلیه موتور های جستجو را از نمایه سازی صفحه و پیروی از لینک های داخل صفحه مستثنی می سازد. اگر می خواهید چندین کراولر، مثل googlebot و bing را حذف کنید، استفاده از چندین برچسب ربات به طور همزمان مشکلی ندارد.

X-Robots-Tag

برچسب x-robots در عنوان HTTP در URL شما مورد استفاده قرار می گیرد، در صورتی که می خواهید موتور های جستجو را در مقیاس زیاد مسدود کنید، از انعطاف پذیری و عملکرد بیشتری نسبت به برچسب های متا برخوردار هستید زیرا می توانید از عبارات منظم استفاده کنید، فایل های غیر HTML را مسدود کرده و برچسب های noindex را در sitewide خود اعمال کنید.

به عنوان مثال، می توانید به راحتی کل داکیومنت ها یا انواع فایل ها را حذف کنید (مانند moz.com/no-bake/old-recipes-to-noindex):

<Files ~ “\/?no\-bake\/.*”> Header set X-Robots-Tag “noindex, nofollow”</Files>

یا انواع فایل های خاص (مانند PDF):

<Files ~ “\.pdf$”> Header set X-Robots-Tag “noindex, nofollow”</Files>

 

نکته‌ی وردپرسی


در داشبورد > تنظیمات > خواندن، مطمئن شوید قسمت “نمایش به موتورهای جستجو” تیک نخورده باشد، این قسمت دسترسی موتورهای جستجو به سایت شما را می بندد!

درک راه های مختلفی که می تواند بر روی کراول شدن و نمایه سازی تأثیر بگذارد، به شما کمک می کند تا از دام های متداولی که می تواند از یافتن صفحات مهم شما جلوگیری کند؛ شما از آن جلوگیری کنید!

رتبه بندی: موتور های جستجو چگونه URL ها را رتبه بندی می کنند؟

چگونه موتور های جستجو اطمینان می یابند که وقتی شخصی سوالی را در نوار جستجو تایپ می کند، در ازای آن نتایج مربوطه را بدست می آورند؟ این فرآیند به عنوان رتبه بندی یا ترتیب نتایج جستجو توسط موردی که بیشترین ارتباط را دارد، به موردی که کمترین ارتباط را دارا می باشد، به یک پرسش خاص شناخته می شود.

آموزش سئو

برای تعیین نوع ارتباط، موتور های جستجو از الگوریتم ها، فرایند یا فرمولی استفاده می کنند که اطلاعات ذخیره شده را به روش های معنی دار بازیابی و مرتب می کند. این الگوریتم ها برای بهبود کیفیت نتایج جستجو در طول سال ها تغییرات زیادی را تجربه کرده اند. به عنوان مثال Google هر روزه تنظیمات الگوریتم را دوباره انجام می دهد – برخی از این به روزرسانی ها اصلاحات با کیفیت جزئی هستند، در حالی که برخی دیگر از این به روزرسانی های اصلی الگوریتم هستند که برای حل یک مسئله خاص استفاده شده اند، مانند Penguin در خصوص برخوردش با لینک ها.

چرا الگوریتم ها اغلب تغییر می کنند؟ آیا گوگل فقط قصد در این دارد که ما را لبه ی تیغ نگه دارد؟ Google هیچ وقت در مورد چرایی انجام کارهایی که انجام می دهند، توضیحی نمی دهد، اما ما می دانیم که هدف Google هنگام دوباره انجام تنظیمات الگوریتم، بهبود کیفیت کلی جستجو است. به همین دلیل است که در پاسخ به سوالات به روزرسانی الگوریتم، Google معمولا با مواردی همچون حرف های زیر پاسخ می دهد:

“ما دائماً در حال به روزرسانی با کیفیت هستیم.”

این نشان می دهد که اگر سایت شما پس از تنظیم دوباره الگوریتم ها در رتبه اش افتی مشاهده کند، باید آن را با  Google’s Quality Guidelines یا  Search Quality Rater Guidelines مقایسه کنید. هر دو از نظر موتور های جستجو بسیار مفید هستند.

موتورهای جستجو چه می خواهند؟

موتور های جستجو همیشه به دنبال یک مسئله بوده اند: ارائه پاسخ مفید به سوالات جستجوگر در مفید ترین قالب ممکن. اگر این درست باشد، پس چرا اکنون به نظر می رسد که سئو با سال های گذشته متفاوت تر است؟

به این مسئله از این دید نگاه کنید که مثلا کسی می خواهد زبان جدیدی یاد بگیرد.

در ابتدا، درک آنها از زبان بسیار ابتدایی است. با گذشت زمان، درک آنها شروع به پیشرفت می کند و آن ها معنا شناسی را می آموزند و معنای پشت زبان و رابطه بین کلمات و عبارات را شروع به درک می کنند. سرانجام، با تمرین و تکرار به اندازه کافی، دانش آموز زبان را به اندازه کافی می شناسد تا حتی تفاوت های جزئی را نیز شروع به درک کند و قادر به پاسخگویی به سوالات حتی مبهم یا ناقص نیز می شود.

هنگامی که موتور های جستجو تازه شروع به یادگیری زبان ما می کنند، استفاده از این سیستم با استفاده از ترفند ها و تاکتیک هایی که در واقع مغایر با دستورالعمل های کیفیت هستند، بسیار آسان تر می شود. برای مثال پر کردن متن با استفاده از کلمات کلیدی را در نظر بگیرید. اگر می خواهید برای یک کلمه کلیدی خاص مانند “جوک های خنده دار” در رتبه بندی قرار بگیرید، ممکن است چندین بار کلمات “جوک های خنده دار” را به صفحه خود اضافه کنید و آن را پررنگ کنید، به این امید که رتبه خود را برای این مدتی افزایش دهید.

این تاکتیک باعث ایجاد تجربه های وحشتناک برای کاربران می شود و مردم به جای خندیدن به شوخی های خنده دار، با متنی آزار دهنده و و غیر قابل خوانایی بمباران می شوند. ممکن است در گذشته کارساز بوده باشد، اما این هیچوقت آن چیزی نبوده که موتور های جستجو بخواهند.

نقشی که لینک ها در سئو بازی می کنند

وقتی ما در مورد لینک ها صحبت می کنیم، می توانیم دو معنی به شما برسانیم. بک لینک یا “لینک های ورودی” لینک هایی از وب سایت های دیگر هستند که به وب سایت شما اشاره می کنند، در حالی که لینک های داخلی لینک هایی هستند که در سایت خود شما می باشند که به صفحات دیگر خود شما نشان می دهند (منظور در همان سایت خودتان می باشد).

سئو سایت

 

لینک ها در طول تاریخ، نقش زیادی در سئو داشته اند. خیلی زود، موتور های جستجو برای تعیین اینکه کدام URL ها بیشتر از سایرین قابل اعتماد هستند، برای کمک به آن ها در تعیین نحوه رتبه بندی نتایج جستجو به کمک نیاز داشتند. محاسبه تعداد لینک هایی که به هر سایت داده شده به آن ها کمک می کند تا از پس چنین کار هایی بر بیایند.

بک لینک ها کاملاً مشابه ارجاعات کلام دهان در زندگی واقعی هستند. بیایید یک کافی شاپی را فرض کنیم، برای مثال لمیز:

  • مراجعه به دیگران = نشانه خوب اقتدار

مثال: افراد مختلف همه به شما گفته اند که قهوه لمیز بهترین در شهر است!

  • مراجعه از طرف خودتان = جهت دهی شده می باشد، بنابراین نشانه خوبی از اقتدار نیست

مثال: خود لمیز ادعا می کند که قهوه لمیز بهترین در شهر است!

  • مراجعه از منابع بی ربط یا بی کیفیت = نشانه خوبی از اقتدار نیست و حتی می تواند شما را به در لیست سیاه گوگل قرار بدهد

مثال: لمیز پول داده است تا افرادی که هرگز به کافی شاپ وی مراجعه نکرده اند به دیگران بگویند که چقدر خوب است!

  • عدم مراجعه = مرجع نامشخص

مثال: قهوه لمیز ممکن است خوب باشد، اما شما نتوانسته اید کسی را برای تست کردن به کافی شاپ خود بیاورید، بنابراین نتیجه ای نمی بینید.

به همین دلیل PageRank ایجاد شده است. PageRank (بخشی از الگوریتم اصلی گوگل) یک الگوریتم تجزیه و تحلیل لینک است که به نام یکی از بنیانگذاران گوگل، لری پیج نامگذاری شده است. PageRank اهمیت صفحه وب را با اندازه گیری کیفیت و کمیت لینک های اشاره به آن تخمین می زند. فرض این است که هر چقدر یک صفحه وب مرتبط، مهم و قابل اعتماد باشد، لینک های بیشتری کسب می کند.

هر چه بک لینک طبیعی بیشتری از وب سایت های دارای اقتدار بالا (قابل اعتماد) داشته باشید، شانس شما برای کسب رتبه بالاتر در نتایج جستجو، بیشتر می شود.

نقشی که محتوا در سئو دارد

اگر جستجوگران دنبال “چیز خاصی” نبودند که آن ها را به سمت اینترنت سوق دهند، دیگر هیچ دلیلی برای وجود لینک ها نبود. این “چیز خاص” همان محتواست! مطالب فراتر از کلمات خالی می باشند. این شامل هر چیزی می شود که توسط جستجوگران سرچ می شود و مورد استفاده قرار می گیرد؛ برای مثال محتوای ویدیویی، محتوای تصویری و صد البته خود متن! اگر موتور های جستجوگر را ماشین های پاسخگو فرض کنیم، “محتوا” سوختی است که موتور ها را به کار می اندازد تا جواب جستجوگران را بدهد.

هر زمان کسی یک جستجو انجام می دهد، هزاران نتیجه ممکن است اتفاق بیفتد، بنابراین چگونه موتور های جستجو تصمیم می گیرند که کدام صفحه هایی که جستجوگر می خواهد با ارزش است؟ بخش عمده ای از تعیین رتبه بندی صفحه شما برای یک درخواست مشخص این است که محتوای صفحه شما با هدف پرسش مطابقت داشته باشد. به عبارت دیگر، آیا این صفحه با کلماتی که جستجو شده مطابقت دارد و به تحقق هدف جستجوگر در تلاش برای انجام کار خود کمک می کند؟

به دلیل تمرکز بر رضایت کاربر و انجام وظیفه، هیچ معیار دقیقی در مورد بلندی محتوای شما، این که چند بار حاوی کلمه کلیدی باشد یا آنچه در تگ های هِدر خود قرار می دهید وجود ندارد. همه ی این موارد می توانند در عملکرد صفحه در موتور جستجو نقش داشته باشند، اما تمرکز باید بر روی کاربرانی باشد که این مطالب را می خوانند.

امروزه، با صد ها یا حتی هزاران نکات مختلف برای رتبه بندی، سه موضوع اصلی تقریبا ثابت مانده اند که: لینک هایی که به وب سایت شما داده می شود (که به عنوان سیگنال های اعتبار شخص ثالث عمل می کنند)، محتوای درون صفحه (محتوای با کیفیتی که هدف جستجوگر را برآورده می کند) و RankBrain.

RankBrain چیست؟

RankBrain در واقع machine learning اصلی الگوریتم Google می باشد. machine learning یک برنامه کامپیوتری می باشد که با مرور زمان و از طریق مشاهدات جدید و داده های آموزشی، به پیش بینی های خود پیشرفت می دهد. به عبارت دیگر، این ماشین همیشه در حال یادگیری است و از آنجا که همیشه یاد می گیرد، نتایج جستجو باید دائماً در حال بهبود باشند.

به عنوان مثال، اگر RankBrain متوجه یک URL با رتبه پایین تر شود که نتیجه بهتری نسبت به URL با رتبه بالاتر به کاربران ارائه می دهد، قطعا RankBrain این نتایج را دوباره از نو تنظیم می کند، نتیجه مرتبط تر را بالاتر می برد و صفحات کمتر مرتبط را به عنوان یک نمونه فرعی پایین می آورد.

seo سایت

 

مانند اکثر موارد درباره موتور جستجو، ما دقیقاً نمی دانیم که RankBrain از چه چیز هایی تشکیل شده است، اما با توجه به سطح امروزی RankBrain ظاهراً حتی خود افراد Google نیز نمی دانند!

این برای سئوکاران به چه معناست؟

از آن جا که گوگل استفاده از RankBrain را برای ارتقا محتوا هایی که مرتبط ترین و مفید ترین مطالب را ارائه می دهند، ادامه خواهد داد، بنابراین ما باید بیش از گذشته بر تحقق هدف جستجوگر تمرکز کنیم. پس بهترین اطلاعات و تجربه ممکن را برای جستجوگرانی که ممکن است به صفحه شما بیایند فراهم کنید. با انجام این کار، شما اولین قدم بزرگ برای عملکرد خوب در دنیای RankBrain را برداشته اید.

معیار های تعامل: همبستگی، علیت یا هر دو؟

با رتبه بندی Google، معیار های تعامل به احتمال زیاد بخشی از همبستگی و بخشی از علیت است.

وقتی می گوییم معیار های تعامل، منظور ما داده هایی است که نحوه تعامل جستجوگران با سایت شما را از نتایج جستجو نشان می دهد. این مسائل شامل موارد زیر می شود:

  • کلیک (بازدید از جستجو)
  • زمان در صفحه (مدت زمانی که بازدید کننده قبل از ترک یک صفحه در آن صفحه صرف کرده است)
  • نرخ Bounce (درصد کل session های وب سایت که کاربران فقط یک صفحه را مشاهده می کنند)
  • Pogo-sticking (با کلیک بر روی یک نتیجه ارگانیک و سپس بازگشت سریع به SERP برای انتخاب نتیجه دیگر)

بسیاری از آزمایشات، از جمله نظرسنجی رتبه بندی خود Moz، نشان داده اند که معیار های تعامل با رتبه ی بالاتر ارتباط دارند، اما بحث در مورد علیت به شدت مورد بحث قرار گرفته است. آیا معیار های خوب تعامل فقط نشانگر سایت های دارای رتبه بالا هستند؟ یا این که سایت ها به دلیل دارا بودن معیار های تعامل خوب، رتبه بالایی دارند؟

آنچه گوگل گفته است

در حالی که آنها هرگز از اصطلاح “سیگنال رتبه بندی مستقیم” استفاده نکرده اند، اما گوگل به روشنی گفته است که آن ها کاملاً از داده های هر کلیک برای اصلاح SERP برای درخواست های خاص استفاده می کنند.

طبق گفته مدیر سابق کیفیت جستجوی گوگل، Udi Manber:


خود رتبه بندی تحت تأثیر داده های هر کلیک قرار می گیرد. اگر متوجه شویم که برای یک درخواست خاص، ۸۰٪ از افراد روی شماره ۲ کلیک می کنند و فقط ۱۰٪ از آن ها روی شماره ۱ کلیک می کنند، پس از مدتی فهمیدیم که احتمالاً شماره ۲ همان چیزی است که مردم می خواهند، بنابراین ما آن را تغییر می دهیم.


نظر دیگری بخوانیم از مهندس سابق گوگل ، Edmond Lau ، این مسئله را نیز تأیید می کند:


کاملاً واضح است که هر موتور جستجوی معقولی از داده های هر کلیک بر روی نتایج خود استفاده می کند تا کیفیت نتایج جستجو را بهبود بدهد. فرمول واقعی نحوه استفاده از داده های هر کلیک اغلب اختصاصی است، اما گوگل این نکته را آشکار کرده است که از داده های هر کلیک با حق ثبت اختراع خود در سیستم هایی مانند موارد محتوای تنظیم شده برای رتبه بندی استفاده می کند.


از آن جا که Google نیاز به حفظ و بهبود کیفیت جستجو دارد، اجتناب ناپذیر به نظر می رسد که معیار های تعامل بیش از همبستگی می باشند، اما به نظر می رسد که Google نتواند معیار های تعامل را “سیگنال رتبه بندی” بخواند زیرا این معیار ها برای بهبود کیفیت جستجو استفاده می شود و رتبه بندی نشانی های اینترنتی مجزا فقط یک نتیجه جانبی کنار آن است.

چه آزمایشاتی تایید شده است

آزمایشات مختلف تأیید کرده اند که Google ترتیب SERP را در پاسخ به تعامل جستجوگر تنظیم می کند:

  • آزمون Rand Fishkin در سال ۲۰۱۴ منجر به نتیجه ۷ام شد و پس از اینکه حدود ۲۰۰ نفر را وادار به کلیک بر روی URL از SERP کرد، به رتبع اول ۱ رسید. جالب اینجاست که به نظر می رسد بهبود رتبه بندی در مکان افرادی که از این پیوند بازدید کرده اند جدا شده است. موقعیت رتبه بندی در ایالات متحده، جایی که بسیاری از شرکت کنندگان در آن قرار داشتند، افزایش یافت، در حالی که در صفحهGoogle استرالیا و کانادا و غیره پایین تر بود.
  • به نظر می رسد مقایسه Larry Kim از صفحات برتر و میانگین زمان سکونت آن ها قبل و بعد از RankBrain نشان می دهد که مولفه machine-learning الگوریتم گوگل باعث پایین آمدن رتبه صفحات می شود که مردم خیلی زمان صرف آن ها نمی کنند.
  • آزمایش Darren Shaw تأثیر رفتار کاربر بر جستجوی محلی و نتایج بسته به نقشه را نیز نشان داده است.

از آن جا که معیار های تعامل کاربر به وضوح برای تنظیم SERP ها برای کیفیت و رتبه بندی تغییرات به عنوان یک نمونه جانبی استفاده می شود، به راحتی می توان گفت که سئو هایی که انجام می شود باید برای تعامل بهینه سازی شوند. تعامل کیفیت عینی، صفحه وب شما را تغییر نمی دهد، بلکه ارزش شما را برای جستجوگران نسبت به نتایج دیگر آن درخواست تغییر می دهد. به همین دلیل، اگر رفتار جستجوگران نشان دهد که صفحات دیگر را بیشتر دوست دارند، یعنی زمانش رسیده که شما در محتوا و لینک بندی های خود تجدید نظر کنید.

از نظر رتبه بندی صفحات وب، معیار های تعامل در واقع همانند یک حقیقت سنج عمل می کنند. فاکتور های عینی مانند لینک ها و محتوا ابتدا صفحه را رتبه بندی می کنند، سپس معیار های تعامل به Google کمک می کنند تا اگر رتبه را به درستی انتخاب نکرده اند، آن را اصلاح کنند.

سیر تحول نتایج جستجو

وقتی موتور های جستجو شبیه به امروزه از پیچیدگی های بسیاری برخوردار نبودند، اصطلاح “۱۰ لینک آبی” برای توصیف ساختار ساده SERP ابداع شد. هر زمان جستجو انجام می شد، Google صفحه ای با ۱۰ نتیجه ارگانیک، هر کدام با همان قالب، باز می گرداند.

آموزش سئو

 

در این چشم انداز جستجو، نگه داشتن رتبه ۱ مهمترین مسئله در سئو بود. اما بعد اتفاقی افتاد… گوگل شروع به افزودن نتایج در قالب های جدید در صفحات نتایج جستجو خود، به نام ویژگی های SERP کرد. برخی از این ویژگی های SERP عبارتند از:

  • تبلیغات پولی
  • Snippet های ویژه
  • باکس های People Also Ask
  • پک محلی (نقشه)
  • پنل دانش
  • لینک های سایت

و گوگل همچنان در حال اضافه کردن موارد جدید تری نیز است. آن ها حتی “SERP های با نتیجه صفر” را نیز تجربه کردند، پدیده ای که فقط یک نتیجه را از نمودار دانش در SERP نمایش می دهد و هیچ نتیجه ای در زیر آن مشاهده نمی شود! البته جز گزینه “مشاهده نتایج بیشتر”.

اضافه شدن این ویژگی ها باعث ایجاد وحشت اولیه به دو دلیل عمده می شود. برای اولین بار، بسیاری از این ویژگی ها باعث شد نتایج ارگانیک بیشتر بر روی SERP پایین بیایند. نمونه جانبی دیگر نیز این بود که تعداد کمتری جستجوگر بر روی نتایج ارگانیک کلیک می کنند، زیرا پرسش ها اغلب در خود SERP پاسخ داده می شد.

پس چرا اصلا گوگل این کار ها را انجام می دهد؟ همه چیز به تجربه جستجوگر بر می گردد. رفتار کاربر نشان می دهد که برخی از درخواست ها با قالب های مختلف محتوایی بهتر برآورده می شوند. توجه کنید که چگونه انواع مختلف ویژگی های SERP با انواع مختلف اهداف پرسش های خود شما مطابقت دارند!

  • ویژگی خاص SERP که پاسخگوی آن نیاز است
  • Snippet های ویژه
  • نمودار دانش / پاسخ های فوری
  • پک نقشه ها
  • خرید کردن
  • قصد سرچ
  • معلوماتی
  • معلوماتی با یک پاسخ مشخص
  • محلی
  • معاملاتی

ما در فصل ۳ بیشتر در مورد “قصد کردن” صحبت خواهیم کرد، اما در حال حاضر، مهم است که بدانیم پاسخ ها می توانند با طیف گسترده ای از قالب های مختلف به جستجوگران برسند و اینکه چگونگی ساختار دادن شما به محتوایتان می تواند بر قالبی که در جستجو ظاهر می شود تأثیر بگذارد.

جستجوی محلی

یک موتور جستجو همانند Google دارای فهرست اختصاصی لیست های مشاغل محلی است که از آن نتایج، جستجوی محلی را ایجاد می کند.

اگر در حال انجام کار های محلی سئو برای مشاغلی هستید که مکان فیزیکی دارند، مشتریان می توانند به آن مراجعه کنند (به عنوان مثال: مطب دندانپزشکی) یا برای مشاغلی که برای بازدید از مشتریان خود پیش آن ها می روند (به عنوان مثال: لوله کش)، پس حتما مطمئن شوید که موقعیت کسب و کار شما در گوگل ثبت، تایید و بهینه سازی شده است.

وقتی صحبت از نتایج جستجوی محلی می شود، Google از سه فاکتور اصلی برای تعیین رتبه استفاده می کند:

  1. ارتباط
  2. فاصله
  3. محبوبیت

ارتباط

مرتبط بودن بدین معنا است که یک کسب و کار محلی با آنچه جستجوگر جستجو می کند مطابقت داشته باشد. برای اطمینان از اینکه کسب و کار در ارتباط با جستجوگران همه تلاش خود را انجام می دهد ، مطمئن شوید که اطلاعات کسب و کار به طور کامل و دقیق پر شده است.

فاصله

Google برای ارائه بهتر نتایج محلی شما از موقعیت جغرافیایی شما استفاده می کند. نتایج جستجوی محلی نسبت به نزدیکی بسیار حساس هستند، که به مکان جستجوگر و یا مکانی که در درخواست مشخص شده است اشاره دارد.

نتایج جستجوی ارگانیک گوگل نسبت به مکان جستجوگر ها حساس هستند.

محبوبیت

گوگل عنوان محبوبیت را یک عامل مهم می داند. یعنی به دنبال پاداش دادن به مشاغل مشهور در دنیای واقعی است. علاوه بر برجسته بودن و محبوب بودن آفلاین یک کسب و کار، Google همچنین به دنبال برخی عوامل آنلاین برای تعیین رتبه محلی نیز می باشد، مانند:

بررسی ها

تعداد بازبینی هایی که Google از یک کسب و کار محلی دریافت می کند و تعداد ستاره های آن بررسی ها تأثیر قابل توجهی در توانایی آن ها برای رتبه بندی در نتایج محلی دارد.

استناد

“استناد به مشاغل” یا “لیست مشاغل” مرجع مبتنی بر وب به “NAP” یک کسب و کار محلی (نام، آدرس، شماره تلفن) در یک پلتفرم محلی (اسنپ فود، فیدیلیو و..) است.

رتبه بندی محلی تحت تأثیر تعداد و ثبات استنادات مشاغل محلی می باشد. گوگل برای ساخت مداوم شاخص مشاغل محلی خود، داده ها را از منابع مختلفی می گیرد. وقتی Google چندین مراجعه کننده ثابت به نام، موقعیت مکانی و شماره تلفن کسب و کار خاصی پیدا کند، این مسئله “اعتماد” گوگل به اعتبار آن دیتا را بیشتر می کند. سپس این امر منجر به این می شود که گوگل بتواند با خیال راحت تری کسب و کار را نشان دهد. Google همچنین از اطلاعات منابع دیگر در وب مانند لینک ها و مقالات نیز استفاده می کند.

رتبه بندی ارگانیک

Google هنگام تعیین رتبه بندی محلی، موقعیت وب سایت را در نتایج جستجوی ارگانیک نیز در نظر می گیرد.

در فصل بعدی، شما بهترین روش های سئو on-page را یاد خواهید گرفت که به Google و کاربران کمک می کند محتوای شما را بهتر درک کنند.

 

تحقیق کلید واژه

درک کنید که مخاطب شما می خواهد چه چیزی پیدا کند.

اکنون که نحوه نشان داده شدن در نتایج جستجو را آموختید، بیایید تعیین کنیم کدام کلمات کلیدی استراتژیک را در محتوای وب سایت خود هدف قرار دهیم و چگونه این مطالب را بسازیم تا هم کاربران و هم موتور های جستجو راضی باشند!

قدرت تحقیق در مورد کلمات کلیدی در درک بهتر بازار هدف شما و چگونگی جستجوی آن ها برای محتوا، خدمات یا محصولات شما نهفته است.

تحقیقات کلمه کلیدی، داده ی جستجوی خاصی را در اختیار شما قرار می دهد که می تواند به شما در پاسخ به سوالاتی مانند نمونه های زیر کمک کند:

  • افراد در جستجوی چه مطلبی هستند؟
  • چند نفر در جستجوی این مطلب هستند؟
  • افراد در چه قالبی این مطالب را می خواهند؟

در این فصل، شما ابزار ها و استراتژی هایی را برای کشف این اطلاعات دریافت خواهید کرد، همچنین روش هایی را یاد می گیرید که به شما کمک می کند تا از تحقیق و تهیه ی مطالب و کلمات کلیدی ضعیف جلوگیری کرده و محتوای قوی ایجاد کنید. هنگامی که متوجه شدید چطور مخاطبان هدف شما در موتور جستجو شما را پیدا کرده اند، شروع به کشف دنیای کاملاً جدیدی از SEO استراتژیک می کنید!

قبل از تحقیق در مورد کلمات کلیدی، سوال بپرسید

قبل از این که بتوانید از طریق بهینه سازی موتور جستجو به رشد یک شغل کمک کنید، ابتدا باید بفهمید که آن ها چه کسانی هستند، مشتریان آن ها و اهدافشان چیست.

اینجا خیلی ها بخاطر تنبلی از رقابت کنار می روند. افراد زیادی این مرحله مهم برنامه ریزی را رد می کنند، زیرا تحقیق در مورد کلمات کلیدی را زمان بر می دانند و به این مسئله فکر می کنند که چرا موقعی که کلمات کلیدی را می دانند، باید درباره آن تحقیق نیز بکنند!؟

پاسخ این است که آن چه شما می خواهید برای آن رتبه بندی کنید و آن چه مخاطب شما در واقع می خواهد اغلب دو چیز متفاوت است! تمرکز بر مخاطب خود و سپس استفاده از داده های کلمات کلیدی برای اصلاح این بینش، خیلی کمپین شما را در زمینه بدست آوردن مخاطب بهبود می بخشد.

بگذارید با مثال توضیح دهیم. فروشگاه Frankie & Jo’s (فروشگاه بستنی ویگن ها، فاقد گلوتن و مستقر در سیاتل) درباره سئو اطلاعاتی چیز هایی شنیده است و می خواهد به بهبود نحوه و دفعات نشان داده شدن آن ها در نتایج جستجوی ارگانیک کمک کند. برای کمک به آن ها، ابتدا باید کمی بیشتر در مورد مشتریان آن ها تحقیق کنید و آن ها را بشناسید. برای انجام این کار، ممکن است سوالاتی از قبیل:

  • افراد در جستجوی چه نوع بستنی، دسر، تنقلات و … هستند؟
  • چه کسی این اصطلاحات را جستجو می کند؟
  • چه زمانی افراد به دنبال بستنی، میان وعده، دسر و غیره هستند؟

                  آیا ترند های فصلی در طول سال وجود دارد؟

  • چگونه افرادی در جستجوی بستنی هستند؟

                  آن ها از چه کلماتی استفاده می کنند؟

                  آن ها چه سوالاتی می پرسند؟

                  آیا جستجو های بیشتری در موبایل ها انجام می شود یا خیر؟

  • چرا مردم به دنبال بستنی هستند؟

                  آیا این افراد به دنبال بستنی، واقعا دنبال بستنی های سلامت هستند و یا فقط می خواهند طعم جدیدی را تجربه کنند؟

  • مشتریان بالقوه کجا واقع شده اند؟ به صورت محلی هستند؟ ملی یا بین المللی؟

و سرانجام چگونه می توانید به بهترین محتوای بستنی برای پرورش یک جامعه و تحقق آن چه که همه افراد در جستجوی آن هستند، کمک کنید؟ طرح این سوالات یک مرحله مهم برنامه ریزی است که تحقیقات کلمات کلیدی شما را راهنمایی می کند و به شما کمک می کند محتوای بهتری تهیه کنید.

افراد چه اصطلاحاتی را جستجو می کنند؟

ممکن است راهی برای توصیف آن چه انجام می دهید داشته باشید، اما مخاطبان شما چگونه محصول، خدمات یا اطلاعاتی را که ارائه می دهید جستجو می کنند؟ پاسخ به این سوال اولین قدم مهم در روند تحقیق کلمات کلیدی است.

پیدا کردن کلمات کلیدی

به احتمال زیاد چند کلمه کلیدی در ذهن دارید که دوست دارید برای آن ها رتبه بندی شوید. این ها مواردی مانند محصولات، خدمات یا موضوعات دیگری است که آدرس وب سایت شما در آن قرار دارد و کلمات کلیدی بسیار خوبی برای تحقیقات شما هستند، بنابراین از آن جا شروع کنید! می توانید این کلمات کلیدی را در یک ابزار تحقیق کلمات کلیدی وارد کنید تا متوسط حجم جستجو ماهانه و کلمات کلیدی مشابه را پیدا کنید. ما در بخش بعدی بیشتر به حجم جستجو خواهیم رسید، اما مرحله کشف می تواند به شما کمک کند تعیین کنید کدام یک از انواع کلمات کلیدی شما در بین جستجو گران بیشترین محبوب را دارا هستند.

هنگامی که کلمات کلیدی ریشه ای خود را وارد ابزار تحقیق کلمات کلیدی کنید، سایر کلمات کلیدی، سوالات رایج و موضوعات مربوط به محتوای خود را که ممکن است در غیر این صورت از دست داده باشید، دوباره پیدا خواهید کرد.

بیایید از یک گل فروشی که کار های مخصوص عروسی انجام می دهد را در نظر بگیریم.

با تایپ کردن “عروسی” و “گل فروشی” در یکی از ابزار های جستجو برای کلمات کلیدی، ممکن است اصطلاحات بسیار مرتبط و بسیار جستجو شده مانند موارد زیر را پیدا کنید:

  • دسته گل عروسی
  • گل عروس
  • گل فروشی عروسی

در ادامه روند پیدا کردن کلمات کلیدی مرتبط برای محتوای خود، احتمالاً متوجه خواهید شد که حجم جستجو در این کلمات کلیدی بسیار متفاوت است. اگر چه شما قطعاً می خواهید اصطلاحاتی را که مخاطب شما در جستجوی آن ها است را هدف قرار دهید. در بعضی موارد هدف قرار دادن اصطلاحاتی که حجم جستجو کمتری دارند، سودمند تر است زیرا رقابت آن ها بسیار کمتر است.

از آن جا که هر دو کلمه کلیدی چه با رقابت بالا و چه با رقابت کم می توانند برای وب سایت شما مفید باشند، کسب اطلاعات بیشتر در مورد حجم جستجو می تواند به شما در اولویت قرار دادن کلمات کلیدی و انتخاب کلماتی که به وب سایت شما بیشترین مزیت استراتژیک را می بخشد، کمک کند.

متنوع سازی کنید!

لازم به ذکر است که کل یک وب سایت از نظر کلمات کلیدی رتبه بندی نمی شود و این فقط صفحات هستند که رتبه بندی می شوند. در برند های بزرگ، ما اغلب شاهد رتبه بندی صفحه اصلی برای بسیاری از کلمات کلیدی هستیم، اما برای اکثر وب سایت ها معمولاً این چنین نیست. بسیاری از وب سایت ها ترافیک ارگانیک بیشتری به صفحات دیگری غیر از صفحه اصلی دریافت می کنند، به همین دلیل متنوع سازی صفحات وب سایت خود با بهینه سازی هر یک ار آن ها برای کلمات کلیدی با ارزش منحصر به فرد بسیار مهم می باشد.

 

تنوع

لازم به ذکر است که کل وب سایت از نظر کلمات کلیدی رتبه بندی نمی شود (صفحات این رتبه بندی را دارند). ما اغلب شاهد رتبه بندی صفحه اصلی برای بسیاری از کلمات کلیدی هستیم، اما برای اکثر وب سایت ها معمولاً چنین نیست. بسیاری از وب سایت ها از صفحات دیگری غیر از صفحه اصلی ، ترافیک ارگانیک بیشتری دریافت می کنند، به همین دلیل تنوع بخشیدن به صفحات وب سایت خود با بهینه سازی هر یک برای کلمات کلیدی با ارزش و منحصر به فرد بسیار مهم است.

 

هر چند وقت این اصطلاحات جستجو می شوند؟

بررسی حجم جستجو

هر چه حجم جستجو برای یک کلمه کلیدی یا عبارت کلیدی بیشتر باشد، معمولاً برای دستیابی به رتبه های بهتر، طبیعتا کار بیشتری لازم است. این موارد به عنوان دشواری های شناخت کلمات کلیدی شناخته می شود و اکثر اوقات دارای ویژگی های SERP است. به عنوان مثال، اگر بسیاری از ویژگی های SERP (مانند اسنیپت ها، نمودار دانش، کاروسل ها و …) صفحه نتیجه کلمه کلیدی را مسدود کنند، مشکلات افزایش می یابند. برند های بزرگ معمولاً ۱۰ نتیجه برتر را برای کلمات کلیدی با حجم بالا به دست می آورند، بنابراین اگر تازه شروع به فعالیت در وب می کنید و به دنبال همان کلمات کلیدی می روید، جنگی بسیار سخت برای کسب رتبه خواهید داست که سالیان سال ممکن است از رتبه خوب، خبری نباشد.

به طور معمول، هر چه حجم جستجو بیشتر باشد، رقابت و تلاش برای دستیابی به موفقیت بهتر در رتبه بندی ارگانیک بیشتر می شود. گر چه اگر خیلی پایین بروید، خطر این را دارید که هیچ جستجو کننده ای را به سایت خود جذب نکنید. در بسیاری از موارد، هدف قرار دادن اصطلاحات جستجوی با رقابت بسیار خاص، گاهی سودمند ترین مزیت ممکن است. در سئو ، ما این کلمات کلیدی را دم بلند می نامیم.

درک کلمات کلیدی دم بلند

به نظر میاید که اگر برای “کفش” رتبه ۱ را کسب کنید بهترین حالت ممکن است … حالا واقعا هست؟

پرداختن با کلمات کلیدی که ماهانه ۵۰۰۰۰ جستجو یا حتی ۵۰۰۰ جستجو در ماه دارند بسیار جالب است، اما در حقیقت، این عبارات جستجوی محبوب فقط بخشی از کل جستجو های انجام شده در وب را تشکیل می دهند. در واقع، کلمات کلیدی با حجم جستجوی بسیار بالا حتی ممکن است نشان دهنده قصد مبهمی باشد، که اگر این اصطلاحات را هدف قرار دهید، می تواند شما را در معرض خطر قرار دادن بازدید کنندگان سایت خود قرار دهد که اهداف آن ها با محتوای صفحه شما مطابقت ندارد.

seo چیست

آیا جستجوگر می خواهد از ارزش غذایی پیتزا آگاهی داشته باشد؟ یک پیتزا سفارش دهد؟ برای یردن خانواده رستورانی پیدا می کنید؟ Google نمی داند! بنابراین آن ها این ویژگی ها را برای کمک به شما در تصحیح ارائه می دهند. هدف قرار دادن “پیتزا” به این معنی است که شما احتمالاً بیش از حد توان پوشش شبکه تور برای به دام انداختن مخاطبانتان کرده اید.

اگر در جستجوی “پیتزا” هستید، گوگل فکر می کند ممکن است به “پنیر” نیز علاقه مند باشید. که این فرضیه قطعا غلط نیست…

آیا قصد شما برای یافتن یک مکان پیتزا برای ناهار بوده؟ ویژگی SERP قسمت “کشف مکان های بیشتر” این موارد را نیز پوشش داده است.

۷۵٪ باقیمانده در “وسط چاق” و “دم بلند” جستجو قرار دارند.

آموزش seo

این کلمات کلیدی که محبوب کمتری دارند را دست کم نگیرید. کلمات کلیدی دم بلند با حجم جستجو کمتر معمولاً بازخورد بهتری دارند، زیرا جستجوگران در جستجو های خود معمولا با قصد و قکر سرچ می کنند. به عنوان مثال، شخصی که در جستجوی “کفش” است احتمالاً فقط در حال مرور است. از طرف دیگر، کسی که به دنبال “بهترین قیمت کفش مخصوص دویدن زنانه قرمز سایز ۳۵” است عملا کیف پول خود را بیرون آورده است و آماده خرید کردن می باشد!

سوال پرسیدن توی سئو مثل طلا با ارزش!

کشف سوالاتی که افراد در حوزه ی شما می پرسند  و افزودن این سوالات و پاسخ آن ها به یک صفحه سوالات متداول، می تواند ترافیک ارگانیک باورنکردنی را برای وب سایت شما ایجاد کند!

استراتژیک شدن با حجم جستجو

اکنون که اصطلاحات مربوط به جستجو را برای سایت خود و میزان جستجوی متناظر با آن ها را پیدا کرده اید، می توانید با دیدن رقبا و پی بردن به تفاوت جستجو ها بر اساس فصل یا موقعیت مکانی، استراتژیک تر عمل کنید.

کلمات کلیدی با توجه به رقیب

به احتمال زیاد تعداد زیادی کلمات کلیدی را برای وارد شدن به رقابت انتخاب کرده اید. از کجا می دانید که برای رتبه بندی برای کدام یک ابتدا باید مقابله کرد؟ بهتر است که اولویت بندی کلمات کلیدی با حجم بالا که رقبای شما در حال حاضر برای آن ها رتبه بندی نمی کنند، باشد. در طرف مقابل، همچنین می توانید ببینید که رقبای شما از کدام لیست از کلمات کلیدی خود برای رتبه بندی استفاده می کنند و چگونه آن ها را اولویت بندی می کنند. اولی زمانی عالی است که بخواهید از فرصت های از دست رفته رقبا خود استفاده کنید، در حالی که دومی یک استراتژی تهاجمی است که شما را برای رقابت در برابر کلمات کلیدی که رقبا قبلاً برای آن ها عملکرد خوبی داشته اند، تنظیم می کند.

کلمات کلیدی با توجه به فصل

دانستن روند های فصلی می تواند در تنظیم استراتژی محتوا مفید باشد. به عنوان مثال، اگر می دانید که “جعبه کریسمس” از اکتبر تا دسامبر در انگلستان شروع به افزایش می کند، می توانید از ماه ها قبل محتوا را تهیه کنید و فشار زیادی در آن ماه ها به آن لغت کلیدی ها بدهید.

کلمات کلیدی با توجه به موقعیت مکانی

می توانید با محدود کردن تحقیقات کلمات کلیدی خود در شهر ها، شهرستان ها یا ایالت های خاص در Google Keyword Planner، یک مکان خاص را از نظر استراتژیک هدف قرار دهید، یا “علاقه مندی ها را براساس منطقه” در Google Trends را ارزیابی کنید. تحقیقات خاص جغرافیایی می تواند به ارتباط بیشتر محتوای شما با مخاطبان هدف کمک کند. به عنوان مثال، ممکن است دریابید که در تگزاس، اصطلاح ترجیحی برای یک کامیون بزرگ ” big rig” است، در حالی که در نیویورک، ” tractor trailer” اصطلاحاش ترجیح داده می شود.

کدام قالب به بهترین شکل ممکن متناسب با هدف جستجوگران می باشد؟

در فصل دوم، با ویژگی های SERP آشنا شدیم. این پیش زمینه به ما کمک می کند تا بفهمیم جستجوگران برای جستجو یک کلمه کلیدی خاص از چه اطلاعاتی استفاده می کنند. قالبی که Google برای نمایش نتایج جستجو انتخاب می کند به هدف کاربر برمیگردد و هر درخواست یا پرسش، یک جواب خاص خودش را دارد. Google این اهداف را در راهنما های Quality Rater خود به این صورت توصیف می کند که: “know” به معنای پیدا کردن اطلاعات می باشد،”do” که به معنای بدست آوردن هدف می باشد، “website” برای پیدا کردن وب سایتی خاص و یا “visit-in-person” که در نهایت به معنای رفتن به کسب و کاری محلی می باشد.

در حالی که هزاران نوع جستجوی احتمالی وجود دارد، حال بیایید نگاهی دقیق تر به پنج دسته اصلی اهداف بیندازیم:

  1. سوالاتودرخواست های اطلاعاتی (Informational queries): جستجوگر به اطلاعاتی مانند نام یک خواننده یا ارتفاع برج میلاد احتیاج دارد.سئو چیست؟
  2. سوالات و درخواست های موقعیتی(Navigational queries): جستجوگر می خواهد به یک مکان خاص در خود اینترنت، مانند Facebook یا صفحه اصلی لیگ برتر ایران برود.آموزش سئو

  3. سوالات و درخواست های تراکنشی(Transactional queries): جستجوگر می خواهد کار خاصی را انجام دهد، مانند خرید بلیط هواپیما یا گوش دادن به آهنگ مد نظرش.SEO چیست

  4. بررسی و تحقیق تجاری(Commercial queries): جستجوگر می خواهد دو وسیله الکترونیکی را با هم مقایسه کند و بهترین سیستمی که نیازش را برطرف می کند، تهیه کند.آموزش SEO

  5. سوالات و درخواست های محلی(Local queries): جستجوگر می خواهد جایی را پیدا کند، مانند کافی شاپی نزدیک، دکتر یا سینما.Seo

یک گام مهم در فرایند تحقیق کلمات کلیدی، بررسی نمای SERP برای کلمه کلیدی مورد نظر جهت دستیابی به دید بهتر از هدف جستجوگر. اگر می خواهید بدانید مخاطب هدف شما چه نوع محتوایی را می خواهد، به SERP ها مراجعه کنید!

گوگل رفتار تریلیون جستجو را به صورت کامل ارزیابی کرده است تا تلاش کند محتوای مطلوب را برای جستجوی هر کلمه کلیدی خاص ارائه دهد.

به عنوان مثال “دامن” را جستجو کنید:

با نگاه کردن به نتیجه می توان فهمید که Google بسیاری از افرادی را که به دنبال “دامن” می گردند را به صورتی تعیین کرده است که می خواهند دامنی را به صورت آنلاین خریداری کنند.

 

اگر سوالات و درخواست ها مبهم باشند، Google همچنین گاهی اوقات ویژگی “refine by” را در اختیار شما قرار می دهد تا به جستجوگران کمک کند و به آن ها نشان دهد که ممکن است چه چیزی بخواهند. با این کار، موتور جستجو می تواند نتایجی را ارائه دهد که بهتر به جستجوگر خود کمک کند.

Google دارای انواع مختلفی از نتایج است که بسته به درخواست شما می تواند ارائه شود، بنابراین اگر می خواهید یک کلمه کلیدی را هدف قرار دهید، به SERP مراجعه کنید تا بفهمید چه نوع محتوایی را باید ایجاد کنید.

ابزار های مورد نیاز برای تعیین ارزش یک لغت کلیدی

یک کلمه کلیدی چه ارزشی به وب سایت شما اضافه می کند؟ این ابزار ها می توانند به شما کمک کنند تا به این سوالات پاسخ دهید، بنابراین می توانند گزینه های جدیدی را به تعداد کلمات کلیدی شما اضافه کنند:

  • Moz Keyword Explorer: یک کلمه کلیدی را در Keyword Explorer وارد کنید و اطلاعاتی مانند حجم جستجوی ماهانه و ویژگی های SERP (مانند بسته های محلی یا اسنیپت های ویژه) را که برای لغت کلیدی مد نظر شما رتبه بندی می شوند، دریافت کنید. این ابزار با استفاده از داده های clickstream زنده، داده های دقیق جستجو را استخراج می کند.
  • Google Keyword Planner: برنامه ریز کلمات کلیدی AdWords گوگل در طول تاریخ همیشه نقطه شروع تحقیقات در خصوص کلمات کلیدی در زمینه SEO بوده است. با این حال، Keyword Planner داده های جستجو را با جمع کردن کلمات کلیدی در حجم های بزرگ دامنه جستجو محدود می کند.
  • Google Trends: این ابزار همیشه در دسترس Google برای یافتن نوسانات فصلی کلمات کلیدی عالی است. به عنوان مثال “ایده های جالب لباس هالووین” در هفته های قبل از هالووین به اوج خود می رسد!
  • AnswerThePublic: این ابزار رایگان معمولاً برای جستجو در مورد کلمات کلیدی خاص استفاده می شود. از ویژگی های دیگر این ابزار، می توان به اولویت بندی پیشنهاد های خود ATP با توجه به حجم جستجو دانست که یعنی می توانید از این ابزار به طور همزمان با یک ابزار رایگان دیگر کلمات کلیدی، در همه جا استفاده کنید.
  • SpyFu Keyword Research Tool: داده های رقابتی بسیار شفافی را فراهم می کند.

 

منبع: MOZ

 

0 پاسخ

دیدگاه خود را ثبت کنید

تمایل دارید در گفتگوها شرکت کنید؟
در گفتگو ها شرکت کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *