فایل Robots.txt چیست و چگونه کار می کند؟

اگر در حال یادگیری مطالب مرتبط با سئو هستید و با مفهومی به نام «فایل Robots.txt» روبرو شده‌اید و نمی‌دانید چیست، جای درستی آمده‌اید! ما در این مقاله مطالبی را که در مورد این مفهوم نیاز دارید به شما یاد می‌دهیم. در انتها خواهید دانست که: Robots.txt چیست؟ چه مزایایی دارد و نحوه ساخت آن چگونه است. پس تا انتهای این مقاله با پاسخ همراه ما باشید.

Robots.txt چیست؟

Robots.txt یک فایل متنی است که به موتورهای جستجو مانند گوگل می‌گوید که می‌خواهید چه صفحاتی در وب‌سایت شما ایندکس یا خزیده شوند.

موتورهای جستجو همیشه به دنبال بهبود نتایج خود و دسترسی کاربران به به روزترین و بهترین اطلاعات هستند. برای این کار، از ربات‌هایی استفاده می‌کنند که با نام عنکبوت یا خزنده شناخته می‌شوند. این ربات‌ها به طور خودکار صفحات وب که اخیرا منتشر‌شده را باز می‌کنند و سپس تصمیم می‌گیرند که آیا محتوا باید ایندکس شود یا خیر.

هنگام پردازش سایت، خزنده‌ها یکی از 3 دستورالعمل زیر را دریافت می‌کنند:

  • دسترسی جزئی (اسکن عناصر تکی سایت در دسترس است)
  • دسترسی کامل (ربات می‌تواند هر چیزی را اسکن کند)
  • ممنوعیت اسکن (ربات نمی‌تواند چیزی را اسکن کند)

به‌طور پیش‌فرض، وب‌سایت‌ها به موتورهای جستجو اجازه می‌دهند که تمام صفحات آنها را خزیده و فهرست‌بندی کنند، زیرا می‌خواهند در نتایج جستجو بالا روند و ترافیک بالاتری را به دست بیاورند. با این حال، گاهی اوقات صاحبان وب‌سایت‌ها می‌خواهند صفحاتی را که ایندکس می‌شوند محدود کنند تا در پهنای باند صرفه‌جویی کنند و یا برخی از صفحات را خصوصی نگه‌دارند.

در این شرایط فایل robots.txt وارد عمل می‌شود!

فایل robots.txt چطور عمل می‌کند؟

وقتی ربات‌ها برای اولین‌بار یک وب‌سایت را باز می‌کنند، فایل robots.txt را پیدا می‌کنند. فایل robots.txt یک سند متنی است که در دایرکتوری ریشه یک سایت قرار دارد و حاوی اطلاعاتی است که برای خزنده‌های موتورهای جستجو در نظر گرفته شده است؛ در مورد این‌که کدام URLها (صفحات، فایل‌ها، پوشه‌ها و غیره) باید خزیده شوند و کدام‌ها نباید خزیده شوند. در حقیقت سه نوع دستورالعملی که ربات‌ها برای خزش هر قسمت از سایت دریافت می‌کنند (در قسمت قبل درباره آن صحبت کردیم)، توسط این فایل در اختیار آنها قرار داده می‌شود.

وجود این فایل برای عملکرد وب‌سایت اجباری نیست، اما در عین حال، راه‌اندازی صحیح آن در هسته سئو نهفته است.

به گفته مرکز راهنمای گوگل، هدف اصلی این فایل جلوگیری از نمایش صفحات وب در نتایج جستجو نیست، بلکه محدود‌کردن تعداد درخواست‌های ربات‌ها به سایت‌ها و همچنین کاهش بار سرور است.

به طور کلی، محتوای فایل robots.txt باید به عنوان یک توصیه برای خزنده‌های جستجوگر در نظر گرفته شود که قوانین خزیدن وب‌سایت را تعریف می‌کند. برای دسترسی به محتوای فایل robots.txt هر سایت، تنها کاری که باید انجام دهید این است که “/robots.txt” را بعد از نام دامنه در مرورگر تایپ کنید.

اگر ربات‌ها دستورالعمل‌هایی را از فایل robots.txt دریافت نکنند، از روش‌های نمایه‌سازی خود استفاده می‌کنند.

فایل Robots.txt

مزایای استفاده از  Robots.txt

این فایل مزایای زیادی به همراه دارد که به شرح زیر هستند:

1. به دسترسی مناسب به مطالب وب سایت کمک می‌کند

robots.txt تنها فایلی است که مانند دروازه‌ای برای نمایش وب سایت در موتور جستجو عمل می‌کند. اگر از اسکریپت‌ها برای نوشتن پروتکل‌ها در توسعه فایل robots.txt استفاده کرده باشید، حتما متوجه شده‌اید که وب‌سایت مستقیماً در موتور جستجو نمایش داده می‌شود.

هر خزنده موتور جستجو، پروتکل خاص خود را برای دسترسی به وب‌سایت شما دارد. فایل robots.txt کمک می‌کند تا محتوای وب سایت شما توسط موتور جستجو به درستی کشف شود. در حقیقت این فایل مانند راهنمای سایت شما عمل‌کرده و درک صفحات را برای ربات آسان می‌کند.

2. موتور جستجو را از دسترسی به فایل‌های خصوصی منع می‌کند

اگر فایلی وجود دارد که شما نمی‌خواهید در سرچ گوگل دیده شده و ایندکس شود، این اختیار را دارید که با استفاده از این فایل، قوانینی را برای موتورهای جستجو بگذارید که به این فایل‌ دسترسی نداشته باشند.

فایل‌های خصوصی ممکن است فایل‌های اداری، صفحات ورود، صفحه برگشت‌خوردن ایمیل یا سندهای مالی ذخیره‌شده در سرور باشند. از آنجایی که برخی فایل‌ها ممکن است برای کسب‌وکار شما محرمانه باشند و یا شما نخواهید کاربران به آن محتوای آنها در موتور جستجو دسترسی داشته باشند، فایل Robots.txt می‌تواند نقش منجی را برای شما بازی کند.

3. حفظ شهرت وب سایت

هنگامی که صفحاتی از سایت شما که برای کاربر نهایی مناسب نیست در موتور جستجو نمایه می‌شوند، تأثیر منفی بر مخاطبان هدف دارند. به همین دلیل است که فایل robots.txt طوری تنظیم می‌شود که مشتریان را به صفحات فهرست‌بندی مرتبط با کاربران هدایت کند و مواردی را که برای آنها مفید نیست، نشان ندهد.

4. عدم نمایش سایت در زمانی که در حال ساخت است

robots.txt معمولاً زمانی که وب‌سایت در حال توسعه است، آن را برای کاربران غیر قابل دسترسی می‌کند. مطمئنا شما نمی‌خواهید که ربات‌ها و کاربران با صفحات نامرتب و درحال ساخت شما روبرو شوند.

به همین ترتیب، می‌توانید این تکنیک را برای صفحه خاصی در وب‌سایت خود که درحال تغییر یا ایجاد آن هستید، پیاده‌سازی کنید. اگر مطالب نامرتب و بد سایت شما ایندکس شود، بر نتایج سئوی شما تاثیر منفی می‌گذارد و فایل Robots.txt شما را از این مشکل نجات می‌دهد.

5. کمک به سئو

این فایل نقش زیادی در بهبود سئوی تکنیکال شما دارد. از آنجا که محتوای تکراری می‌تواند مشمول پنالتی شود، اگر صفحات تکراری دارید می‌توانید با استفاده از فایل Robots.txt دسترسی گوگل به آنها را محدود کنید. علاوه بر این، می‌توانید یک نمای شسته‌و‌رفته از سایت خود در اختیار خزنده قرار دهید تا سایت را به خوبی بشناسد. به عبارت دیگر می‌توانید نقشه سایت را با استفاده از فایل Robots.txt تهیه کنید.

نحوه ساخت یک Robots.txt استاندارد

برای ایجاد یک فایل robots.txt باید چهار مرحله را پشت سر بگذارید:

  1. یک فایل با نام txt ایجاد کنید.
  2. دستورالعمل‌ها را به فایل txt اضافه کنید.
  3. فایل متنی را در وب‌سایت خود آپلود کنید.
  4. فایل را تست کنید.

ایجاد فایل‌های robots.txt

یک فایل با نام Robots.Txt ایجاد کنید

برای ایجاد یک فایل robots.txt، باید از یک ویرایشگر متن ساده مانند notepad یا TextEdit استفاده کنید. مطمئن شوید که فایل خود را با کد نویسی UTF-8 ذخیره کرده‌اید.

  • فایل txt باید robots.txt نام‌گذاری شود.
  • هر سایتی می‌تواند یک فایل از این نوع داشته باشد.
  • برای کنترل خزیدن در تمام URL های وب سایت، باید فایل txt را در دایرکتوری ریشه وب‌سایت قرار دهید.

دستورالعمل‌ها را به فایل Robots.Txt اضافه کنید

دستورالعمل‌ها قوانینی هستند که برای خزنده‌ها مشخص می‌کنند کدام قسمت از سایت را می‌توانند بخزند و کدام قسمت را نمی‌توانند. هنگام افزودن قوانین به فایل robots.txt خود، دستورالعمل‌های زیر را در نظر داشته باشید:

  • فایل txt از یک یا چند گروه تشکیل شده است.
  • هر گروه قوانین و دستورالعمل‌های متفاوتی دارد، یک دستورالعمل در هر خط. هر گروه با یک خط کاربر-عامل (user-agent) شروع می‌شود که هدف گروه را مشخص می‌کند.
  • هر گروه دستورالعمل‌های زیر را به user-agent می‌دهد:
  1. گروه برای چه کسانی اعمال می‌شود (کاربر-عامل)
  2. کدام فایل‌ها، URLها یا دایرکتوری‌ها را عامل می‌تواند بخزد؟
  3. کدام فایل‌ها، URLها یا دایرکتوری‌ها را عامل نمی‌تواند بخزد.
  • خزنده‌های وب، گروه‌ها را از بالا به پایین پردازش می‌کنند. یک عامل-کاربر می‌تواند تنها با یک مجموعه دستورالعمل مطابقت داشته باشد، که اولین و خاص‌ترین گروهی است که با یک عامل-کاربر مشخص مطابقت دارد.
  • به طور پیش‌فرض، یک عامل-کاربر می‌تواند به هر URL یا فایلی در وب‌سایت شما دسترسی داشته باشد، مگر این‌که توسط قانون «عدم اجازه» مسدود شده باشد.
  • قوانین به حروف کوچک و بزرگ حساس هستند. به عنوان مثال، Disallow: file.asp فقط برای https://www.example.com/file.asp اعمال می‌شود، اما https://www.example.com/FILE.asp اعمال نمی‌شود.
  • “#” شروع یک کامنت را نشان می‌دهد.

فایل Robots.Txt را آپلود کنید

پس از ذخیره فایل robots.txt در رایانه، باید آن را برای خزنده‌های موتور جستجو در دسترس قرار دهید. نحوه آپلود فایل robots.txt در وب‌سایت کاملاً به سرور و معماری سایت بستگی دارد. می‌توانید اسناد شرکت میزبان خود را جستجو کنید یا مستقیماً با آنها تماس بگیرید تا متوجه شوید که فایل را در کجا باید آپلود کنید.

هنگامی که فایل را آپلود کردید، باید آن را تست کنید تا ببینید درست عمل می‌کند یا نه.

فایل Robots.Txt را تست کنید

برای آزمایش، یک پنجره مرور خصوصی در مرورگر وب خود باز کنید و به محل فایل robots.txt بروید.

به عنوان مثال، https://www.example.com/robots.txt

اگر محتویات فایل robots.txt خود را پیدا کردید، می‌توانید به مرحله بعدی تست بروید.

گوگل دو راه برای آزمایش robots.txt ارائه داده است:

 

1. Robots.Txt Tester در کنسول جستجو

این ابزار می‌تواند برای فایل‌های robots.txt که از قبل در وب سایت شما قابل دسترسی هستند استفاده شود.

 

2. کتابخانه متن باز Robots.Txt Google

این کتابخانه در جستجوی گوگل برای آزمایش فایل robots.txt به صورت محلی در رایانه شما استفاده می‌شود.

 

سخن آخر

فایل robots.txt فایل متنی است که در در دایرکتوری ریشه وب‌سایت قرار می‌گیرد و ربات‌های خزنده را در داخل سایت هدایت می‌کند. این فایل به ربات‌ها می‌گوید که کدام فایل‌ها را اجازه دارند خزش کنند و کدام‌ فایل‌ها یا URLها را اجازه ندارند. همچنین  robots.txt کمک زیادی به سئو سایت می‌کند.

 

منابع:

https://seranking.com/blog/guide-robots-txt/

https://silvawebdesigns.com/what-exactly-is-a-robots-txt-file-how-does-it-operate/

https://bloggerscapital.com/seo/technical/what-are-robots-txt/#Benefits_of_using_robotstxt_for_website

https://www.ecsion.com/blogs/create-a-robots-txt-file/

 

میانگین امتیازات ۵ از ۵
از مجموع ۱ رای
2 نظرات
  1. Avatar of اردلان
    اردلان می گوید

    برای وردپرس پلاگینی هست که بشه باهاش این فایل رو خودکار ساخت؟

    1. Avatar of مجله پاسخ
      مجله پاسخ می گوید

      بله از مخزن وردپرس قابل دریافت است.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.