مشاوره رایگان سئو
مشاوره رایگان سئو
یک فایل robots.txt به خزندههای موتورهای جستجو میگوید که خزنده به کدام URL ها میتواند در سایت شما دسترسی داشته باشد. این عمدتاً برای جلوگیری از بارگذاری بیش از حد سایت شما با درخواست ها استفاده میشود. این مکانیسمی برای دور نگهداشتن یک صفحه وب از گوگل نیست. برای دور نگهداشتن یک صفحه از سایت از Google، آن را با NoIndex کردن صفحه مسدود کنید یا برای صفحه رمز عبور قرار دهید.
راهنمای مطالعه
Robots.txt یک فایل متنی است که مدیران وبسایت برای آموزش به روباتهای وب (معمولاً روباتهای موتورهای جستجو یا رباتهای خزنده) ایجاد میکنند که چگونه صفحات را در وبسایت خود بخزند. فایل robots.txt بخشی از پروتکل حذف روباتها (REP) است.
گروهی از استانداردهای وب که نحوه خزیدن روباتها در وب، دسترسی و فهرست بندی محتوا و ارائه آن محتوا به کاربران را تنظیم میکند. REP همچنین شامل دستورالعملهایی مانند متا Robots و همچنین دستورالعملهای صفحه، زیر دایرکتوری یا سراسر سایت برای نحوه برخورد موتورهای جستجو با لینکها است.
در عمل، فایلهای Robots.txt نشان میدهند که کدام صفحات توسط رباتهای خزنده باید خزیده شود. این دستورالعمل های خزیدن توسط Allow یا Disallow در فایل Robots.txt مشخص میشوند.
چهار چوب اصلی یا Syntax نوشتاری Robots.txt:
User-agent: [user-agent name]Disallow: [URL string not to be crawled]
موتورهای جستجو دو کار اصلی دارند:
برای خزیدن (Crawl) در سایتها، موتورهای جستجو پیوندها را دنبال میکنند تا از یک سایت به سایت دیگر برسند؛ در نهایت در میان میلیاردها لینک و وبسایت خزیده میشوند. این رفتار خزیدن گاهی اوقات بهعنوان “عنکبوت” شناخته میشود.
عملکرد ربات تسکت چگونه است؟
کراولر های موتور جستجو پس از رسیدن به یک وب سایت اما قبل از spider کردن آن، به دنبال فایل robots.txt میگردد. اگر یکی را پیدا کرد، خزنده ابتدا آن فایل را قبل از ادامه صفحه میخواند. از آنجایی که فایل robots.txt حاوی اطلاعاتی در مورد نحوه خزیدن موتور جستجو است، اطلاعاتی که در آنجا یافت میشود، اقدامات بیشتر خزنده را در این سایت خاص راهنمایی میکند. اگر فایل robots.txt حاوی هیچ دستورالعملی نباشد که فعالیت یک مرورگر (عامل کاربر) را ممنوع کند (اگر سایت فایل robots.txt نداشته باشد)، به خزیدن اطلاعات دیگر در سایت ادامه خواهد داد.
سایر اطلاعات مهم robots.txt که باید بدانید:
نحوه نوشتن فایل Robots.txt را میتوان بهعنوان “زبان ” فایلهای robots.txt در نظر گرفت. پنج اصطلاح متداول وجود دارد که احتمالاً در فایل روباتها با آنها روبرو خواهید شد.
وقتی صحبت از URL های واقعی برای مسدود کردن یا مجاز شدن میشود، فایلهای robots.txt میتوانند نسبتاً پیچیده شوند. گوگل و بینگ هر دو از دو عبارت منظم استفاده میکنند که میتوانند برای شناسایی صفحات یا زیرپوشههایی (Sub Folder) که میخواهد حذف شوند، استفاده میکنند. این دو کاراکتر ستاره (*) و علامت دلار ($) هستند.
گوگل فهرستی عالی الگوهای مهم رو اینجا قرار داده است که میتوانید این الگوها را در فایل robots.txt استفاده کنید.
موتورهای جستجو و سایر رباتهای خزنده وب (مانند خزنده فیسبوک، Facebot) هرگاه به سایتی مراجعه میکنند، میدانند که به دنبال فایل robots.txt بگردند؛ اما آنها فقط آن فایل را در یک مکان خاص جستجو میکنند آن هم دایرکتوری اصلی میباشد.
اگر یک user-agent از www.example.com/robots.txt بازدید کند و فایل روباتی را در آنجا پیدا نکند، فرض میکند که سایت فایلی ندارد و به خزیدن همه چیز در صفحه (و شاید حتی در کل سایت) ادامه میدهد. حتی اگر صفحه robots.txt مثلاً در example.com/index/robots.txt یا www.example.com/homepage/robots.txt وجود داشته باشد، توسط عوامل کاربر کشف نمیشود و درنتیجه سایت مورد بررسی قرار میگیرد. انگار اصلاً فایل رباتی وجود نداشته است. درنتیجه محل قرارگیری فایل ربات بسیار مهم است و میتوان از ابزارهای بررسی فایل Robots.txt استفاده کرد.
فایلهای Robots.txt دسترسی خزنده به مناطق خاصی از سایت شما را کنترل میکنند. در حالی که اگر شما بهطور تصادفی Googlebot را از خزیدن در کل سایت خود منع کنید، میتواند بسیار خطرناک باشد، اما در مواردی وجود دارد که فایل robots.txt میتواند بسیار مفید باشد.
علت نیاز به robot.txt
برخی از موارد استفاده رایج عبارتاند از:
اگر هیچ ناحیهای در سایت شما وجود ندارد که بخواهید دسترسی user-agent به آن را کنترل کنید، ممکن است اصلاً به فایل robots.txt نیاز نداشته باشید؛ اما بهتر است حتماً این فایل را در سایت خود قرار دهید بلکه بیشتر به رباتهای خزنده کمک میکند.
برای اطلاعات پایه ای تر درباره ی سئوی سایت به ادامه مطلب مراجعه کنید.
این محتوا ادامه دارد …
Similar suggested Posts
Comments
مقاله ای پر از نکته بود، منتظر ادامه محتوا هستم
خواهش میکنم. انشالله به زودی
Dear user What do you think about this article?