Robots.txt file क्या है कैसे use करे - ldkalink
Robots.txt file क्या है: यदि आपके वेबसाइट में robots.txt file नहीं है तो search engine बोट्स आपके वेबसाइट के सारे content को इंडेक्स व crawl करना शुरू कर देगा जिसे आप इंडेक्स नहीं भी कराना चाहे थे।
robots.txt file का उपयोग करने से पहले search engine कैसे काम करता है इसके बारे में knowledge होना जरुरी है जिससे हम robots.txt file का सही तरीके से उपयोग कर सके और इसका उपयोग किस तरह से किया जाता है यही सब इस आर्टिकल में जानेंगे वाले है।
Robots.txt file क्या है कैसे use करे |
robots.txt file क्या है-what is robots.txt file in Hindi
robots.txt kya hai: robots.txt फाइल एक तरह का टेक्स्ट फाइल ही है जो किसी भी website के root folder में होता है जिससे search engine bots को यह पता चलता है कि वेबसाइट के कौन से हिस्से को crawl व index करना है और किस किस भाग को इंडेक्स नहीं करना है।
किसी भी वेबसाइट का robot.txt फाइल चेक करे के लिए सर्च इंजन में वेबसाइट का नाम लिखना है और सिम्बोल (/) लगाना है और फिर इसके बाद robots.txt टाइप करे और search करे।
- उदाहरण के लिए: www.ldkalink.com/robots.txt
robot.txt फाइल चेक करने का एक दूसरा तरीका भी है इसे Google search Console द्वारा भी चेक किया जा सकता है।
चेक करने के लिए पहले search console में login होना पढता है जब आप इसमें लॉगिन हो जाते है तो लेफ्ट साइड में crawl पर क्लिक करे और इसमें robot.txt tester पर क्लिक करे अब वेबसाइट का robot.txt फाइल दिखाई देगा।
robots.txt file क्यों जरुरी है
Search engine bots जब किसी भी website पर जाते है तो सबसे पहले वे robots.txt फाइल को चेक करते है और फिरcontent को crawl करना शुरू करते है मान लेते है कि यदि आपने जो वेबसाइट क्रिएट किया है इसमें robots.txt फाइल नहीं है।
तो सर्च इंजन द्वारा आपके वेबसाइट के सारे कंटेंट को इंडेक्स व क्रॉल करेगा जिसे आप नहीं कराना चाहते थे।
Search engine bots सबसे पहले किसी भी वेबसाइट को इंडेक्स करने से पहले robots.txt को देखता है यदि आपके वेबसाइट में robots.txt फाइल नहीं मिलता है तो यह आपके वेबसाइट में जितने भी कंटेंट होंगे वे सभी को इंडेक्स करना स्टार्ट कर देता है।
यदि वेबसाइट में robots.txt फाइल होता है तो इसका पालन करते हुए website में जो content मौजूद है जिन्हे इंडेक्स कराया जा रहा है सिर्फ उन्ही कंटेंट को ही इंडेक्स करता है।
robots.txt file के benefits
- इससे सर्च इंजन बॉट्स को बताया जाता है कि वेबसाइट में किस कंटेंट को इंडेक्स व क्रॉल करना है।
- impotent फ़ाइल इंडेक्स होने से रोका जा सकता है जिसे हम अपने वेबसाइट में इंडेक्स नहीं कराना चाहते है।
- इसकी मदत से किसी भी website के सारे कंटेंट को प्राइवेट रख सकते है।
robots.txt file के लिए Syntax:
Robots.txt का बेसिक फॉर्मेट निचे बताया गया है।
User-agent: [ user-agent name ]
Disallow: [URL या पेज जिसे crawl नहीं करना है]
User-agent और Disallow क्या होता है, और इसका काम किस प्रकार का होता है।
- User-agent: यह एक प्रकार का सर्च इंजन बोट्स है यदि आप चाहते है की सभी सर्च इंजन allow हो तो इस User-agent: के बाद * चिन्ह का प्रयोग किया जाता है। उदाहरण के लिए आप देख सकते है User-agent: *
- Disallow: फ़ाइल या पेज को इंडेक्स होने से रोका जाता है।
- Allow: इसकी मदत से website के कंटेंट को क्रॉल व इंडेक्स कराया जाता है।
- Crawl-delay: बोट्स को कितने सेकंड तक इंतजार करना होता है पेज कंटेंट की loading और crawling से पहले।
सभी प्रकार के web crawlers को वेबसाइट में जितने भी contents है सभी को index के लिए अनुमति प्रदान करता है।
User-agent: *
Disallow:
जब हम अपने वेबसाइट में इस कमांड का उसे करते है तो वेबसाइट के सारे कंटेंट इंडेक्स होने लगते है।
सभी web crawlers द्वारा वेबसाइट इंडेक्स से बचने के लिए।
User-agent: *
Disallow: /
यदि आप अपने वेबसाइट को इंडेक्स नहीं कराना चाहते है, तो इस कमांड्स का उपयोग किया जाता है।
जब कसी एक folder को web crawler के द्वारा ब्लॉक करना हो।
User-agent: googlebot
Disallow: /foldername/
जिस फोल्डर का यहाँ नाम दिए होते है उसे crawl होने से यह रोकता है यदि हम किसी फोल्डर को इंडेक्स नहीं करना चाहते है तो इसका उपयोग करते है।
एक folder को सभी web crawler द्वारा ब्लॉक करना हो तो।
User-agent: *
Disallow: /foldername/
इस folder name को crawl होने से रोका जाता है इस कमांड के उपयोग से।
एक पेज को सभी web crawler द्वारा ब्लॉक करने के लिए इसका उपयोग किया जाता है।
User-agent: *
Disallow: /page url
विशिष्ट पेज को जब एक क्रॉलर के लिए ब्लॉक करना हो जैसे bing crawler
User-agent: Bingbot
Disallow: /page url
Sitemap add करना robots.txt फ़ाइल में।
Sitemap:
https://www.ldkalink.com/sitemap.xml
robots.txt फ़ाइल में इस तरह आप भी साइटमैप करे।
इस आर्टिकल को पड़ने के बाद आप समझ गए होगे कि robots.txt फ़ाइल क्या है और यह क्यों जरूरी होता है किसी भी वेबसाइट के लिए।
टिप्पणियाँ
एक टिप्पणी भेजें
please do not enter any spam link in the comment box.