Advertisement
Advertisement
robots.txt क्या है व कैसे काम करता व कैसे Create करते है ? और भहुत कुछ जाने गे robots.txt Kya hai ? Kaise Create Kare व ये kyo jruri hai किस काम आता है व इसको अपनी website या blog या blogger में कैसे add करे तो इस को पोस्ट को पूरा पढ़े आपको ये पोस्ट पसद आये तो एक प्यारा सा कमेंट जरुर करे robots.txt Kya hai ? Kaise Create Kare
📌 SEO Friendly Blog Post कैसे लिखे जो आसानी से Rank करे ?
1.seoptimer.com
2.internetmarketingninjas.com
3.seobook.com
आप इन website का इस्तमाल कर robots.txt generator कर सकते है व उसे डाउनलोड कर या कॉपी कर इस्तमाल करे
User-agent: *
Disallow: /search
Allow: /
Sitemap: https://www.hindihelper.com/sitemap.xml
जैसा कोई कोड आता है तो robots.txt आपकी website पर पहले से है व आप इसे अपने अनुसार edit कर सकते है व उस की जगह नया कोड़ भी लगा सकते है व अगर 404 पेज या नोट पेज फाउंड आता है तो आप इसे इस तरीके से add कर सकते है
📌Sitemap क्या है ? इसके क्या यूज़ और फायदे है ? इसे कैसे बनाये ?
अब एक छोटा सा बॉक्स ओपन होगा उसमे robots.txt कोड पेस्ट करे व save कर दे
अब एक छोटा सा बॉक्स ओपन होगा उसमे robots.txt कोड पेस्ट करे व save कर दे
अगर आप subdomains का इस्तमाल करते हैं तब आपको सभी subdomain के लिए अलग अलग robots.txt file बनाने की जरुरत है
Disallow: अगर आप किसी पोस्ट को disallow कर है तो इसका मतलब है की आप नहीं चाहते ये पार्ट सर्च इंजन मे दिखे
User-agent : इस आप्शन को use कर के आप अपने visitors को अपनी साईट मे जो दिखाना चाहते है वो आप उन्हे दिखा सकते है जैसे की image का source ये file कहा सेव है इत्यादी.
📌 Google पर Free में website कैसे बनाये ?
![]() |
robots.txt Kya Hai ?
जैसा की नाम से दिख रहा है की ये एक .txt file है यानि इसमें केवल text ही लिखा जा सकता है व robots नाम से हम समझ सकते है की इस file में जो भी डाटा सेव होगा उस पर robots काम करेगा ये site रैंकिंग व SEO में काम आता है ये एक इसी file है जो Search Engine को बताती है की कोनसा डाटा या पोस्ट Search Engine में दिखाना है व कोनसा नही जिसका इस्तमाल कर हम अपनी प्राइवेट जानकारिय या पेजे को Search Engine में आने से रोक सकते हैrobots.txt Kyo importaint hai
आप जानते है की क्यों robots.txt importaint है इसका इस्तमाल कर हम ये निधारित (diside) कर सकते है की कोनसा search Engine आपकी website पढ़ (read) सकता है या नही व क्या -क्या वो पढ़ सकता है व सर्च में दिखा सकता है- search engines आपके website में स्तिथ duplicate pages को ignore करे
- internal search results pages को ये index न करे तब
- search engines आपके निर्देशित कुछ pages को index न करें तब
- आपके कुछ files जैसे की कुछ images, PDFs इत्यादि को ये Index न करें तब
- search engines को ये बताना की आपकी sitemap कहाँ स्तिथ है
- robots.txt के इस्तमाल से आपके sensitive information को private रखा जा सकता है.
- Robots.txt के मदद से “canonicalization” problems को दूर रखा जा सकता है or multiple “canonical” URLs को भी रखा जा सकता है. इस problem को भूल वसतः “duplicate content” problem भी कहा जाता है . इससे आप Google Bots की मदद भी कर सकते हैं Pages को index करने के लिए ये website रैंक में महत्वपूरण है
📌 SEO Friendly Blog Post कैसे लिखे जो आसानी से Rank करे ?
robots.txt Kaise kam Karta hai ?
ये एक आसान परक्रिया है जब भी कोई सर्च इंजन आपकी website या blogger को या पोस्ट को देखता है या index करता है तो सबसे पहले वो robots.txt को पढता है की जिस पोस्ट या पेज को वो index करने वाला है उसको robots.txt में index करने की इजाजत (permission ) है या नही और अगर robots.txt इजाजत देता है तो वो उस पोस्ट को सर्च में दिखाने लग जाता है व permission न होने पर उसे index नही करता है जब सर्च इंजन robots.txt पढता है तो robots.txt में हम जो कोड लिखते है उसे वो read करता हैrobots.txt Ko kaise create kare ?
वेसे तो robots.txt को आप खुद एक txt file के रूप में बना सकते है पर आप अपनी आसानी के लिए इसे कुछ website से फ्री में भी बना सकते है जैसे :-1.seoptimer.com
2.internetmarketingninjas.com
3.seobook.com
आप इन website का इस्तमाल कर robots.txt generator कर सकते है व उसे डाउनलोड कर या कॉपी कर इस्तमाल करे
robots.txt Ko kaise add Kare
अगर आप robots.txt add करना चाहते है तो सबसे पहले ये चेक कर ले की पहले से आपकी website पर robots.txt तो नही है चेक करने के लिए अपनी website में डोमेन के बाद /robots.txt लगाये जैसे :- www.hindihelper.com/robots.txt अगर पेज ओपन होता है व उस परUser-agent: *
Disallow: /search
Allow: /
Sitemap: https://www.hindihelper.com/sitemap.xml
जैसा कोई कोड आता है तो robots.txt आपकी website पर पहले से है व आप इसे अपने अनुसार edit कर सकते है व उस की जगह नया कोड़ भी लगा सकते है व अगर 404 पेज या नोट पेज फाउंड आता है तो आप इसे इस तरीके से add कर सकते है
📌Sitemap क्या है ? इसके क्या यूज़ और फायदे है ? इसे कैसे बनाये ?
add In Blogger :-
Blogger के settings मे search preferences पे click करे फिर robots.txt पे क्लिक करे फिर edit पे click करे![]() |
अब एक छोटा सा बॉक्स ओपन होगा उसमे robots.txt कोड पेस्ट करे व save कर दे
add In Wordpress :-
अगर आप wordpress यूज़ करते है तो आपने Yoast SEO जरुर install किया होगा तो आपको yoast seo मे जाके Tools पे क्लिक करना है फिर File editor पे क्लिक करना है![]() |
अब एक छोटा सा बॉक्स ओपन होगा उसमे robots.txt कोड पेस्ट करे व save कर दे
add In Website :-
website के root directory में upload कर लीजिये. जो की एक root level folder होता है और उसे “htdocs” भी कहा जाता है और वो आपके domain name के बाद appear होता हैअगर आप subdomains का इस्तमाल करते हैं तब आपको सभी subdomain के लिए अलग अलग robots.txt file बनाने की जरुरत है
robots.txt Codes समझे
Allow: अगर आप text file के अन्दर किसी चीज़ की allow करते है तो इसका मतलब ये है की आप चाहते है की ये पार्ट search engine मे दिखेDisallow: अगर आप किसी पोस्ट को disallow कर है तो इसका मतलब है की आप नहीं चाहते ये पार्ट सर्च इंजन मे दिखे
User-agent : इस आप्शन को use कर के आप अपने visitors को अपनी साईट मे जो दिखाना चाहते है वो आप उन्हे दिखा सकते है जैसे की image का source ये file कहा सेव है इत्यादी.
📌 Google पर Free में website कैसे बनाये ?
0 Comments:
अपनी प्रॉब्लम या सुझाव कमेंट करें