SEO Fiyat Hesaplama SEO ROI
Robots.txt Analizi ve Hataları Tespit Etme

Robots.txt Analizi ve Hataları Tespit Etme

Arama motoru botlarının (örümceklerin) sitenizin içeriğini sağlıklı bir şekilde indexlemesi için gereken Robots.txt dosyasının analizini yapmak artık mümkün. Robots.txt dosyasında yapacağınız bir karakterlik bir hata bile sitenizin yanlış şekilde indexlenmesi yada indexlenmemesine sebep olabilir. Bu yüzden siteniz için oluşturduğunuz Robots.txt dosyasını analiz edip, hatalı ise hatalarını tespit edebilirsiniz.

Check URL kısmına robots.txt dosyanızın bulunduğu dizin linkini yada direk olarak site adresinizi yazabilirsiniz. Ve isterseniz User Agents kısmına hangi arama motoru botlarının (örümceklerinin) standartlarında analiz etmesi için manual giriş yapabilirsiniz. Tavsiyem User Agents kısmına dokunmamanız.

SEO Hocası Blog her hafta e-postanızda. Ücretsiz abone olmak için tıklayın.

Ve aşağıda robots.txt dosyası analizi

Friendfeed’in Robots.txt dosyası analiz sonucu; Robots.txt dosyası hatasız gözüküyor. Başarılı.

Bir önceki yazımız olan SEO Nedir, Nasıl Yapılır ? başlıklı makalemizde SEO nasıl yapılır, SEO Nedir ? SEO Nasıl Yapılır ? ve SEO nedir? hakkında bilgiler verilmektedir.

Robots.txt Analizi ve Hataları Tespit Etme için Yorumlar

  • Halil
    Halil 1 Ağustos 2017, 02:39

    Selamlar hocam ben robots.txt getirme hatası çıkıyor erişilemiyor diyor google console’da yardımcı olur musunuz? 3 günden beri düzelmedi…

  • eren
    Eren 27 Ekim 2012, 17:32

    robot.txt dosyaları yüzünden sitem aramalarda çıkmıyor ben robot.txt diye bişey oluşturmadım robot.txt nasıl iptal edilir yardım lütfen

  • Mustafa Bora Kundakçı
    Mustafa Bora Kundakçı 29 Mart 2012, 22:15

    mrb benim siteme google botları gelmiyor acaba robots.txt mi sorun var tşkr edrm can bey

  • Murat Yaman
    Murat Yaman 3 Temmuz 2011, 07:53

    Bu makale o kadar yararlı ve faydalı ki, oluşturmuş olduğum robots.txt dosyamda bir yığın hata olduğu görüm ve hemen düzelttim. emeği geçenlere çok teşekkür ederim.

  • Ergin
    Ergin 6 Ocak 2011, 16:02

    Robots.txt analizi hakkında hiçbir fikrim yoktu. Süper bir yazı olmuş.

  • akin
    Akin 1 Ocak 2011, 14:46

    teşekkürler Can bey
    bende böyle bir hata ile karşılaştım nasıl çözümlerim acaba ?
    Line 1:Syntax error! Expected :
    1: User-agent: *
    2: Disallow:
    3:

    Line 2:
    Missing User-agent directive! Found Disallow
    Each rule record has to start with at least one User-agent statement. Blank lines delimit rule records and may not be used between User-agent and Disallow statements.

    1: User-agent: *
    2: Disallow:
    3:
    4: Sitemap:

  • Ekin
    Ekin 10 Ekim 2010, 04:29

    Sitemin Robots.txt dosyasında çok hata buldu. Zamanında hiç bakmamıştım. Tamamen sıfırladım. Artık örümcekler tüm sayfalarımı indexleyebilirler.

  • Soner
    Soner 7 Ekim 2010, 18:50

    User-agent: * komutunu kullanmak bile robots.txt açısından yarar sağlıyor. Ancak makalede yazan servis tam anlamıyla bir robots.txt nasıl hazırlanır bizlere gösteriyor. Güzel bir makale.

  • Kerem
    Kerem 22 Temmuz 2010, 18:43

    Sitemin Robots.txt dosyası analizini bu servis sayesinde yaptım. Hataları düzeltim teşekkürler

  • ibrahim
    Ibrahim 11 Temmuz 2010, 16:49

    Bende 22 hata, 5 uyarı çıktı ama nasıl düzelticem yada hataların anlamı ne? Yardım bekliyorum

Robots.txt Analizi ve Hataları Tespit Etme için Cevap Yaz

X