SEO Fiyat Hesaplama

SEO Sorunuzu Sorun Uzmanlarımız Yanıtlasın

Soru Sorun

Robots.txt ile Fazla Sayfa Silmek Zararlı Mıdır?

0
Burak Tandoğan
Burak Tandoğan
Robots.txt 3 sene önce 117 Görüntülenme

Sitemde yaklaşık 65 adet bozuk link var bunların sebebi daha önce aspx olan uzantıları SEO‘ya uyumlu olmaları için değiştirmiştim.

Örnek olarak;
Eski Hali // siteadı.com/otel_detay.asp?ID=61
Yeni Hali // siteadi.com/Mekke/elaf-almashaer-hotel-6/

Google’da şuan 128 indexli sayfam var bunların 65’i kırık link. robots.txt yöntemi ile bozuk indexleri silmeyi düşünüyorum. 65’ine birden yazınca Google yine bir spam olarak algılar mı ?

Ve aşağıdaki index silme robots.txt’si doğrumudur ?

User-agent: *

Disallow: / siteadi.com/dosyayolu.asp

SEO Soru Cevap her hafta e-postanızda. Ücretsiz abone olmak için tıklayın.

Robots.txt ile Fazla Sayfa Silmek Zararlı Mıdır? için Yanıtlar

  • admin
    0
    Admin 17 Mart 2015, 16:33

    Merhaba,

    Eski linklerinizi 301 yönlendirmesi yaparak yeni linklerine yönlendirmeniz trafik ve ziyaretçi kaybınızın önüne geçecektir.

    Örnek olarak siteadı.com/otel_detay.asp?ID=61 linkinin içeriği siteadi.com/Mekke/elaf-almashaer-hotel-6/ bu link ile aynı ise bunu 301 ile yönlendiriniz. Eğer eski konu artık sizin için önemli değilse ve bununla ilgili içerik girilmeyecekse fazla olan bu linkleri robots.txt yöntemi ile silebilirsiniz. Bunun için vermiş olduğunuz kod doğrudur.

    65 adet yazıyı birden girmenizde herhangi bir sakınca yok fakat bunu her hafta düzenli olarak yapmak zorunda kalabilirsiniz. Sitenin güncellenme istikrarını koruması SEO açısından oldukça önemlidir. Eğer bütün içerikleriniz bu kadarsa kendinize göre bir güncelleme planı oluşturup buna uygun içeriklerinizi girebilirsiniz.

Robots.txt ile Fazla Sayfa Silmek Zararlı Mıdır? Sorusunu Cevapla