Robots.txt nedir? Web sitelerinde arama motoru botlarına (örneğin, Googlebot) yönergeler vermek için kullanılan bir metin dosyasıdır. Bu dosya, web sitesinin kök dizininde yer alır ve arama motorlarının hangi sayfaları tarayabileceğini veya tarayamayacağını belirler. Robots.txt oluşturma dosyası, web sitesi sahiplerinin arama motorlarına site içeriği hakkında bilgi vermek ve belirli sayfaların indekslenmesini önlemek gibi kontrolleri sağlamasına olanak tanır.
Robots.txt Oluşturma ve Teknik İçerikleri
Robots.txt dosyası, arama motoru botlarının web sitesini ziyaret ederken belirli talimatları takip etmelerini sağlar. Bu talimatlar, “User-agent” (bot türü), “Disallow” (erişime izin verilmeyen sayfaların listesi) ve “Allow” (erişime izin verilen sayfaların listesi) gibi komutlarla belirtilir. Web sitesi sahipleri, bu dosya aracılığıyla botların web sitelerindeki belirli dizinlere, dosyalara veya sayfalara erişip erişemeyeceğini kontrol edebilirler.
Robots.txt dosyası, aşırı bot taramalarını önlemek, gizli veya hassas verilerin korunmasını sağlamak, düşük kaliteli veya geçersiz sayfaların indekslenmesini önlemek gibi birçok amaçla kullanılır. Örneğin, kullanıcı girişi gerektiren sayfalar, yönetici paneli veya özel içerikler gibi belirli bölgelerin indekslenmesini engellemek için robots.txt dosyası kullanılabilir.
Bu dosya, arama motorlarına web sitenizin içeriğini daha iyi anlatmanızı sağlar ve SEO stratejilerinizin etkinliğini artırır. Ancak, robots.txt dosyası, kötü niyetli botlar veya kötü amaçlı kullanıcılar tarafından kullanılan bir engelleme yöntemi olarak kullanılmamalıdır.
Robots.txt Oluşturma Nasıl Yapılır?

Robots.txt dosyası oluşturmak ve yapısını belirlemek oldukça basittir. İşte robots.txt dosyasını oluşturmak için izlenebilecek adımlar:
- Metin düzenleyici bir program kullanarak yeni bir dosya oluşturun. Bu dosya “robots.txt” adıyla kaydedilmelidir.
- Robots.txt dosyasını web sitenizin kök dizinine yerleştirin. Kök dizin, web sitenizin ana dizinidir ve genellikle “public_html” veya “www” olarak adlandırılır.
- Robots.txt dosyasının yapısını belirleyin. Aşağıda yaygın olarak kullanılan bazı komutları bulabilirsiniz:
- User-agent: Bu komut, yönergelerin hangi bot veya bot grubuna uygulanacağını belirtir. Örneğin, “User-agent: Googlebot” sadece Google botuna talimatları uygular.
- Disallow: Bu komut, botların erişmesini yasakladığınız dizinleri, dosyaları veya sayfaları belirtir. Örneğin, “Disallow: /admin” yönergelerin /admin dizinine erişimi engeller.
- Allow: Bu komut, botlara erişime izin verdiğiniz belirli dizinleri, dosyaları veya sayfaları belirtir. Örneğin, “Allow: /images” sadece /images dizinine erişime izin verir.
- Sitemap: Bu komut, web sitenizin sitemap dosyasının URL’sini belirtir. Örneğin, “Sitemap: https://www.example.com/sitemap.xml” sitemap dosyasının URL’sini belirtir.
- İstenilen yönergeleri robots.txt dosyasına ekleyin. Örnek olarak aşağıdaki gibi bir robots.txt dosyası yapısını kullanabilirsiniz:
User-agent: *
Disallow: /admin/
Allow: /images/
Sitemap: https://www.example.com/sitemap.xml
- Dosyayı kaydedin ve web sitenizin kök dizinine yükleyin.
Bu adımları izleyerek robots.txt dosyasını oluşturabilir ve web sitenizin taranmasını istemediğiniz dizinleri veya sayfaları belirleyebilirsiniz. Ancak, robots.txt dosyasının doğru bir şekilde yapılandırıldığından emin olmak için dikkatli olun ve yanlışlıkla önemli sayfaların erişimini engellememeye özen gösterin.