AnalyticaHouse

Pazarlama İpuçları, Gündem ve Daha Fazlası

AnalyticaHouse’un güçlü iş ortaklıklarından beslenen deneyimi ile güncel trendler, stratejik içgörüler ve sektörel derinlik içeren blog yazılarımızı keşfedin.

SEO Başlık Düzeni Nedir? Heading Başlık Hiyerarşisi Nasıl Olmalı?
Eyl 5, 2022 4719 reads

SEO Başlık Düzeni Nedir? Heading Başlık Hiyerarşisi Nasıl Olmalı?

Arama motoru optimizasyonu (SEO) optimizasyon çalışmalarında sıklıkla karşılaşılan metriklerden bir tanesi de başlık (heading) düzeninin nasıl olması gerektiğiyle ilgilidir. SEO'yu hiç bilmeyen yahut bu alana yeni başlayan uzmanların anlamlandırmakta güçlük çektiği sorulardan bir tanesi SEO başlık düzeninin nasıl olması gerektiğidir. SEO uyumlu bir sayfa oluştururken, heading etiketleriyle sayfada yer alan başlıklandırmalar oldukça önemlidir. Sayfa içeriğini doğru yansıtmak, kullanıcıya ve arama motoru botlarına sayfada yer alan içerik partlarını ve odak başlıkları verebilmek için heading etiket tiplerinden yararlanılmaktadır. Peki heading başlık tipleri neden bu kadar önemli? Yazımızda sizler için bu bilgilere yer verdik!Heading/Başlık Etiketleri Nedir?Arama motoru botları, herhangi bir konuda sorgu/arama yapan kullanıcıya en doğru ve zengin ve içeriğe sahip web sitelerini göstermeyi hedeflemektedir. Ancak arama motoru botları, insan olmadıkları için belli bir algoritma kuralları çerçevesinde web sitelerini tarayarak, sayfaları anlamlandırmaya çalışır. Bu anlamlandırma işlemi sırasında bir takım metrikleri baz alarak sayfa içeriğinin ne hakkında olduğu ve neyi anlattığını öğrenmeye çalışırlar.İşte heading/başlık etiketleri de, arama motoru botlarının sayfayı anlamlandırmasına yardımcı olan oldukça önemli SEO metriklerinden bir tanesidir. Heading etiketleri genellikle "" kod blogu içerisinde yazılmakta ve hiyerarşik olarak 1'den 6'ya kadar ilerlemektedir.Neden Heading/Başlık Etiketleri Kullanmalıyız?Heading etiketleri, sayfa içeriğinin hem kullanıcı hem de arama motoru botları tarafından anlamlandırılmasını sağlayan vurgulayıcı metinlerdir. Varsayılan olarak boyut, kalınlık gibi stil yapıları diğer yazı metinlerinden farklı ve belirgindir. Arama motoru botları, web sayfalarını yorumlarken, sayfaların kullanıcının okuma ve gezinme düzenine uygun hazırlanmasını istemektedir. Zira kullanıcıların ihtiyaç duyduğu bilgiye, en verimli ve pratik şekilde ulaşmasını sağlayan web sitelerini sunmak, arama motorlarının da güvenililirlik ve prestijini artırmaktadır.Bu yüzden arama motorları, sayfa içeriklerinin akademik bir yapı ve hiyerarşide oluşturulmasını istemektedir. Heading etiketleri ise bu hiyerarşinin belirlenmesinde önemli rol oynamaktadır. Zira sayfa içerisinde hiyerarşik olarak eklenen heading/başlık etiketleri; "ana konu > alt konu > alt başlık ve açıklama" düzenini anlamlandırmakta ve arama yapan kullanıcıya bu başlık düzeni içerisindeki önem sırasına göre SERP'te site sonuçlarını listelemektedir.Heading etiketlerinin kullanımı, sadece arama motorlarının sayfayı anlamlandırmasını değil aynı zamanda web sayfasını ziyaret eden kullanıcıların da ihtiyaç duydukları başlık ve bilgi metinlerine kolaylıkla ulaşmasını sağlamaktadır. Bu yüzden heading/başlık etiketlerinin kullanımı, SEO uyumlu bir web sayfası oluşturmak için oldukça önemli metriklerdendir.Heading/Başlık Etiketleri Nelerdir?Başlık etiketlerinin 1'den 6'ya kadar farklı tip ve kullanım örnekleri mevcuttur. Bu başlık tipleri, aldıkları sayıya göre boyut ve biçim olarak daha büyük ve belirgin bir stilden daha normal ve küçük puntolu stile doğru değişiklik göstermektedir. Heading/başlık tipleri şunlardır:H1: Sayfanın ana başlığıdır. Her sayfada sadece 1 adet H1 etiketi bulunmalıdır. H1 etiketi, ilgili sayfanın hangi konu hakkında bilgi/içerik sunduğunu belirten ve sayfanın SERP'te görünür olması hedeflenen ana keyword/anahtar kelimesini yansıtır.H2: Sayfanın ana başlığı (H1)'ini destekleyen konu başlıklarıdır. H2 etiketleri, sayfa içeriğindeki üst başlıkları ifade etmektedir.H3: Sayfadaki üst başlıkları destekleyen alt başlıklardır. H2 etiketi altında, o etiketle alakalı başlık ve konuları belirtmek için kullanılır.H4, H5 ve H6: Sayfa içeriğinde ihtiyaç duyulması halinde alt başlıkları belirtmek için kullanılır. Örneğin H2 üst başlığının altında kullanılan H3 başlık ve metinlerini daha fazla alt başlığa bölmek gerekiyorsa H4, H5 ve H6 başlıklardan yararlanılabilir.Heading/Başlık Etiketlerinin Hiyerarşisi Nasıl Olmalı?Bir web sayfasında heading/başlık etiketleri kullanılacaksa bu etiketlerin mutlaka konu bütünlüğünü sağlayacak şekilde hiyerarşik olarak sayfaya eklenmesi gerekmektedir. Örneğin Dijital Pazarlama başlığıyla bir web sayfası içeriği oluşturuluyorsa ve bu içerik, alt başlık ve konulara sahipse; ilgili içeriğin heading/başlık hiyerarşisi şu şekilde olabilir:H1: Dijital Pazarlama H2: Dijital Pazarlama Nedir? H2: Neden Dijital Pazarlama? H2: Dijital Pazarlamanın Avantajları ve Dezavantajları H3: Dijital Pazarlamanın Avantajlar H3: Dijital Pazarlamanın Dezavantajları H2: Dijital Pazarlama Kursları H3: Dijital Pazarlama İçin Hangi Kursu Almalıyım? H4: Udemy Dijital Pazarlama KursuHeading/başlık hiyerarşisini oluştururken önemli olan; başlıkların konu bütünlüğünü koruması ve alt başlıkların mutlaka o konuyla alakalı üst başlıklardan sonra eklenmesidir. Örneğin Dijital Pazarlama Kursları başlığında bir H2 varken, Dijital Pazarlama İçin Hangi Kursu Almalıyım? başlığı, Dijital Pazarlama Kursları başlığının alt başlığı olmalıdır. Bu yüzden H3 etiketinde bu başlık eklenmekte ve Dijital Pazarlama Kursları H2 başlığından hemen sonra bu başlığa yer verilmelidir.Heading/Başlık Etiketleri Kullanımında Sık Yapılan HatalarBirçok web sitesi, içeriklerinde heading/başlık etiketi kullanımına yer verirken konu bütünlüğü ve başlık hiyerarşisinde hatalar yapmaktadır. Bu hatalar, arama motoru botlarının sayfayı anlamlandırması ve yorumlamasını zorlaştırırken aynı zamanda kullanıcıya estetik açıdan verimsiz bir içerik sunmaktadır. Heading/başlık etiketi kullanırken sık yapılan hatalar ise genellikle şunlardır:Tüm İçerik Başlıklarını H2 Etiketiyle EklemekGenellikle sahip olduğu stil ve puntodan dolayı web siteleri içerik başlıklarında sadece H2 kullanabilmektedir. Ancak bu oldukça hatalı bir yöntemdir. Zira başlıkların (H2,H3,H4 vs.) stil ve puntoları CSS yardımıyla düzenlenebilmekte ve istenilen boyut ve vurgulayıcı tonlara getirilebilmektedir. İçerikte yer alacak başlık etiketilerinin kullanılmasının temel sebebi stil ve biçimden ziyade arama motoru botlarının sayfa hiyerarşisini anlamlandırmasına yardımcı olmaktır. Bu yüzden tüm başlıkları H2 etiketleri içerisinde kullanmak oldukça hatalı bir yöntemdir.H1'den Sonra Metin Eklemeden H2 Başlık KullanmakBirçok web sitesinin yaptığı hatalardan bir tanesi ise; sayfada kullanılan H1 etiketini sadece kullanmış olmak için sayfaya eklemeleridir. Halbuki H1 etiketi, sayfa içeriğinin ana bir keywordde yansıtan en önemli başlık etiketidir diyebiliriz. Bu yüzden H1 etiketinden sonra mutlaka 100-150 kelimelik bir metin içeriğinin yer alması gerekmektedir. Bu metin içeriği sayfa özetine ve sayfanın ana konusuna yer vererek H1 başlık etiketini desteklemektedir. Ardından H2, H3 ve diğer alt başlıklara yer verilmelidir.Tüm Alt Başlıkları İçeriğin Sonunda VermekBazı web siteleri, başlık hiyerarşisini yanlış anlamakta ve sayfa içerisinde önce H1 ardından tüm H2 başlıklar ve ardından tüm H3 başlıkları eklemektedir. Buradaki hiyerarşi yazının ve başlıkların konu bütünlüğüyle ilgilidir. Bu yüzden sayfada başlık tiplerini sırasıyla kullanmak yanlış bir hiyerarşidir. Doğru olan başlık kullanım yapısı ise yukarıda örneğini verdiğimiz gibi Üst Başlık > Varsa Üst Başlığı İlgilendiren Alt Başlık şeklinde olmalıdır. Yani sayfada H2 ardından H3 kullandıktan sonra eğer kullanılan H2 ve H3 başlığını ilgilendirmeyen farklı bir üst başlık eklenecekse yeniden H2 etiketiyle sayfaya eklenmelidir.Sayfadaki Sabit Alanlarda Heading Etiketi KullanmakGenellikle sahip olduğu biçim ve punto nedeniyle sayfalardaki pek çok sabit alanda heading başlıkları kullanılmaktadır. Örneğin headerda yer alana menü linklerinde, sosyal medya linklerinde veya footerda yer alan link ve kategori sidebarlarındaki linklemelerde heading/başlık işaretlemelerinin kullanılması, sayfa içeriğinin anlamlandırmasını bozan bir yöntemdir. Zira heading etiketleri, sayfa içeriğinin başlık hiyerarşisini ve konu bütünlüğünü sağlamak için kullanılır. Bu yüzden sayfalarda yer alan sabit alan ve linkler için heading yerine span işaretlemesi kullanılarak CSS yardımıyla biçim ve puntoları düzenlenebilmektedir.H1 Etiketini CSS Yardımıyla GizlemekBirçok web sitesinde, sahip olduğu punto ve biçimden dolayı H1 etiketi kullanılmak istenmez. Çünkü H1 etiketi sayfadaki en büyük ve belirgin fonta sahip etikettir. Bu durumda web siteleri, sayfada H1 kullanmış olmak için ekledikleri H1 etiketini CSS yardımıyla display:none veya visibility:hidden yaparak kullanıcıya gizlerler. Ancak bu yöntem eski ve hiçbir fayda sağlamayan yöntemdir. Zira arama motoru botları, sayfada görünürlüğü gizlenen metin ve başlıkları anlamlandırabilmektedir. O yüzden sayfaya eklenen H1, CSS yardımıyla gizlendiğinde ve kullanıcıya gösterilmediğinde, arama motoru botları için de görünmez kabul edilir ve sağlaması gereken faydayı sağlayamaz. Sayfaya eklenen H1 etiketini CSS yardımıyla gizlemek yerine aynı CSS kod satırında H1 etiketinin boyut ve biçimi düzenlenerek sayfa estetiğine uyumlu hale gelmesi sağlanabilmektedir.

GTM Element Visibility ile Sanal Sayfa Entegrasyonu Nasıl Yapılır
Eyl 5, 2022 976 reads

GTM Element Visibility ile Sanal Sayfa Entegrasyonu Nasıl Yapılır

Bu blog içeriğimizde yukarıdaki sorunun cevabını bulacak;  Sanal Sayfa nedir, Sanal Sayfanın avantajları ve dezavantajları nelerdir, GTM Element Visibility ile Sanal Sayfa Entegrasyonu yaparak yazılımcı desteği olmadan bu süreç nasıl yönetilebilir konularında detaylı bir öğrenim sağlayacaksınız.Sitenizde sayfa url’i değişmeden içeriğin değiştiği durumlarda zaman zaman ek sayfa ölçümlemelerine ve daha detaylı analizlere ihtiyaç duyabilirsiniz. Bu gibi durumlarda detaylı funnel analizi yapabilmeniz içinde yukarıdaki sözünü ettiğim tanımların ne anlama geldiğini ve Element Visibility ile herhangi bir yazılımcı desteği olmadan GTM üzerinden nasıl kurulum yapabileceğinize bakalım.Sanal Sayfa (Single Page Application) Nedir?Sitenizin daha hızlı bir performans göstermesi konusunda avantaj sağlayan Sanal Sayfa kısaca SPA (Single Page Application), sunucudan yeni sayfaların tamamını yüklemek yerine geçerli olan sayfanın dinamik bir şekilde yeniden yazılması ile kullanıcıyla etkileşime giren web uygulamalardır.SPA (Single Page Application) olan bir sitede, siteniz açıldığında bütün kaynak kodları aynı anda bir kere yüklenir ve bu tek bir kere yüklenen kaynak kodları kullanıcılara yeni sayfalar gösterilirken ön yüzdeki kodlar çalıştırılarak gösterilir. Buradaki avantaj ise kullanıcının farklı bir sayfaya geçiş yaptığında bu kodların tekrar yüklenmesini beklememesidir. Özetle,  Sanal sayfa site hızının artmasını sağladığı için kullanıcı deneyimi açısından oldukça önemlidir.Örneğin, bir e-ticaret web sitesinde gezindiğinizi ve gezindiğiniz sayfalar içerisinde bulunan ürünlerin her birini açıp incelediğinizi düşünelim. Burada her defasında farklı bir sayfa açarak sunucuya yeni bir istek gönderiyorsunuz ve sunucu size yanıt olarak görüntülemek istediğiniz tüm sayfaları yeniden size gönderiyor. Bu senaryo da her ne kadar her şey olması gerektiği gibi gözükse de, site trafiğinizin yoğun olduğu bir dönemde site hızınız açısından ciddi sorunlar yaratabilir. Bu örneği SPA açısından düşünecek olursak, tüm kaynak kodları en başından yükleneceği için sizin site içerisinde gezinirken alacağınız aksiyonlar gelen isteğe göre şekilleceğinden dolayı site hızınızı olumsuz etkilemez. Bir sayfaya tıkladığınız zaman sayfa değişir ancak yeniden yüklenmez.Ancak elbetteki artan site hızının yanında sanal sayfaların siteniz üzerinde olumsuz bir etkisi de vardır. SPA sitelerinde kaynak takibinin bozulması söz konusu olabilir ve bu duruma rogue referrer ismi verilmektedir. Referrer kaydı, web sitenizde gelen kullanıcıların hangi kaynaktan geldiklerini, ne kadar kaldıklarını saptayabilmek ve analiz edebilmek için oldukça önemlidir.Buna ek olarak SPA uygulamaları, SEO açısından da bir dezavantaja dönüşebilmektedir. Şöyle ki SPA uygulamaları tek bir sayfa gibi gözüktüğünden sitenizin gerektiği şekilde indekslenmesini engelleyerek sayfa sıralamanızın düşmesine sebebiyet verebilmektedir.Yukarıda sözünü etmiş olduğumuz avantaj ve dezavantajları özetlemek gerekirse;SPA (Single Page Application) ‘nın Avantajları:Hız / Performans: Daha önce de belirtmiş olduğum gibi SPA kullanımınında kullanıcı ile etkileşime giren web uygulaması tüm sayfayı her seferinde yeniden yüklemek yerine dinamik bir şekilde sayfayı yüklemeden içeriği güncellediği için kullanıcının site içerisinde hızlı bir şekilde aksiyon almasını sağlar.UX (Kullanıcı Deneyimi): SPA uygulamaları, sayfalar arasında kullanıcı deneyiminin kesintiye uğramasını engelleyerek mobil uygulamalara yakın bir deneyim sağlar. Bu sayede kullanıcıya etkili ve pratik bir süreç sunar.Caching (Önbellek): SPA’lar geliştiricilerin cache dediğimiz önbelleğin çok daha hızlı bir şekilde oluşturulmasına izin verir. Böylelikle lokal veriler ve bağlantı akışı SPA uygulamalarında etkili bir şekilde kullanılabilmekte, herhangi bir internet kopması ya da yavaşlaması durumunda dahi kullanıcının siteyi kullanabilmesini sağlamaktadır. SPA (Single Page Application) ‘nın Dezavantajları:Rogue Referrer: SPA uygulamalarında, kaynak takibinin bozulması sebebiyle referrer olarak gelen kullanıcıların saptanması zorlanabilir. Bu durum detaylı funnel analizini engelleyebilir.SEO açısından: SPA uygulamaları, SEO açısından değerlendirilecek olunursa sitenizdeki sayfanın tek bir sayfa olarak gözükmesi sebebiyle indekslenmesini engelleyebilmektedir.GTM üzerinden kurgulanan All Pages triggerı her sayfa yüklenmesi durumunda tetiklendiği için için Sanal Sayfa Entegrasyonu olan web sitelerinde Analytics tarafından ölçümlenemez. Bu durum ise detaylı funnel analizi yapmak istediğimizde karşımıza bir engel olarak çıkar. Bu durumun önüne geçebilmek için önce, Sanal Sayfaların sitemizde kullanıldığı alanlara ve ardından Sanal Sayfa Entegrasyonu Nasıl Yapılır, GTM Element Visibility ile Sanal Sayfa Entegrasyonu konularına bakalım.Sanal Sayfaların Kullanıldığı AlanlarSanal Sepet Sayfaları: Sanal sepet sayfaları sepet adımına gitmeden önce sağ veya sol tarafta yandan açılan Sepet & Sipariş Özeti sayfalarıdır.Lead Generation Sayfaları: Sitenizde yer alan SMS ve onay pop-uplarında genellikle sanal sayfalar kullanılmaktadır.Sanal Sayfanın Kullanıldığı Bazı Önemli Örnekler:GmailFacebookTwitterGoogle DriveGoogle MapsNetflixSanal Sayfa Entegrasyonu Nasıl Yapılır?Sanal Sayfa Entegrasyonu yapmanın birkaç yolu vardır. Bu yollardan ilk akla geleni yazılımcı desteği ile native veya GTM üzerinden event pushlanmasıdır. Her ne kadar bu seçenek daha kolay ve pratik gibi gelse de sizi yazılımcıya bağlı kılacağı için işlerin yavaşlamasına ya da herhangi bir problem durumunda ilgili evente doğrudan müdahale edemeyeceğiniz için hızlı aksiyon alamamanıza sebebiyet verebilir.Bir diğer yöntem ise birazdan detaylıca anlatacağım GTM Element Visibility ile Sanal Sayfa Entegrasyonudur. GTM üzerinden kurulacak element visibility triggerı ile yazılımcı desteğini senaryodan çıkararak daha hızlı sonuçlar alabilir ve detaylı funnel analizleri yapabilirsiniz. GTM Element Visibility ile Sanal Sayfa EntegrasyonuYukarıda sözü geçen Sanal Sepet Sayfası ve Lead Generation için bu yazımızda Sanal Sayfa entegrasyonu için GTM seçeneğini kullanacağız. GTM Element Visibility ile Sanal Sayfa Entegrasyonu yapabilmeniz için öncelikle web sitenizde GTM kodunun ekli olması gerekmektedir. Ardından GTM’in bize sunmuş olduğu Element Visibility triggerı ile gerekli kurulumlara başlayabiliriz. Ancak öncesinde gelin Element Visibility triggerını daha iyi anlayalım ve bu triggerın hangi durumlarda ve ne şekilde tetiklendiğini görelim. GTM üzerinde Trigger > New Trigger dediğimizde öncelikli olarak karşımıza aşağıdaki ekran çıkmaktadır.Trigger Configuration alanına tıkladığımızda ise GTM bizden trigger type seçmemizi ister.Trigger type olarak Element Visibility seçeneğini seçtiğimizde ise bizi aşağıdaki ekran karşılamaktadır.Burada sayfadaki sıralamaya göre gidilecek olunursa ilk önce Selector Method alanından kullanacağımız selector methodunu seçmemiz gerekiyor. Eğer ID kullanacaksak ilgili sayfada bulunan elementin ID’sini buraya yazmak yeterli olacaktır. Ancak ID dışında CSS seçeceksek element selector bilgisini yazmamız gerekiyor. (Bu arada ID seçtiğimizde de yine CSS seçip bu inputa #id şeklinde yazabilmekteyiz.)Element Visibility triggerı 3 şekilde tetiklenmektedir:Once per page ile Element Visibility triggerımız sayfada sadece bir kere tetiklenecektir. Bu sayede kullanıcının bir pop-up gördüğünde Analytics’e her seferinde hit göndermesi yerine sadece bir kere gönderilmesi sağlanmaktadır.Once per element seçtiğimizde ise element başına trigerrımızın tetiklenmesini sağlarız. Eğer kullanıcının bir SMS onay pop-up’ında bilgilerini yanlış girip tekrar pop-up’un açılmasını sebebiyet verdiği bir durumda yeniden sayfa sayımı yapmak istiyorsak bu seçeneği seçmek akıllıca olacaktır.Every time an element appears on screen seçeneğinde ise kullanıcının her seferinde en az % minimum percent visible alanına girdiğimiz değer kadarını gördüğümüzde tetiklensin demekteyiz. Percent visible, triggerımız etkinleştiğinde seçili öğenin ne kadarının görünür olduğunu belirten sayısal bir değerken; minimum percent visible ise, seçilen öğenin yüzdelik olarak en az ne kadarının görüntülendiğinde tetiklenmesini istediğimiz alandır. Burada farklı bir yüzdelendirme yapılabileceği gibi varsayılan olarak, tetikleyicinin etkinleşmesi için öğelerin en az %50’si ekranda olmak zorundadır. Bu noktada Advanced ayarlar içerisinde minimum on screen duration alanını seçerek de kullanıcıların ilgili öğeyi (selektörü) seçtiğimiz alanın sayfada en az 1 saniye gördükten sonra tetiklenmesini de seçebiliriz. 1 saniye değer cinsini ise 1000 ms değerinden yazmak gerektiğini de belirtelim.Son olarak eğer seçtiğimiz selektör sayfada sonradan ortaya çıkıyorsa observe DOM changes özelliğini seçmeliyiz ki, sayfa yüklendikten sonra istediğimiz alan tetiklensin. Eğer görüntülenmesini istediğimiz öğe sayfanın başından beri sayfada bulunuyorsa bu seçeneği seçmemize gerek olmamaktadır. Element Visibility’nin genel olarak nasıl çalıştığını öğrendikten sonra gelin sanal sayfaların kullanıldığı alanlardan olan sanal sepet sayfaları ve lead generation sayfalarında GTM Element Visibility ile entegrasyonu nasıl yapacağımıza bakalım.Sanal Sepet Sayfaları için GTM Element Visibility EntegrasyonuYukarıda anlatılanlardan yola çıkarak öncelikle bir selector seçmemiz gerekmektedir. Bunun için görüntülenen alanın üzerine tıklayarak Inspect> Elements alanına tıklamalıyız. Yukarıdaki örnekte belirli bir ID bilgisi ver almadığı için class üzerinden giderek, sitedeki olası bir değişikliği de göz önüne alarak en sade olan selectorü seçmeliyiz. Burada kullanacağımız selector aşağıda box-flex classı altındaki cart-summary olacak.document.querySelector("box-flex. cart-summary") . . . Seçtiğimiz selectorün doğruluğundan, sayfada tek olduğunu ve sanal sepet sayfasında görüntülendiğinden emin olabilmek aşağıdaki şekilde concole üzerinden bir arama gerçekleştirip Lenght değerinin 1 olduğundan emin olduktan sonra GTM üzerinden kuruluma devam edebiliriz. `document.querrySelector(“box-flex. cart-summary”)` `NodeList [div.cart-summary.cart-summary-container.cart-summary-sticky]` `> 0: div.cart-summary.cart-summary-container.cart-summary-sticky` `Length: 1` `__proto__: NodeList`Trigger’ın kurulumunu tamamladıktan sonra Tag kurulumuna geçebilir ve kuracağımız tagı sayfa sayımı olarak PageView hitinde seçerek Analytics’e verilerimizi pushlayabiliriz. Ancak Analytics’te page değerlerimizin sayfa URL’inden gitmemesi için More Settings > Field to Set override etmeyi unutmamalıyız. Burada kendi istediğimiz isimlendirme ile sayfanın isim ve başlığı page ve title olarak gönderebiliriz.Lead Generation Sayfaları için GTM Element Visibility EntegrasyonuLead Generation sayfalarında bazen SMS onayı farklı bir sayfada değil pop-up olarak kullanıcıya gösterilebiliyor. Bu gibi durumlarda sayfa sayımı yapılmadığı ve pop-up takip edilmediği için kullanıcıların SMS funnelını ne zaman terk ediyor ya da terk ediyor mu, bu adımda ne kadar aksiyon alan kullanıcılar ve bunları kaçırabiliyoruz. Burada da GTM Element Visibility ile SMS modelini kullanıcı görüntülediği zaman page view olarak Analytics’e pushalayabiliyor ve bu sayede detaylı funnel analizi yapabiliyoruz. Böylece yukarıdaki örneklerden yola çıkarak Sanal Sepet sayfası olan ya da pop-up şeklinde lead generation sayfasına sahip markalarınızda yazılımcı desteği olmadan GTM Element Visibility ile Sanal Sayfa Entegrasyonu yaparak bu sayfaların performanslarını daha iyi ölçümleyip analiz yapabileceksiniz.Bir sonraki yazımızda görüşmek dileğiyle…

Blog Yazılarında Dikkat Edilmesi Gerekenler Listesi
Eyl 5, 2022 2556 reads

Blog Yazılarında Dikkat Edilmesi Gerekenler Listesi

Kullanıcının arama niyetine yönelik oluşturduğunuz içeriklerde organik trafiğinizi artırmak için blog yazılarında dikkat edilmesi gerekenler listesine mutlaka göz atmalısınız.Sizin için 13 maddede ele aldığımız bu konu ile hem arama motorlarının içeriğinizi anlamasını sağlayabilir hem de kullanıcılara iyi bir deneyim yaşatabilirsiniz.İçerik pazarlamasında en önemli kanallardan biri de blog yazılarıdır. SEO uzmanları ve içerik yazarları tarafından söylenen şu sözlere kulaklarınız aşinadır. “Arama motorları için değil, kullanıcılar için içerik üretin”“Google, her zaman yüksek kaliteli içerikleri ödüllendirir”Sizlere sunacağımız 13 tavsiye ile içeriklerinizi hem arama motoru hemde kullanıcılar tarafından istediğiniz saygıyı kazanabilirsiniz.Blog Yazılarında Dikkat Edilmesi Gerekenler ListesiWeb sitenizde yer alan yazılarınızı dikkatli bir şekilde kontrol etmelisiniz. Blog yazılarınız ile daha fazla anahtar kelimede görünürlük ve tıklama almak istiyorsanız, belli başlı noktaları göz önünde bulundurmalısınız. Temel seviyede bir blog yazısında dikkat etmeniz gerekenleri kontrol etmeli ve daha sonrasında SEO çalışmalarınızı derinleştirmelisiniz.İlgi Çeken İçerik KonularıSEO Dostu URL YapısıYazar Profili Oluşturunİçindekiler BölümüDikkat Çekici Güçlü BaşlıklarGiriş Metninizi Optimize Edinİçerik Başlıklarıİdeal İçerik UzunluğuGörsellerin Gücünden Faydalanınİçeriğinizi ToplayınDahili Bağlantının GücüYapısal Veri İşaretlemeleriDiğer İçeriklerin Gösterimi1. İlgi Çeken İçerik KonularıBlog yazılarınız, hedef kitleniz için ilgi çeken içerik konuları olmalıdır. Hedef kitlenizin merak ettiği konulara yer verdiğinizde, kullanıcıların dikkatini çeker ve sitenizi önemserler. Hedef kitle için ilgi çeken içerik konuları belirleme yöntemleri:Google Analytics'te site arama terimleri ve açılış sayfalarınız size yardımcı olacaktır.Hedef kitleniz ile en yakın temasta olan satış pazarlama ekibinize en çok hangi tür sorular ile karşılaştığını sorun.Sosyal medya kanallarında sektörünüz ile alakalı konuşulan konuları dinleyin.İlgi çeken içerik konuları belirlemek için tavsiye ettiğimiz yöntemlerden faydalanabilirsiniz. Ayrıca Ahrefs gibi SEO araçları yardımıyla, rakip web sitelerinin en iyi açılış sayfalarını analiz edebilirsiniz. Bu sayede hedef kitlenizin tüketmeyi sevdiği içerik konusunu belirleyebilirsiniz2. SEO Dostu URL YapısıWeb sitenizde yer alan tüm sayfalarınız için mutlaka basit, kısa ve akılda kalıcı bir SEO dostu URL yapısı kullanmanızı tavsiye ederiz.SEO için URL yapılarında, tarih ve yıl gibi kullanımlar URL yapısında uzun ve karmaşık bir yapı oluşturduğundan akılda tutulması oldukça zordur. Ayrıca çok uzun URL yapıları, tarama motorlarının istekte bulunduğunda sunucunun geç yanıt vermesine ya da vermemesine neden olabilir.Tavsiye Edilmeyen URL Yapısı: “https://www.example.com/index.php?id_sezione=360&sid=0108mb202233ah4234”Tavsiye Edilen URL Yapısı:“https://www.example.com/seo”SEO dostu URL yapısı SERP'te da sizi ön plana çıkaracak ve bağlantıya tıklamak isteyen kullanıcıya karşısında ki sayfanın konusu hakkında kısa bilgi verebilir.URL yapılarında ayrıca büyük ve küçük harf kullanımına dikkate etmeniz gerekmektedir. Örneğin, siteadi[.]com/url-kucuk-harf kullanımı ile siteadi[.]com/URL-BUYUK-HARF kullanımı oldukça farklıdır. Her iki URL aynı içeriğe sahip olsa da Google tarafından farklı iki sayfa olarak değerlendirilir.3. Yazar Profili OluşturunWeb sitenizde yer alan blog gönderileriniz için yazar profili oluşturun. Yazar profili E-A-T için oldukça önemli bir konudur. E-A-T ile Google sitenizde yer alan yazılarının kalitesini değerlendirme kullanabilir.Blog yazılarında içeriği yazan yazarın adına yer vermek, hatta ona ait bir profil sayfası oluşturmak kullanıcıların yazarın diğer içeriklerine daha kolay ve rahat bir şekilde erişmesini sağlar. YMYL (Your Money Your Life) kalite standartları için yazar profili olması, insan sağlığını ve finansal durumunu etkileyecek konularda içeriğinize güven duyulmasını sağlar.4. İçindekiler BölümüBlog yazılarınızda, açılış sayfasının sağında, solunda veya üst kısmında yer alan ilgili yazı ile alakalı içindekiler bölümüne yer vermenizi tavsiye ederiz. İçindekiler bölümü, arama motoru botlarına ve kullanıcılara ilgili içerikteki konu başlıklarına hızlıca erişmesine ve gezinmesini sağlarBlog yazılarınızda özellikle içerikler tablosuna yer vermeniz, sayfanızı ziyaret eden kullanıcıların merak ettiği konu başlıklarına hızlıca erişmesini sağlayarak içeriğinizin tüketilmesini sağlar.Wordpress web sitelerinde blog yazıları için içindekiler tablosu özelliğin olan TOC eklentilerinden herhangi birini kurabilirsiniz. Kurulum yapacağınız eklentiyi seçerken yorum ve indirme sayısını mutlaka kontrol ediniz.İçindekiler tablosuna yer vermeniz sitenizin bazen Google SERP tarafında zengin sonuçlar ile ödüllendirilmesini sağlayabilir. Arama motoru sonuç sayfalarında ilgili içeriğin altında yer alan site bağlantı metinlerinin gösterilmesini etkileyebilir.5. Dikkat Çekici Güçlü Sayfa BaşlıklarıWeb sayfalarında dikkat çekici güçlü sayfa başlıkları yani meta title içerisinde yer alan başlık, SERP’te sayfanızı gören hedef kitlenizin tıklama oranını artırır.Sayfa başlıkları hem arama motorları tarafından önemsenmekte, hem de kullanıcıların dikkatini çekmektedir. Sayfanın konusu ile alakalı oluşturacağınız başlıklarda SEO performansına olumlu katkısı olacaktır.Sayfa başlığı oluştururken şunlara dikkat etmeliyiz:Google arama motoru sonuç sayfalarını inceleyin,Marka isimlerine yer verin,Kullanabiliyorsanız sayılara yer verin,Arama motorları için optimize edin, kullanıcılar için oluşturun,Tıklama getirmeyen sayfalarınız için meta title optimizasyonu düşünün,Soru başlıkları ile dikkat çekin ve merak uyandırın6. Giriş Metninizi Optimize EdinOptimize edilmiş meta title, yani sayfa başlık etiketleri SERP’te kullanıcıların sitenize tıklaması için ikna edici rolü üstlenmektedir. Fakat sitenizi ziyaret eden kullanıcının dönüşüm yapması için giriş metninizi optimize etmelisiniz.Blog içeriğinin konusunu en baştan okuyucuya net olarak aktarmalıyız. Kullanıcıya bu içeriği neden okuması gerektiğini ve ona nasıl bir fayda sağlayacağını söylemelisiniz. İstatistiklere yer vermeniz her zaman kullanıcıların dikkatini çekecektir. Mutlaka giriş metninde hedeflediğiniz anahtar kelimeye yer verin. 7. İçerik BaşlıklarıWeb sayfasında yer alan tüm içeriklerde mutlaka başlık etiketlerine yer vermeniz gerekmektedir. Başlık etiketleri bir içeriğin konusu hakkında arama motorlarına ve kullanıcılara bilgi sağlamaktadır.İçerik başlık etiketleri yani H1, H2, H3, H4, H5 ve H6 etiketlerinden en az bir kaçına hiyerarşik bir şekilde içeriklerde yer vermeniz gerekmektedir. H1 etiketi en önemli bir sayfa içeriği başlık etiketi iken H6 daha az önemli olarak tanımlanmaktadır.Başlık etiketlerinde mutlaka hedeflediğiniz anahtar kelimelere, doğal olarak ve anlamlı olacak şekilde yer vermenizi tavsiye ederiz.8. İdeal İçerik UzunluğuBlog içeriklerinizin üst sıralarda yer alması için içerik uzunluğundan çok daha önemli konular bulunmaktadır. Yukarıda bahsettiğimiz unsurları mutlaka dikkate almalısınız. 2022 yılı için en iyi blog içeriği uzunluğu ortalama 1.500 ile 3.000 kelime arasında olması tavsiye edilmektedir. İnsanlar kısa içerikler tüketmeyi çok seviyor fakat Google tarafında ne yazık ki işler o şekilde ilerlemiyor. Blog gönderilerinin en az 300 kelimeden oluşmasını tavsiye ederiz. Fakat 300 kelime ile bir konuyu derinlemesine ele almanız pek mümkün değildir.İçerik uzunluğu asıl belirleyen faktörler konu ve hedef kitlenin demografik özellikleridir. Hedef kitleniz iyi okuyuculardan oluşuyor ise blog gönderilerinizde oldukça detaya inmelisiniz. Fakat hedef kitleniz hızlı içerik tüketimi sağlıyorsa, o noktada da kısa içeriklere yer verebilirsiniz. Kısa içerikler oluştururken mutlaka zayıf içerik olup olmadığına dikkat ediniz.Hedef kitlenizin içerik tüketmeyi sevip sevmediğini anlamak için en basit yöntem, “daha fazla oku” bağlantılı olan akordiyon menülere yer verebilirsiniz. Farklı A/B testleri için kitlenizin içeriğinizin ne kadarını tükettiğini öğrenebilir, içerik stratejinizi ve ideal içerik uzunluğunu ona göre belirleyebilirsiniz.9. Görsellerin Gücünden FaydalanınBlog yazılarınızda mutlaka görsellere yer vermeniz gerekmektedir. İnsanlar bazen uzun yazılar okumak yerine infografikler ile istedikleri bilgiyi almak istiyorlar. Bazen içeriklerinizde yer alan bazı kısımları metin yardımı ile anlatmak çok karışıklık yaratabilmektedir. Bu noktada zengin medya içerikleri kurtarıcı olarak imdadımıza yetişmektedir. 10. İçeriğinizi ToplayınTıpkı edebiyat derslerinde de öğretildiği gibi, bir konu hakkında blog yazarken giriş, gelişme ve sonuç bölümleri yer almalıdır. Yazacağımız bu konu ister dijital ortamda yayınlansın ister bir kitapta ya da dergide yayınlansın, mutlaka kullanıcının dikkatini çekecek bölümler yer almalıdır.Oluşturduğunuz içeriklerde mutlaka yazının sonunda bir sonuç kısmı olmasına dikkat ediniz. Sonuç bölümde konuyu özetlemeli ve çıkarımları ele almalısınız. Sonuç kısmına kadar gelmiş olan bir kullanıcı içeriğinizi beğenmiştir. Bu noktada onun bir dönüşüm sağlaması için harekete geçirici metinlere yer verilebilir.Bu harekete geçirici mesajlar bazen e-posta bültenine kayıt olma iken, kime zamanlarda ürün ve hizmet göz atması gerektiği gib mesajlar yer alabilir.11. Dahili Bağlantının GücüDahili bağlantılar, sadece blog yazılarında değil web sitesi genelinde oldukça güçlü bir terimdir. Kullanıcıların ve arama motoru botlarının web sayfasında iyi bir deneyim yaşamasını ve diğer içerikleri kolayca tüketmesini sağlamaktadır. Dahili bağlantılar yardımı ile SEO çalışmalarınızda performansınızı oldukça iyi noktalara çıkartabilirsiniz. En çok trafik alan sayfanızdan diğer önemli ve az taranan sayfalara link vermeniz SEO çalışmalarını olumlu yönde etkileyecektir.Web sitenizde yer alan tüm sayfaları bir örümcek ağı gibi birbiri ile dolaylı ya da direkt yoldan olacak şekilde bir bağlantı yapısı oluşturmanız gerekir.12. Yapısal Veri İşaretlemeleriYapısal veri işaretlemeleri, arama motoru botlarına ilgili açılış sayfası hakkında ön bilgi sağlayan bir sözlüktür. Yapısal veri kullanımı, bazen Google SERP’te sayfalarınızın görünümünün ödüllendirilmesini ve kullanıcıların dikkatini çekmeyi sağlamaktadır.Yapısal veri işaretlemeleri için en çok kullanılan sözlük schema.org adresinde yer alan işaretleme yöntemidir. Bu veriler, ürün sayfaları, kategori sayfaları, hizmet sayfaları gibi sitemizde yer alan tüm sayfalarda yer almalıdır.Blog yazılarında, BlogPosting ve Article gibi yapısal veri işaretlemelerinden birini tercih edebilirsiniz. Ayrıca yine FAQ, Howto, Breadcrumbs, Recipe gibi diğer türlerden de içeriğinizin konusuna göre ekleme yapabilirsiniz.13. Diğer İçeriklerin Gösterimiİlgili blog yazılarınızda kullanıcıyı ikna ederek ve dikkatini çekerek içeriğinizi tüketmesini sağladınız. Fakat kullanıcının karşısına konu ile alakalı kullanıcının dikkatini çekebilecek  diğer içeriklerin gösterimi sağlanmalıdır.Kullanıcı eğer ilgili içeriği tükettikten sonra başka bir siteyi ziyaret etmesini istemiyorsanız ve hemen çıkma oranının artırmak istemiyorsanız mutlaka konu ile alakalı içeriklere yer verebilirsiniz.İçeriğinizin alt kısmında web sitenizde yer alan konu ile alakalı en fazla 3 adet içeriğin gösterilmesini sağlayınız. Bu sayede diğer içeriklere bağlantı vererek dahili bağlantı sorunu çözmüş olacaksınız.SonuçBu içeriğimizde sizler için blog yazılarında dikkate edilmesi gerekenleri 13 maddede sizin için ela aldık. Önerdiğimiz tavsiyeleri uygulamanız durumunda arama motoru botları tarafından içeriğiniz daha iyi anlaşılacak ve kullanıcı tarafında da optimizasyon sağlamış olacağız.Blog yazılarında dikkat edilmesi gerekenler içeriğimiz gibi SEO hakkında daha fazla içerik için merak ettiğiniz konulara yer vermemiz gerektiğini bize bildirin. Ayrıca içeriğimizi beğendiyseniz sosyal medya platformlarında paylaşarak bizlere destek olabilirsiniz.

GA4’da Exit, Entrance ve Landing Page Raporlamaları
Eyl 5, 2022 6029 reads

GA4’da Exit, Entrance ve Landing Page Raporlamaları

Yakın zamanda tamamıyla kullanacağınız GA4 paneli, sayfalarınız hakkındaki bilgilere erişmenizde GA3 paneli kadar kolaylık sağlamıyor gibi görünebilir. Birkaç düzenleme ve raporlama tekniğiyle kendi dashboardınızı oluşturabilir ya da özelleştirilmiş bir rapor oluşturabilirsiniz. Ama öncelikle bu sayfaların ne anlama geldiğine ve GA3 panelinde nasıl erişebileceğinize bakalım.Exit Page:Exit sayfaları, site ziyaretçilerinizin en son görüntüledikleri ve siteden ayrıldıkları sayfalardır. Örneğin, bir kullanıcı blog içeriğinizi okuyorsa ve bundan sonra sitenizdeki bir ürün sayfasını ziyaret ediyor ancak sitenizden oradan çıkıyorsa, çıkış sayfanız ürün sayfasıdır.GA3 panelinde Exit sayfalarını şu şekilde görebilirsiniz:Behavior raporu altındaki Site Content’i seçin. Açılan menüde bulunan Exit Pages’e tıkladığınızda rapora erişebilirsiniz.Exit sayfası raporu size bazı insightlar sunabilir. Bir blog veya haber sitesi işletiyorsanız, tek bir makale okuyup ardından ayrılmak oldukça normaldir. Ancak, ödeme sırasında e-ticaret sitenizden birçok kişi ayrılıyorsa, bu bir tehlike işaretidir. Örneğin, sitede düşük performans gösteren sayfaların anlaşılmasında kullanılabilir. Ya da çok yavaş bir yüklenmeye sahip bir sayfanızın olup olmadığı hakkında size fikirler verebilir.Peki, bu veriyi GA4 panelinde nerede görebileceğinize bakalım. GA4 panelinde, exit sayfalarını Exits metriği ile takip edebilirsiniz. İlerleyen zamanlarda belki sadece exit sayfaları için bir default bir dashboard eklenebilir panele ama şu an için manuel olarak oluşturmanız gerekmektedir.Öncelikle Explore kısmında boş bir Rapor Template’i açın.Dimensions alanında bulunan + işaretine tıklayın.Dimension olarak “page path + query string” seçip Import’a tıklayın.Daha sonra Metrics alanına Exits ve Views ekleyin.Verilerin hepsi eklendikten sonra bu tabloyu elde edeceksiniz:Entrance Page:Entrances sayfaları, kullanıcının sitenizdeki yolculuğuna başladığı yerdir. Ancak bu, pageview ve session gibi diğer terimlerle karıştırılabilir.Açığa kavuşturmak gerekirse, Google Analytics, web sitenize her sayfa yüklendiğinde ve tracking kodu yürütüldüğünde bir pageview kaydeder. Bir sayfanın sitenizde aldığı görüntüleme sayısı, pageview metriğini oluşturur. Bu, bir entrance’den farklıdır çünkü kullanıcınızın ziyaret ettiği ilk sayfa olmak zorunda değildir. Analytics hesabınız, bir oturum sırasında bir kullanıcının ziyaret ettiği herhangi bir sayfayı pageview olarak kaydeder.Ayrıca, Google Analytics, bir kullanıcı web sitenizi her ziyaret ettiğinde bir session sayar. Ziyaret ettikleri tüm sayfaları ve tetikledikleri olayları 30 dakikadan fazla aktif olmadıkları sürece tek bir session olarak kaydeder. 30 dakikalık hareketsizlik sınırına ulaşırlarsa, sitenizle tekrar etkileşim kurduklarında Analytics bunu yeni bir session olarak kaydeder.Bir entrance kaynağı, bir kullanıcıyı sitenize yönlendirir. Entrance kaynakları, ücretli kampanyalar, sosyal medya gönderileri veya sitenize bağlı diğer harici kaynaklar olabilir.Bu veriyi GA3 panelinde şu şekilde görebilirsiniz:Behavior raporu altındaki Site Content’i seçin. Açılan menüde bulunan All Pages’e tıkladığınızda rapora erişebilirsiniz.Bu veriyi GA4 panelinde görmek için şu işlemleri yapabilirsiniz:Öncelikle Explore kısmında boş bir Rapor Template’i açın.Dimension alanında bulunan + işaretine tıklayın.Dimension olarak “page path + query string” seçip Import’a tıklayın.Daha sonra Metrics alanına Entrances ve Views ekleyin.Verilerin hepsi eklendikten sonra bu tabloyu elde edeceksiniz:Landing Page:Landing sayfası, insanların reklamınızı tıkladıktan sonra geldikleri web sayfasıdır. Bu sayfanın URL'si genellikle reklamınızın nihai URL'siyle aynıdır.Her reklam için, insanların reklamınızı tıkladıklarında yönlendirildikleri landing sayfasını belirlemek için bir nihai URL belirtirsiniz.Landing sayfası deneyiminiz, bir anahtar kelimenin Kalite Puanını belirlemeye yardımcı olan birkaç faktörden biridir. Bir landing sayfasının deneyimi, sayfada sağlanan bilgilerin kullanışlılığı ve alaka düzeyi, kullanıcı için gezinme kolaylığı, sayfadaki bağlantıların sayısı ve tıklanan reklama dayalı olarak kullanıcıların beklentileri gibi şeylerle temsil edilir.Bunu GA3 panelinde şu şekilde görebilirsiniz:Behavior raporu altındaki Site Content’i seçin. Açılan menüde bulunan Landing Pages’e tıkladığınızda rapora erişebilirsiniz.Bu konuyu GA4 panelinde ise iki farklı şekilde görebilirsiniz. İlk olarak özelleştirilmiş bir rapor oluşturabilirsiniz:Öncelikle Explore kısmında boş bir Rapor Template’i açın.Dimension alanında bulunan + işaretine tıklayın.Dimension olarak “Landing Page” seçip Import’a tıklayın.Daha sonra Metrics alanına görmek istediğiniz herhangi bir veriyi ekleyin. Views, sessions, engaged sessions, total users, new users, returning users, engagement rate, average engagement time per session, conversions, total revenue vs. gibi metrikleri kullanabilirsiniz ya da özelleştirilmiş metriğinizi GA4 Custom Definition ve Kullanım Alanları kısmında bahsettiğimiz şekilde kendiniz oluşturabilirsiniz.Verilerin hepsi eklendikten sonra bu tabloyu elde edeceksiniz:Diğer bir yöntem ise Pages and Screens Rapor'unu özelleştirerek bir dashboard oluşturmak. Bunun için şu yöntemleri izlemelisiniz:GA4 panelinde bulunan Report alanını açarak Engagement kategorisini seçin. Burada bulunan Pages and Screen dashboardını açın.Sağ üstte yer alan Customize Report alanına tıklayın.Save alanına tıklayın ve Save as a new report’u seçin.Raporun adını Landing Pages olarak güncelleyebilirsiniz.Customize report alanında Dimensions’a tıklayın.Açılan ekranda Add Dimension’ı seçin.Dimension olarak Landing Page ekleyin.Landing Page’in yanında bulunan üç noktayı seçerek Set as default’a tıklayın.Son olarakta Apply diyerek tüm yaptığınız değişiklikleri kaydedin.Daha sonra Metrics alanına tıklayarak eklemek veya çıkarmak istediğiniz metrikleri seçin.Yine Apply diyerek değişikleri kaydedin.Tüm raporda yapılan değişikleri kaydetmek için ise Save changes to current report seçeneğini seçin.Bu dashboardı daha kolay görebilmek için Report kısmında bulunan Library’i seçin.Life Cycle içinde bulunan Edit Collection alanına tıklayın.Sağ tarafta bulunan rapor collectionları arasından Landing Page raporunu Engagement altına sürükleyin.Daha sonra Save tıklayarak kaydedin.Artık Report alanının altındaki Engagement menüsünü açtığınızda Landing Page verilerini görebileceğiniz özel bir alan bulacaksınız.Böylece GA4 panelinde sayfalarınızın performanslarını daha iyi ölçümleyip analizler yapabileceksiniz.

Screaming Frog Kullanım Kılavuzu ve Yapılandırma Ayarları
Eyl 5, 2022 29665 reads

Screaming Frog Kullanım Kılavuzu ve Yapılandırma Ayarları

SEO çalışması yaparken SEO uzmanlarının en çok kullandığı araçlardan biri olan Screaming Frog’u kullanmaya başlamadan önce neler yapabileceğinizi öğrenmek istiyorsanız içeriğimiz sizler için hazırlandı.Screaming Frog Nedir?Screaming Frog arama motorlarını taklit ederek web sitenizi tarayan ve SEO açısından önemli metrikleri listeleyerek web sitenizin eksikliklerini görmenizi sağlayan bir araçtır. Dan Sharp tarafından 2010 yılında kurulmuştur. Rakiplerinden en önemli farkı bulut tabanlı değil Java tabanlı olması ve bilgisayarınıza kurup kullanabilmenizdir. Screaming Frog’un ücretsiz ve Premium sürümleri bulunmaktadır. Ücretsiz sürümünde kısıtlaması 500 URL iken ücretli versiyonda sınırsız taramalara imkan vermektedir.  https://www.screamingfrog.co.uk/seo-spider/#download  adresinden indirerek kullanmaya başlayabilirsiniz.Screaming Frog Lisansı Edinme ve EtkinleştirmeEğer ücretsiz sürümü değil de premium halini kullanmak isterseniz https://www.screamingfrog.co.uk/seo-spider/licence/ adresinden bir lisans almalı ve indirdiğiniz araçta bu lisansın girişini yapmanız gerekmektedir. Kullanıcı adı ve lisans numarasını girdikten sonra Screaming Frog programınızı kapatıp yeniden açarak kullanmaya başlayabilirsinizAyarlar ve Yapılandırma SeçenekleriMemory Allocation: Screaming Frog’da açılış ayarı olarak 32 bit için 1 GB ve 64 bit makineler için 2 GB’a açılır. Buradaki RAM miktarını özelleştirerek artırırsanız, RAM modundayken daha fazla URL’yi taramanızı sağlayacaktır.Çok fazla sayfaya sahip web sitelerini tararken buradaki ayarı manuel olarak düzenleyerek artırabilirsiniz, yüksek belleğe sahip bilgisayarlar ile daha hızlı ve kısa sürede tarama işleminizi bitirebilirsiniz.Storage Mode: Taradığınız verilerin nerede depolanıp işleneceği ile ilgili olan bu bölümde Memory Storage ve Database Storage olarak iki seçenek bulunmaktadır. Memory Storage ayarı seçildiğinde tüm veriler RAM’e depolanırken, Database Storage seçildiğinde HDD/SSD üzerinde depolama sağlanır.Memory Storage modu, daha az URL’e sahip web siteleri ve RAM miktarı yüksek olan makinelerde kullanılması önerilen bir moddur.Proxy Configuration: Eğer proxy kullanmak istiyorsunuz bu bölümden ayarlamaları yapabilirsiniz. Language Configuration: Aracı hangi dilde kullanmak istediğiniz konusunda ayarları buradan yapabilirsiniz.Screaming Frog Mode AyarlarıSpider: Bu ayarda Screaming Frog botları tarama başlattığınız web sitesindeki tüm URL’leri keşfedene kadar taramaya devam eder.List: Bu mod tarama yapmak istediğiniz URL’leri manuel olarak belirlemenize imkan verir. Sadece sizin belirlediğiniz URL’leri tarar.SERP: Tarama yaptığınız sayfaların meta title ve description etiketlerinin arama sonuçlarında nasıl yansıdığı ile ilgili bir önizleme sunmaktadır.Compare Modu: Bu mod önceden yaptığınız tarama ile kıyaslayarak yeni taramanızı oluşturmaktadır. Böylelikle hangi konuların çözüldüğünü daha rahat görebilirsiniz.Screaming Frog Yapılandırma AyarlarıSpider: Crawl öncesinde dahil etmek istediğiniz ya da istemediğiniz alanları crawl alanından seçebilirsiniz. Extraction alanı ile neleri hariç bırakacağınızı belirtebilirsiniz. Limits bölümünden taramanınızın sınırı veya derinliğini yapılandırabilirsiniz. Rendering bölümünden JS rendering ile çalışan sitenizde verileri doğru görebilmek için render seçeneğini değiştirebilirsiniz. Advanced bölümünden noindex, canonicali next/prev gibi etiketleri dikkate alıp almayacağı ile ilgili yönlendirmeler yapılabilir. Preferences bölümünden ise meta etiketlerinizin pixel sınırlarını tekrar belirtebilir ya da değiştirebilirsiniz.Content Area: Bu alandan tarama yapacağınız sitede yer alan içeriklerin analizi ve dil bilgisi uyumluluğuna bakabilirsiniz. Screaming frog bir sayfanın body bölümünde yer alan içerikleri dikkate alır. HTML5 semantik öğeleri kullanılarak oluşturulmamış bir web sitesinde aracın daha doğru anlamlandırmalar yapabilmesi için özelleştirmeler yapmanız önerilir.Content Duplicates: Sitenizdeki içeriklerin özgünlüğü test etmek için özel ayarlarınızı buradan yapabilirsiniz.Spelling & Grammar: Content sekmesinde sonuçların görüntülenmesi için yazım ve dil bilgisi hatalarının ve ilgili “Spelling” ve “Grammar” seçeneklerinin etkinleştirilmesi gerekir. Bu sayede bu kontrolleri de sağlamış olursunuz.Robots.txt: Tarama yapacağınız sitenin robots.txt dosyadaki komutları bu taramada dikkate almadan taraması ile ilgili ayarlamaları bu alandan yapabilirsiniz.Ayrıca kendiniz bir robots dosyası hazırlayabilir ve taramayı ona uygun şekilde yapmasını sağlayabilirsiniz.URL Rewriting: Arama sonuçlarında görmek istemediğiniz URL’leri bu alandan belirtebilirsiniz. URL Rewriting alanında URL’lerin yeniden yazım işlemini yapabilirsiniz. Örneğin, www olan URL’leri non-www olarak göstermek için veya .co.uk domain uzantısında olan URL’leri .com domain uzantısında görebilmek için uygulayacağınız Regex kurallarıyla URL’leri yeniden planlayabilir ve bu doğrultuda tarama sonuçlarında görebilirsiniz. Ya da ayrı bir subdomainde olan test sitesi URL’lerinizin canlı sitenizdeki gibi görünerek çıktısını almak istiyorsanız yine bu alan oldukça faydalı olacaktır.CDN: CDN sekmesi, tarama yaparken CDN servisinizin URL’lerini Screaming Frog’un dahili bağlantı olarak görmesini sağlamak için kullanabileceğiniz bir özelliktir. Yaptığınız bu ayarlama sonrasında CDN adresinin bağlantıları, Screaming Frog’daki “Internal” sekmesinde görünür ve daha fazla ayrıntı önizlemesi sunulur.Include: Yüksek sayıda URL’e sahip sitelerde tercih edilecek URL’ler için tarama yapılacağı durumda, Screaming Frog’un “Include” özelliği kullanılabilir. Bu özelliğin çalışması için taramayı başlattığınız URL’in regex ile eşleşen bir iç bağlantıya sahip olması gerekir, yoksa Screaming Frog ilk URL’den sonra ikinci bir URL’i taramaya geçemez. Ayrıca Screaming Frog’da taramayı başlattığınız URL’in de buradaki eşleştirme kurallarınıza uygun olması gerekmektedir.https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/#includeExclude: Tarama yaparken taranmasını istemediğiniz URL’leri, klasörleri, parametreleri hariç tutmak için bu özelliği kullanabilirsiniz. URL’leri taramadan hariç tutmanız için Regex dilini kullanmanız ve bu şekilde komut yazmanız gerekmektedir. Buradan uygulayacağınız hariç tutmalar, Screaming Frog’da taramayı başlattığınız ilk URL’de işlev görmemektedir. Exclude ayarı, yalnızca tarama esnasında keşfedilen diğer URL’ler için uygulanmaktadır.https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/#excludeSpeed: Bu alandan aracın saniyede kaç URL tarayacağını ayarlayabilirsiniz. Screaming Frog’un varsayılan ayarlarında maksimum sayısı 5, saniye başına taranan URL sayısı 2 olarak belirlenmiştir. Tarayacağınız sitenin sunucu performansına göre tarama hızını düşürmeniz gerekebilir, aksi durumda saniye başına atılan istek sayısının yüksek olması durumunda 500 hatalarıyla karşılaşmanız olasıdır.User-Agent: Taramaya başlamadan önce hangi User-Agent’i kullanarak sayfaları ziyaret edeceğinizi bu ayar ile birlikte düzenleyebilirsiniz. Taranacak bir internet sitesinin sunucu tarafında Screaming Frog User-Agent’ını engellemiş olabilir. Bu durumda Screaming Frog User-Agent kullanırsanız, taramanız gerçekleşmeyecektir. Farklı user-agent seçeneklerinde de web sitenizin taranabilirlik kontrollerini yapmak için bu alanı kullanabilirsiniz.HTTP Header: HTTP Header seçeneği, Screaming Frog’da yaptığınız bir tarama sırasında özel bir HTTP Header istekleri sağlayarak tarama yapmanızı sağlar. Custom Search: Custom Search bölümü, Screaming Frog sayesinde bir sitenin kaynak kodunda istediğiniz herhangi bir veriyi aramanızı sağlayan bir özelliktir. Custom Search bölümünde Text veya Regex olarak gireceğiniz bir değeri HTML’de arayabilirsiniz. Girdiğiniz değerin HTML’de olup olmadığını “Contains” veya “Does Not Contains” seçenekleriyle kontrol edebilir, sonuçlarını alabilirsiniz.Custom Extraction: Custom Extraction bölümü, bir sitenin HTML’inde yer alan bir veriyi CSSPath, XPath veya Regex kullanarak çekmenizi sağlar. Örneğin, bir e-ticaret sitesindeki ürün sayfalarında yer alan ürün kodlarını bu alan üzerinden yapacağınız CSSPath, XPath veya Regex ayarları ile ulaşabilirsiniz. Custom Extraction aracı, yalnızca 200 yanıt koduna sahip olan ve çalışan HTML sayfaları üzerinden veriyi almanıza olanak sağlar. Eğer statik HTML sayfasından hariç olarak render edilen HTML’den veri çekmek için JavaScript rendering moduna geçebilirsiniz.Custom Link Positions: Screaming Frog, bir internet sayfasının içeriğini, kenar çubuğunu (sidebar) veya footer alanlarını tarar ve keşfettiği her bağlantıyı konumuna göre sınıflandırır. Custom Link Positions aracı ile birlikte Screaming Frog’daki “Inlinks” ve “Outlinks” bölümlerindeki link pozisyonlarını ifade eden XPath alanının belirlediğiniz kriterlere uygun çalışmasını sağlayabilirsiniz. Böylece belirttiğiniz alanda link olup olmadığını kontrol edebilirsiniz.Google Analytics API: Google Analytics hesabınızı Screaming Frog ile bağlayarak, eskiye yönelik URL’lerinizle daha detaylı bir tarama gerçekleştirebilirsiniz. Bu bağlantıyı yapmak için API Access menüsünden Google Analytics sekmesine tıklamanız ve sonrasında “Connect to New Account” butonuna tıklayarak Analytics hesabınızla bağlantı gerçekleştirmeniz gerekmektedir.Search Console API: Search Console bağlantısı için API Access menüsünden Google Search Console’a tıklamanız ve açılan pencereden “Connect to New Account” butonuna tıklayarak Search Console mülkünüzün bulunduğu Google hesabınızı seçerek sizden istenen izinleri vermeniz gerekmektedir. Böylelikle Google tarafından önceden keşfedilip taranan fakat şu anda internet sitemizde bulunmayan URL’leriniz için de bir kontrol gerçekleştirebilirsiniz. Page Speed Insight API: Screaming Frog taramasıyla birlikte taranan URL’lerinizin PageSpeed Insights’tan elde edilen hız değerlerini de görmek isterseniz, taramanızı başlatmadan önce API Access menüsünden PageSpeed Insights bölümüne tıklamanız ve istenen “Secret Key” bilgisini girmeniz gerekmektedir. Bu sayede taranan URL’lerinizin hız performansına dair metrikleri tarama sonuçlarınızda görebileceksiniz.Ahrefs API Bağlantısı: Tarama sonuçlarınızda Ahrefs üzerinden elde edilen verileri de görmek isterseniz, Ahrefs hesabınızı Screaming Frog ile bağlayabilirsiniz. API Access menüsündeki Ahrefs bölümüne tıkladığınızda, açılan pencerede  “Access Token” bilgisini  girmeniz gerekmektedir.Authentication: Tarama yapmak istediğiniz internet sitesi, bir kullanıcı girişi sonrasında çalışıyorsa bu alanda yer alan “Forms Based” bölümünden sitenizin kullanıcı girişi URL’ini ve kullanıcı adı & şifre bilgilerini Screaming Frog’a kaydedebilirsiniz. Bu sayede tarama yapılırken Screaming Frog botu öncelikle sitenize bir kullanıcıymış gibi giriş yapacak ve giriş ekranı sonrası gelen sayfalar için de tarama gerçekleştirebilecektir.

Robots.txt Nedir? Nasıl Oluşturulur ve Kullanılır?
Eyl 4, 2022 11769 reads

Robots.txt Nedir? Nasıl Oluşturulur ve Kullanılır?

Arama motoru botları bir web sitesini ziyaret ettiğinde, tarama ve dizine eklemeyi kontrol etmek için robots.txt dosyasından faydalanılır. Bir diğer ismi robot engelleme standardı olarak bilinen robotst.txt dosyası, arama motoru tarayıcılarının bir web sunucusunda yer alan hangi dosyalara erişmesini ya da hangi dosyalara erişmemesini belirlemektedir. Sadece dosya değil, klasör ve URL’ler ile ilgili yönergeler de oluşturulabilir.Robots.txt dosyası ve kullanımı hakkında bazen birçok yanlış bilgi duyabilirsiniz. Bu dosya, siteyi taramak ve keşfetmek için ziyaret eden botlara web sitesinde yer alan hangi URL’leri tarayacağını söyleyecektir. Arama motoru botlarının oluşturabileceği istek yoğunluğunu azaltmak ve tarama bütçesi optimizasyonu yapmak için kullanılır.Bir web sitesinin Google arama motoru sonuç sayfalarından gösterilmesine engel olmak için kullanılabilecek bir yöntem değildir. Bir web sayfasının SERP’te görünürlüğünü engellemek için meta robots etiketi “noindex” kullanmak ya da sayfaya şifre ile erişim koymak içeriğin gösterilmesini engelleyecektir.Robots.txt Nedir?Web sitesinde yer alan sayfaları taramak ve keşfetmek için gelen arama motoru botlarına, 200 ‘OK’ HTTP durum koduna sahip sayfalardan hangilerini taramasını ya da hangilerinin taramaması gerektiği hakkında direktiflerin bulunduğu basit metin (txt) dosyasıdır. Bu basit metin dosyası içerisinde yer alan direktiflere arama motoru botları genellikle uymaktadır. Web sitesini ziyaret eden arama motoru botları, taramasına izin verilmeyen sayfaları taramayacaktır. Bazı durumlarda web sitesi içerisinde bu taranmasını istemediğimiz sayfalara, diğer sayfalardan dahili veya sitelerden harici bağlantılar verilmişse, Google bu direktifi göz ardı edip ilgili sayfayı tarayacaktır. Robots.txt dosyası içerisinde arama motoru botlarına genellikle direktif olarak, izin verildi ya da izin verilmedi komutu kullanılır. SEO İpucu: Arama motoru botları bir web sitesini ziyaret ettiğinde, robots.txt dosyasını okumak istediğinde eğer ki HTTP 500 Internal Server veya diğer sunucu kaynaklı HTTP durum kodları ile karşılaşırsa, sitede bir hata olduğunu düşünerek taramayı durduracaktır. Bu durum sadece web sitesi için değil, örneğin resimleriniz için bir CDN kullandığınızı düşünürsek, Google ilgili sayfada resim olmadığını düşünecektir. SEO İçin Robots.txt Dosyası Neden Önemlidir?Web sitesini taramak ve keşfetmek için gelen arama motoru tarayıcıları, web sitesi içeriğini görüntülemeden önce ilk baktığı ve kontrol ettiği şey robots.txt dosyasıdır.  Daha sonrasında site haritasında yer alan URL’leri taramaya başlayacak olan botlar, robots.txt dosyasında yer alan direktifler uygulanacaktır. Bu sebepten dolayı dosya içerisinde yer alan her bir direktifin doğru olduğunu kesinlikle kontrol etmeliyiz. Robots.txt dosyasında yanlış kullanılan bir direktif, geçici bir fatal hata olarak değerlendirebilir. Yanlışlıkla web sitesini ya da bir kısmını taramaya kapatılmış olması geri dönülemez bir hata olarak değerlendirilmemelidir. Hatanın en kısa sürede fark edilip düzeltilmesi, kötü sonuçlar oluşmasını engelleyecektir.Örneğin, robots.txt dosyasında web sitesinin herhangi bir kategori sayfasını arama motoru botlarının taramasını engelleyecek bir komut olduğunu düşünelim. Bu hatanın fark edilmemesi kötü sonuçları beraberinde getirebilir. Bu komut yanlışlıkla eklendiğinde, ilgili sayfanın çok fazla bağlantısı yoksa bot muhtemelen taramayacak, fakat bir gün sonrasında yanlış komut kaldırıldığında ya da düzeltiğinde arama motoru botları ilgili sayfayı taramaya başlayacaktır.SEO İpucu: Googlebot web sitesini ziyaret ettiğinde, robots.txt dosyasını önbelleğe kaydetmektedir. Bu önbelleği 24 saatte bir yenilemektedir. Eğer ki robots.txt dosyasında bir düzenleme yaptıysanız, yapılan düzenlemeler 24 saat sonra geçerli olacaktır. Farklı bir örnek ise, özellikle e-ticaret web sitelerinde tarama bütçesi optimizasyonu için robots.txt dosyasından faydalanılmalıdır.  Arama motoru botlarının bir web sitesini taramak için harcayacağı süre oldukça kısıtlıdır. Bu durumda siteyi ziyaret eden botların, önemli sayfaları daha kolay ve hızlı taraması için web sitesindeki dinamik olan veya önemsiz sayfalar taramaya kapatılabilir.  Robots.txt Dosyası Nerede Bulunur?Arama botlarının bir web sitesinin robots.txt dosyasını kolayca bulması için her zaman sunucularda web sitesi dosyalarının bulunduğu ana kök dizin altına şifresiz olarak eklenir. Düz metin dosyası olarak oluşturulan bu dosya tüm herkes tarafında okunabilecek ve görüntülenebilecek şekilde yetkilendirme yapılmaldır.Bir web sitesinin robots.txt dosyasına ulaşmak ve görüntülemek için örneğin, web tarayıcısında adres çubuğuna analyticahouse.com/robots.txt yazılması yeterli olacaktır. Tüm tarama botları tarafından evrensel olarak ulaşılabilecek URL yapısı bu olduğundan asla, robots.txt dosyasının yeri değiştirilmemelidir.Web Sitesi İçin Robots.txt Dosyası OluşturmaBir web sitesi için robots.txt dosyası oluşturmak için farklı yöntemler bulunmaktadır. Tercih edilen yöntemlerden biri uygulandığında, oluşturulan robots.txt dosyası, yukarıda bahsettiğimiz gibi kök dizin altına yerleştirilmelidir.Manuel olarak dosyayı oluşturmak istediğinizde, bilgisayarınızda yüklü olan herhangi bir metin düzenleyicisinden rahatlıkla faydalanabilirsiniz. Yapmanız gereken komutların editöre yazılması ve kaydederken dosya ismine, “robots” verilmeli, uzantısı ise “txt” olmalıdır.Otomatik olarak oluşturulması için, online bir robots.txt oluşturuculardan faydalanabilir. Oluşturulan dosyayı kök dizin altına yüklemeden önce mutlaka kontrol etmelisiniz. Manuel Olarak Robots.txt Dosyası OluşturmaManuel olarak robots.txt dosyası oluşturma için yukarıda bahsettiğimiz üzere bir editörden faydalanacağız. Sublime Text, notepad, notepad++ vb. uygulamalarında boş bir dosya açtıktan sonra, dosya içerisine şu komut yazılabilir:İlk satırda kullanılan “User-agent:*” komutu, bir sonraki satırlarda yer alan tüm yönergelerin, (ikinci bir “User-agent:” komutu yoksa) siteyi taramaya gelen tüm botlar için geçerli olduğundan bahsetmektedir. İkinci satırda yer alan “Allow:/” komutu, arama motoru botların sitenin tamamına erişebileceğinden bahsetmektedir.Üçüncü satırda yer alan “Sitemap:” komutu, arama motoru botlarına web sitesinin site haritası dosyasının yerini ve URL adresini belirtilerek, rahatça ulaşmasını sağlamaktadır.Standart robots.txt komutlarını yazdıktan sonra, kaydetmelisiniz. Kaydet işlemi sırasında karşımıza çıkan pencerede dosya ismi kısmına “robots.txt” yazmanız yeterlidir.Oluşturduğunuz dosyası, kök dizin altına yerleştirmeniz gerekmektedir. Sitenizi taramaya gelen botlar burada yazan yönergelere uyacaktır.Robots.txt Dosyasında Kullanılması Tavsiye Edilen KomutlarArama motoru botlarının bir siteyi taramaya başlamadan önce ilk olarak kontrol ettiği robots.txt dosyaları, SEO performansınız açısından oldukça önemlidir. Daha önceden de bahsettiğimiz gibi yanlış kullanımı, web sitenizin ya da önemli sayfalarınızın SERP’te (Search Engine Results Page) görünmesini engelleyebilir.Tavsiye edilen robots.txt komutları:Bu çok sık kullanılan robots.txt komutlarını ne işe yaradığını öğrenelim.User-agent,Allow,Disallow,Sitemap,User-Agent Komutu Nedir?Robots.txt dosyasında yer alan “User-Agent” komutu web sitesini ziyaret edecek olan botlardan hangileri için hangi komut geçerli olduğunu belirlemeye yarar. Web sitesini ziyaret edenlerin içeriği görüntülemek için istekte bulunduğu sırada “HTTP Header” başlığı içinde isteği yapan kişi hakkında bilgi aktarır.HTTP istek başlığında yer alan user-agent bilgisi ayrıca log dosyası analizi yapmak istediğinizde size kullanıcı ile botları rahatlıkla ayırma imkanı sunmaktadır.İnternet ortamında yüzlerce arama motoru botları yer almaktadır. Arama motoru botları listesi:GooglebotAhrefsbotAppleBotScreaming Frog SEO SpiderDuckDuckBotYandexBotYahoo! SlurpYetiBaiduspiderBingbotCatchBotGalaxyBotMJ12botmsnbotSBIderSandCrawlerScrubbySearchSightSeekbotsogou spiderGoogle tarama botlarının listesi:GooglebotAPIs-GoogleAdsBot-Google-MobileAdsBot-GoogleMediapartners-GoogleAdsBot-Google-Mobile-AppsFeedFetcher-GoogleGoogle-Read-AloudDuplexWeb-GooglegoogleweblightStorebot-GoogleUser-agent direktifleri yazılırken, kullanım sırası oldukça önemlidir. User-agent ile ilgili bazı senaryolu örnekleri incelersek:Robot.txt User-Agent Örneği-1: Web sitesini taramaya gelen Googlebot’un iş başvurusu sayfası altında yer alan teşekkürler adlı sayfamızı taramasını istemezken, diğer kalan tüm botların taramasını istiyoruz.User-agent: * Allow: / User-agent: Googlebot Disallow: /is-basvurusu/tesekkurlerYukarıda yer alan komut ile Googlebot, Teşekkürler sayfası hariç diğer tüm sayfaları tarayacaktır. İş başvurusu ve onun altındaki diğer tüm sayfaları tarayacaktır. Googlebot’un iş başvurusu sayfası altında yer alan tüm sayfaları taranmasını engellemek ve Yandexbot’un iste sadece teşekkürler sayfasını taramasını engellemek istiyorsak.User-agent: * Allow: / User-agent: Googlebot Disallow: /is-basvurusu/ User-agent: Yandexbot Disallow: /is-basvurusu/tesekkurlerAllow ve Disallow Komutu Nedir?Robots.txt dosyasında yer alan “Allow:” komutu arama motoru botlarına hangi sayfaları taramasına izin verildiği hakkında bilgi aktarır. Disallow komutu kullanılmamışsa, arama motoru botları tüm sayfalara tarama izni verildiği şeklinde yorumlamaktadır. Disallow komutu ise, arama motoru botlarına belirtilen URL veya sayfayı taramaması gerektiğini söylemektedir. Bu sayede arama motoru botları için tarama bütçesi optimizasyonu sağlanmış olacaktır.3 farklı senaryo ile disallow ve allow komutlarının ne işe yaradığını öğrenelim:Senaryo - 1: Tarama botlarının web sitesinde ki URL veya sayfaların tamamını taramasına izin vermek istiyoruz?user-agent: * Allow:/Senaryo - 2: Tarama botlarının web sitesinde ki URL veya sayfaların tamamını taramasına izin vermek istemiyoruz yani engellemek istiyoruz?user-agent: * Disallow:/Senaryo - 3: Tarama botlarının web sitesinde ki X sayfasını taramamasını fakat X sayfası altında yer alan Y sayfasını taramasını istiyoruz?user-agent: * Disallow:/x-sayfasi/ Allow: /x-sayfasi/y-sayfasiRobots.txt Dosyasını Google Robots.txt Test Aracı ile Test EtmeOluşturmuş olduğunuz robots.txt komutlarında, Googlebot için yanlış bir engelleme ya da hatalı bir kullanım olup olmadığından emin değilseniz, bu noktada size bir yardımcı araç bulunuyor. Google’un kendi geliştirdiği robots.txt test aracı ile Googlebot’un sitenizde yer alan URL’lere tarama konusunda izin verilip verilmediğini görebilirsiniz.Bu aracın eksik bir yanı, URL’leri toplu olarak kontrol edemiyor olmanızdır. Bu aracı kullanmak istediğinizde, Google Search Console hesabınızın olması ve kayıtlı olduğunuz e-posta adresi ile erişim sağlamanız gerekmektedir. GSC hesabınızın mail adresi ile erişim yapınız.Resimde görüldüğü üzere ilgili alanlara, user-agent, allow ve disallow komutlarını uygulayabilirsiniz. Daha sonrasında kontrol etmek istediğiniz URL’i yazarak “Test Et” butonuna tıklayınca size izin verildiğini ya da izin verilmediğini söylemektedir. Örneğin, tr path’i altında yer alan SEO sayfamıza Googlebot’un taraması için izin verilip verilmediğini kontrol etmek istediğimizde, en altta sitemizin URL sonrası başında / (slash) olmadan “tr/seo” yazıyoruz ve “test et” butonuna tıklıyoruz. Görüldüğü üzere hangi satırda izin verildiği göstermekte ve sağ alt köşede “izin verildi” yazmaktadır.Örneğin, tr path’i altında yer alan çerez politikası sayfamıza Googlebot’un taraması için izin verilip verilmediğini kontrol etmek istediğimizde, en altta sitemizin URL sonrası başında yine / (slash) olmadan “tr/cerez-politikasi” yazıyoruz ve “test et” butonuna tıklıyoruz. Görüldüğü üzere hangi satırda izin verilmediğini göstermekte ve sağ alt köşede “engellendi” yazmaktadır.Google Search Console Robots.txt Hata ve UyarılarıWeb sitesinin Googlebot tarafından tarandığı zaman botun karşılaştığı hata ve durumlar hakkında bilgi aldığımız en faydalı yer Google Search Console hesabınızdır.GSC hesabına giriş yaptıktan sonra sol tarafta yer alan Index > Coverage (Dizin > Kapsam)  tıklamanız gerekiyor. Daha sonrasında sağ tarafta yer alan grafiklerin altında site robots.txt ile ilgili hata ve uyarılardan bahsetmektedir. Blocked by robots.txt: Taranmak istenen URL’lerin robots.txt tarafından engellendiğini belirtmektedir. Bunun için ek bir aksiyon almanıza gerek yoktur. Sadece kontrol etmeniz gereken, tarama esnasında site haritasında yer alan URL’in robots.txt tarafından engellenip engellenmediğini kontrol etmelisiniz. Sizin için önemli olan sayfaların durumunu kontrol etmelisiniz.Indexed, though blocked  by robots.txt: Bazı URL’lerin robots.txt tarafından engellemiş olmasına rağmen, dizine eklendiği bilgisini vermektedir. Dizine eklenen URL’leri kontrol etmeli ve indexlenmesini engelleyecek şekilde aksiyon alabilirsiniz. Örneğin bağlantı ise, nofollow etiketi eklemek, sayfa ise noindex etiketi eklemek gibi çözümler kullanabilirsiniz.Robots.txt ile ilgili Dikkat Edilmesi ve Unutulmaması GerekenlerWeb sitesini taramak isteyen botları yönlendirmek için kullandığımız robots.txt dosyası ile ilgili dikkat edilmesi ve unutulmaması gerekenler:Botlar bir siteyi taramak için geldiğinde ilk önce robots.txt dosyasını kontrol eder ve indirir.Botların sitenin herhangi bir bölümüne erişmesini istemiyorsanız “disallow:” komutu kullanmalısınız.Botlara yardımcı olmak için, robots.txt dosyasında site haritasının URL’ini “sitemap:” komutu ile belirtmelisiniz.Robots.txt dosyası mutlaka kök dizin altında yer almalıdır. siteadi[.]com/robots.txt gibi olmalıdır.Googlebot robots.txt dosyasını istediğinde eğer ki 429 HTTP durum kodu haricinde, herhangi bir 4XX HTTP durum kodu ile karşılaşırsa sitenin robots.txt dosyası yok gibi davranır. Bu durumda sitenin tüm sayfalarına ve URL’lerini tarayabileceğini belirtir.429 veya 5XX HTTP durum kodlarından biri ile karşılaştığında örneğin 500 HTTP durum kodu ile karşılaşırsa sitenin taramaya kapalı olduğu şeklinde yorumlar ve taramayı durdurur.Google web sitelerinin robots.txt dosyasını önbellekte tutar. Son 24 saat içerisinde yaptığınız bir değişikliğin etkili olabilmesi için önbelleğin yenilenmesini beklemek zorundasınız.UTF-8 formatında ve txt uzantılı olmak zorundadır.Google, robots.txt dosyalarını maksimum 500KiB’lık bir boyutunu taramaktadır. Bu boyut üzerinde yer alanların, bu sınıra kadar olan satırını dikkate alır sonrasını dikkate almayacaktır.Robots.txt dosyasında yorum satırı oluşturmak için # kullanmanız gerekmektedir.Robots.txt dosyasında yer alan URL path’lerinde mutlaka büyük ve küçük yazımına dikkat ediniz.SonuçWeb sitesini taramak için gelen botlara hangi sayfaları taramasını, hangi sayfaları taramaması konusunda direktiflerin bulunduğu robots.txt dosyası, SEO çalışmaları için önemlidir. Robots.txt konusunda yayınladığımız blog içeriğimizi faydalı bulduysanız, diğer insanlarında erişebilmesi için sosyal medya hesaplarınızda paylaşarak bizlere destek olabilirsiniz.