AnalyticaHouse

Pazarlama İpuçları, Gündem ve Daha Fazlası

AnalyticaHouse’un güçlü iş ortaklıklarından beslenen deneyimi ile güncel trendler, stratejik içgörüler ve sektörel derinlik içeren blog yazılarımızı keşfedin.

Robots.txt Nedir? Nasıl Oluşturulur ve Kullanılır?
Eyl 4, 2022 11769 reads

Robots.txt Nedir? Nasıl Oluşturulur ve Kullanılır?

Arama motoru botları bir web sitesini ziyaret ettiğinde, tarama ve dizine eklemeyi kontrol etmek için robots.txt dosyasından faydalanılır. Bir diğer ismi robot engelleme standardı olarak bilinen robotst.txt dosyası, arama motoru tarayıcılarının bir web sunucusunda yer alan hangi dosyalara erişmesini ya da hangi dosyalara erişmemesini belirlemektedir. Sadece dosya değil, klasör ve URL’ler ile ilgili yönergeler de oluşturulabilir.Robots.txt dosyası ve kullanımı hakkında bazen birçok yanlış bilgi duyabilirsiniz. Bu dosya, siteyi taramak ve keşfetmek için ziyaret eden botlara web sitesinde yer alan hangi URL’leri tarayacağını söyleyecektir. Arama motoru botlarının oluşturabileceği istek yoğunluğunu azaltmak ve tarama bütçesi optimizasyonu yapmak için kullanılır.Bir web sitesinin Google arama motoru sonuç sayfalarından gösterilmesine engel olmak için kullanılabilecek bir yöntem değildir. Bir web sayfasının SERP’te görünürlüğünü engellemek için meta robots etiketi “noindex” kullanmak ya da sayfaya şifre ile erişim koymak içeriğin gösterilmesini engelleyecektir.Robots.txt Nedir?Web sitesinde yer alan sayfaları taramak ve keşfetmek için gelen arama motoru botlarına, 200 ‘OK’ HTTP durum koduna sahip sayfalardan hangilerini taramasını ya da hangilerinin taramaması gerektiği hakkında direktiflerin bulunduğu basit metin (txt) dosyasıdır. Bu basit metin dosyası içerisinde yer alan direktiflere arama motoru botları genellikle uymaktadır. Web sitesini ziyaret eden arama motoru botları, taramasına izin verilmeyen sayfaları taramayacaktır. Bazı durumlarda web sitesi içerisinde bu taranmasını istemediğimiz sayfalara, diğer sayfalardan dahili veya sitelerden harici bağlantılar verilmişse, Google bu direktifi göz ardı edip ilgili sayfayı tarayacaktır. Robots.txt dosyası içerisinde arama motoru botlarına genellikle direktif olarak, izin verildi ya da izin verilmedi komutu kullanılır. SEO İpucu: Arama motoru botları bir web sitesini ziyaret ettiğinde, robots.txt dosyasını okumak istediğinde eğer ki HTTP 500 Internal Server veya diğer sunucu kaynaklı HTTP durum kodları ile karşılaşırsa, sitede bir hata olduğunu düşünerek taramayı durduracaktır. Bu durum sadece web sitesi için değil, örneğin resimleriniz için bir CDN kullandığınızı düşünürsek, Google ilgili sayfada resim olmadığını düşünecektir. SEO İçin Robots.txt Dosyası Neden Önemlidir?Web sitesini taramak ve keşfetmek için gelen arama motoru tarayıcıları, web sitesi içeriğini görüntülemeden önce ilk baktığı ve kontrol ettiği şey robots.txt dosyasıdır.  Daha sonrasında site haritasında yer alan URL’leri taramaya başlayacak olan botlar, robots.txt dosyasında yer alan direktifler uygulanacaktır. Bu sebepten dolayı dosya içerisinde yer alan her bir direktifin doğru olduğunu kesinlikle kontrol etmeliyiz. Robots.txt dosyasında yanlış kullanılan bir direktif, geçici bir fatal hata olarak değerlendirebilir. Yanlışlıkla web sitesini ya da bir kısmını taramaya kapatılmış olması geri dönülemez bir hata olarak değerlendirilmemelidir. Hatanın en kısa sürede fark edilip düzeltilmesi, kötü sonuçlar oluşmasını engelleyecektir.Örneğin, robots.txt dosyasında web sitesinin herhangi bir kategori sayfasını arama motoru botlarının taramasını engelleyecek bir komut olduğunu düşünelim. Bu hatanın fark edilmemesi kötü sonuçları beraberinde getirebilir. Bu komut yanlışlıkla eklendiğinde, ilgili sayfanın çok fazla bağlantısı yoksa bot muhtemelen taramayacak, fakat bir gün sonrasında yanlış komut kaldırıldığında ya da düzeltiğinde arama motoru botları ilgili sayfayı taramaya başlayacaktır.SEO İpucu: Googlebot web sitesini ziyaret ettiğinde, robots.txt dosyasını önbelleğe kaydetmektedir. Bu önbelleği 24 saatte bir yenilemektedir. Eğer ki robots.txt dosyasında bir düzenleme yaptıysanız, yapılan düzenlemeler 24 saat sonra geçerli olacaktır. Farklı bir örnek ise, özellikle e-ticaret web sitelerinde tarama bütçesi optimizasyonu için robots.txt dosyasından faydalanılmalıdır.  Arama motoru botlarının bir web sitesini taramak için harcayacağı süre oldukça kısıtlıdır. Bu durumda siteyi ziyaret eden botların, önemli sayfaları daha kolay ve hızlı taraması için web sitesindeki dinamik olan veya önemsiz sayfalar taramaya kapatılabilir.  Robots.txt Dosyası Nerede Bulunur?Arama botlarının bir web sitesinin robots.txt dosyasını kolayca bulması için her zaman sunucularda web sitesi dosyalarının bulunduğu ana kök dizin altına şifresiz olarak eklenir. Düz metin dosyası olarak oluşturulan bu dosya tüm herkes tarafında okunabilecek ve görüntülenebilecek şekilde yetkilendirme yapılmaldır.Bir web sitesinin robots.txt dosyasına ulaşmak ve görüntülemek için örneğin, web tarayıcısında adres çubuğuna analyticahouse.com/robots.txt yazılması yeterli olacaktır. Tüm tarama botları tarafından evrensel olarak ulaşılabilecek URL yapısı bu olduğundan asla, robots.txt dosyasının yeri değiştirilmemelidir.Web Sitesi İçin Robots.txt Dosyası OluşturmaBir web sitesi için robots.txt dosyası oluşturmak için farklı yöntemler bulunmaktadır. Tercih edilen yöntemlerden biri uygulandığında, oluşturulan robots.txt dosyası, yukarıda bahsettiğimiz gibi kök dizin altına yerleştirilmelidir.Manuel olarak dosyayı oluşturmak istediğinizde, bilgisayarınızda yüklü olan herhangi bir metin düzenleyicisinden rahatlıkla faydalanabilirsiniz. Yapmanız gereken komutların editöre yazılması ve kaydederken dosya ismine, “robots” verilmeli, uzantısı ise “txt” olmalıdır.Otomatik olarak oluşturulması için, online bir robots.txt oluşturuculardan faydalanabilir. Oluşturulan dosyayı kök dizin altına yüklemeden önce mutlaka kontrol etmelisiniz. Manuel Olarak Robots.txt Dosyası OluşturmaManuel olarak robots.txt dosyası oluşturma için yukarıda bahsettiğimiz üzere bir editörden faydalanacağız. Sublime Text, notepad, notepad++ vb. uygulamalarında boş bir dosya açtıktan sonra, dosya içerisine şu komut yazılabilir:İlk satırda kullanılan “User-agent:*” komutu, bir sonraki satırlarda yer alan tüm yönergelerin, (ikinci bir “User-agent:” komutu yoksa) siteyi taramaya gelen tüm botlar için geçerli olduğundan bahsetmektedir. İkinci satırda yer alan “Allow:/” komutu, arama motoru botların sitenin tamamına erişebileceğinden bahsetmektedir.Üçüncü satırda yer alan “Sitemap:” komutu, arama motoru botlarına web sitesinin site haritası dosyasının yerini ve URL adresini belirtilerek, rahatça ulaşmasını sağlamaktadır.Standart robots.txt komutlarını yazdıktan sonra, kaydetmelisiniz. Kaydet işlemi sırasında karşımıza çıkan pencerede dosya ismi kısmına “robots.txt” yazmanız yeterlidir.Oluşturduğunuz dosyası, kök dizin altına yerleştirmeniz gerekmektedir. Sitenizi taramaya gelen botlar burada yazan yönergelere uyacaktır.Robots.txt Dosyasında Kullanılması Tavsiye Edilen KomutlarArama motoru botlarının bir siteyi taramaya başlamadan önce ilk olarak kontrol ettiği robots.txt dosyaları, SEO performansınız açısından oldukça önemlidir. Daha önceden de bahsettiğimiz gibi yanlış kullanımı, web sitenizin ya da önemli sayfalarınızın SERP’te (Search Engine Results Page) görünmesini engelleyebilir.Tavsiye edilen robots.txt komutları:Bu çok sık kullanılan robots.txt komutlarını ne işe yaradığını öğrenelim.User-agent,Allow,Disallow,Sitemap,User-Agent Komutu Nedir?Robots.txt dosyasında yer alan “User-Agent” komutu web sitesini ziyaret edecek olan botlardan hangileri için hangi komut geçerli olduğunu belirlemeye yarar. Web sitesini ziyaret edenlerin içeriği görüntülemek için istekte bulunduğu sırada “HTTP Header” başlığı içinde isteği yapan kişi hakkında bilgi aktarır.HTTP istek başlığında yer alan user-agent bilgisi ayrıca log dosyası analizi yapmak istediğinizde size kullanıcı ile botları rahatlıkla ayırma imkanı sunmaktadır.İnternet ortamında yüzlerce arama motoru botları yer almaktadır. Arama motoru botları listesi:GooglebotAhrefsbotAppleBotScreaming Frog SEO SpiderDuckDuckBotYandexBotYahoo! SlurpYetiBaiduspiderBingbotCatchBotGalaxyBotMJ12botmsnbotSBIderSandCrawlerScrubbySearchSightSeekbotsogou spiderGoogle tarama botlarının listesi:GooglebotAPIs-GoogleAdsBot-Google-MobileAdsBot-GoogleMediapartners-GoogleAdsBot-Google-Mobile-AppsFeedFetcher-GoogleGoogle-Read-AloudDuplexWeb-GooglegoogleweblightStorebot-GoogleUser-agent direktifleri yazılırken, kullanım sırası oldukça önemlidir. User-agent ile ilgili bazı senaryolu örnekleri incelersek:Robot.txt User-Agent Örneği-1: Web sitesini taramaya gelen Googlebot’un iş başvurusu sayfası altında yer alan teşekkürler adlı sayfamızı taramasını istemezken, diğer kalan tüm botların taramasını istiyoruz.User-agent: * Allow: / User-agent: Googlebot Disallow: /is-basvurusu/tesekkurlerYukarıda yer alan komut ile Googlebot, Teşekkürler sayfası hariç diğer tüm sayfaları tarayacaktır. İş başvurusu ve onun altındaki diğer tüm sayfaları tarayacaktır. Googlebot’un iş başvurusu sayfası altında yer alan tüm sayfaları taranmasını engellemek ve Yandexbot’un iste sadece teşekkürler sayfasını taramasını engellemek istiyorsak.User-agent: * Allow: / User-agent: Googlebot Disallow: /is-basvurusu/ User-agent: Yandexbot Disallow: /is-basvurusu/tesekkurlerAllow ve Disallow Komutu Nedir?Robots.txt dosyasında yer alan “Allow:” komutu arama motoru botlarına hangi sayfaları taramasına izin verildiği hakkında bilgi aktarır. Disallow komutu kullanılmamışsa, arama motoru botları tüm sayfalara tarama izni verildiği şeklinde yorumlamaktadır. Disallow komutu ise, arama motoru botlarına belirtilen URL veya sayfayı taramaması gerektiğini söylemektedir. Bu sayede arama motoru botları için tarama bütçesi optimizasyonu sağlanmış olacaktır.3 farklı senaryo ile disallow ve allow komutlarının ne işe yaradığını öğrenelim:Senaryo - 1: Tarama botlarının web sitesinde ki URL veya sayfaların tamamını taramasına izin vermek istiyoruz?user-agent: * Allow:/Senaryo - 2: Tarama botlarının web sitesinde ki URL veya sayfaların tamamını taramasına izin vermek istemiyoruz yani engellemek istiyoruz?user-agent: * Disallow:/Senaryo - 3: Tarama botlarının web sitesinde ki X sayfasını taramamasını fakat X sayfası altında yer alan Y sayfasını taramasını istiyoruz?user-agent: * Disallow:/x-sayfasi/ Allow: /x-sayfasi/y-sayfasiRobots.txt Dosyasını Google Robots.txt Test Aracı ile Test EtmeOluşturmuş olduğunuz robots.txt komutlarında, Googlebot için yanlış bir engelleme ya da hatalı bir kullanım olup olmadığından emin değilseniz, bu noktada size bir yardımcı araç bulunuyor. Google’un kendi geliştirdiği robots.txt test aracı ile Googlebot’un sitenizde yer alan URL’lere tarama konusunda izin verilip verilmediğini görebilirsiniz.Bu aracın eksik bir yanı, URL’leri toplu olarak kontrol edemiyor olmanızdır. Bu aracı kullanmak istediğinizde, Google Search Console hesabınızın olması ve kayıtlı olduğunuz e-posta adresi ile erişim sağlamanız gerekmektedir. GSC hesabınızın mail adresi ile erişim yapınız.Resimde görüldüğü üzere ilgili alanlara, user-agent, allow ve disallow komutlarını uygulayabilirsiniz. Daha sonrasında kontrol etmek istediğiniz URL’i yazarak “Test Et” butonuna tıklayınca size izin verildiğini ya da izin verilmediğini söylemektedir. Örneğin, tr path’i altında yer alan SEO sayfamıza Googlebot’un taraması için izin verilip verilmediğini kontrol etmek istediğimizde, en altta sitemizin URL sonrası başında / (slash) olmadan “tr/seo” yazıyoruz ve “test et” butonuna tıklıyoruz. Görüldüğü üzere hangi satırda izin verildiği göstermekte ve sağ alt köşede “izin verildi” yazmaktadır.Örneğin, tr path’i altında yer alan çerez politikası sayfamıza Googlebot’un taraması için izin verilip verilmediğini kontrol etmek istediğimizde, en altta sitemizin URL sonrası başında yine / (slash) olmadan “tr/cerez-politikasi” yazıyoruz ve “test et” butonuna tıklıyoruz. Görüldüğü üzere hangi satırda izin verilmediğini göstermekte ve sağ alt köşede “engellendi” yazmaktadır.Google Search Console Robots.txt Hata ve UyarılarıWeb sitesinin Googlebot tarafından tarandığı zaman botun karşılaştığı hata ve durumlar hakkında bilgi aldığımız en faydalı yer Google Search Console hesabınızdır.GSC hesabına giriş yaptıktan sonra sol tarafta yer alan Index > Coverage (Dizin > Kapsam)  tıklamanız gerekiyor. Daha sonrasında sağ tarafta yer alan grafiklerin altında site robots.txt ile ilgili hata ve uyarılardan bahsetmektedir. Blocked by robots.txt: Taranmak istenen URL’lerin robots.txt tarafından engellendiğini belirtmektedir. Bunun için ek bir aksiyon almanıza gerek yoktur. Sadece kontrol etmeniz gereken, tarama esnasında site haritasında yer alan URL’in robots.txt tarafından engellenip engellenmediğini kontrol etmelisiniz. Sizin için önemli olan sayfaların durumunu kontrol etmelisiniz.Indexed, though blocked  by robots.txt: Bazı URL’lerin robots.txt tarafından engellemiş olmasına rağmen, dizine eklendiği bilgisini vermektedir. Dizine eklenen URL’leri kontrol etmeli ve indexlenmesini engelleyecek şekilde aksiyon alabilirsiniz. Örneğin bağlantı ise, nofollow etiketi eklemek, sayfa ise noindex etiketi eklemek gibi çözümler kullanabilirsiniz.Robots.txt ile ilgili Dikkat Edilmesi ve Unutulmaması GerekenlerWeb sitesini taramak isteyen botları yönlendirmek için kullandığımız robots.txt dosyası ile ilgili dikkat edilmesi ve unutulmaması gerekenler:Botlar bir siteyi taramak için geldiğinde ilk önce robots.txt dosyasını kontrol eder ve indirir.Botların sitenin herhangi bir bölümüne erişmesini istemiyorsanız “disallow:” komutu kullanmalısınız.Botlara yardımcı olmak için, robots.txt dosyasında site haritasının URL’ini “sitemap:” komutu ile belirtmelisiniz.Robots.txt dosyası mutlaka kök dizin altında yer almalıdır. siteadi[.]com/robots.txt gibi olmalıdır.Googlebot robots.txt dosyasını istediğinde eğer ki 429 HTTP durum kodu haricinde, herhangi bir 4XX HTTP durum kodu ile karşılaşırsa sitenin robots.txt dosyası yok gibi davranır. Bu durumda sitenin tüm sayfalarına ve URL’lerini tarayabileceğini belirtir.429 veya 5XX HTTP durum kodlarından biri ile karşılaştığında örneğin 500 HTTP durum kodu ile karşılaşırsa sitenin taramaya kapalı olduğu şeklinde yorumlar ve taramayı durdurur.Google web sitelerinin robots.txt dosyasını önbellekte tutar. Son 24 saat içerisinde yaptığınız bir değişikliğin etkili olabilmesi için önbelleğin yenilenmesini beklemek zorundasınız.UTF-8 formatında ve txt uzantılı olmak zorundadır.Google, robots.txt dosyalarını maksimum 500KiB’lık bir boyutunu taramaktadır. Bu boyut üzerinde yer alanların, bu sınıra kadar olan satırını dikkate alır sonrasını dikkate almayacaktır.Robots.txt dosyasında yorum satırı oluşturmak için # kullanmanız gerekmektedir.Robots.txt dosyasında yer alan URL path’lerinde mutlaka büyük ve küçük yazımına dikkat ediniz.SonuçWeb sitesini taramak için gelen botlara hangi sayfaları taramasını, hangi sayfaları taramaması konusunda direktiflerin bulunduğu robots.txt dosyası, SEO çalışmaları için önemlidir. Robots.txt konusunda yayınladığımız blog içeriğimizi faydalı bulduysanız, diğer insanlarında erişebilmesi için sosyal medya hesaplarınızda paylaşarak bizlere destek olabilirsiniz.

Lazy Load: Web Sitesinin Yüklenme Performansı Artırın
Eyl 4, 2022 5337 reads

Lazy Load: Web Sitesinin Yüklenme Performansı Artırın

Web sitesinin yüklenme hızını artırmak için, Google tarafından tavsiye edilen ve mutlaka kullanılması gereken lazy-loading konusunu ele alacağız. Site performansını artırmak için, sayfanın içerisinde yer alan resimlere ve/veya videolara uygulanacak yöntem sayesinde, ilk sayfa yükünü (initial page payload) ve yüklenme süresini (load time) azaltan lazy load özelliği kullanılmalıdır.Bu içerikte "Lazy load nedir?", "Avantajları ve dezavantajları nelerdir?" ve "Neden lazy load tercih edilmeli ve nasıl uygulanabilir?" gibi pek çok soruya yanıt bulacaksınız.Lazy Load Nedir?Türkçe karşılığı tembel yükleme olan lazy load, web sayfası yüklenirken kritik olmayan görsellerin ve videoların sonradan yüklenmesini sağlayan teknik bir yöntemdir. Kritik olmayan kaynaklar ihtiyaç olduğu zaman ya da sırası geldiğinde yüklenir. Tembel yükleme isteğe bağlı olarak yapılmakta ve doğru kullanıldığında web sayfasına olumsuz etkisi bulunmamaktadır.PageSpeed Insights aracı, web sayfanızın mobil ve masaüstü cihazlarda performansını artırmak için size bazı önerilerde bulunmaktadır. Bu öneriler arasında bazen “kritik olmayan” (non-critical) veya “ekran dışı görseller”in (off-screen) ertelenmesi gerektiğine dair uyarılar sayılabilir. İşte PageSpeed Insights tam bu noktada web sitesinde yer alan görsellere lazy load tekniğinin kullanılması gerektiğini belirtmektedir.Herhangi bir web sitesini ziyaret ettiğinizde aşağıda yer alan olaylar ile karşılaştıysanız yüksek ihtimalle lazy load kullanılan bir sayfayı ziyaret etmişsinizdir.Ziyaret ettiğiniz sayfada kaydırma yaptıkça içerik geliyorsa,Ekranı kaydırdıkça görüntü netleşiyor ve gerçek görüntü yükleniyorsa,İsteğe bağlı tembel yükleme kullanılan görsel sırası geldiğinde aniden ortaya çıkıyorsa.Resimlerin geç yüklenme tekniğini özellikle başta e-ticaret web siteleri olmak üzere birçok web sitesi kullanmaktadır. Medium web sitesinde, yer tutucu tekniği kullanılmakta, bu teknikte asıl görselin yerine boyut olarak daha düşük bir görsel ekleniyor ve ekran kaydırmaya başladığında  asıl görsel yerini alıyor.SEO İpucu: Lazy-loading özelliğinin, ekran açıldığında yer alan ilk görsellere değil, ekranın dışında yer alan görünmeyen görsellere uygulanması gerekmektedir. Web Sayfalarında Neden Lazy Load Kullanılır?Web sayfalarında yer alan resimler ya da videoların sayfanın geç yüklenmesine neden olmasını önlemek ve performansı iyileştirmek için lazy load kullanılır. Lazy load kullanılmasındaki amaç:Bir web sayfası yüklenirken gereksiz yere veri tüketilmesini ve kullanıcının belki de hiç görmeyeceği görsellerin indirilmesini önlemek.Web sayfasında yer alan her kaynak için sayfa yüklenirken tekrardan sunucu isteğinde bulunulmasını ve site performanının düşmesini önlemek. Tarayıcının kod içeriğini anlaması, çözmesi ve içeriğe görseli yerleştirmesi için gereken donanımsal kaynakların boşa harcanmasını önlemek.Lazy load kullanmanın avantajları:Web sitenizde görsel içeriklerinizi çevrimiçi olarak optimize etmek istediğinizde tembel yükleme kullanmak bellek kullanımını azaltır ve iyi bir kullanıcı deneyimi yaşatır.Web sayfasında gereksiz yere kod yürütülmesinden kaçınılır. Sebebi ise içeriğin sırası geldiğinde yüklenecek olmasıdır.Web site sahipleri için sunucuya yapılan istek azaldığından kaynak maliyetini azalır.Lazy load kullanmanın dezavantajları:Web sitesi kurulduktan sonra görsellere lazy-loading uygulamak için eklenecek kod satırları kodu yorumlarken kafanızı karıştırabilir.Yanlış kullanımı içeriğinizin arama motorlarında yer almasını engelleyebilir.Resimlere ve Videolara Lazy Load Nasıl Uygulanır?Web sayfasında yer alan görsellere lazy-loading özelliğinin uygulanması için farklı yöntemler bulunmaktadır. Modern web tarayıcıları, web sayfalarında yer alan görsellere ve videolara tarayıcı düzeyinde lazy-loading işlemi uygulanır. Eski tarayıcılarda lazy load tekniğini kullanmak için yardımcı javascript kütüphaneleri bulunmaktadır.Tarayıcı Düzeyinde Tembel Yükleme Nedir?Web sayfaları için tarayıcı düzeyinde tembel yükleme, modern tarayıcıların arka planda yerleşik olarak tembel yüklenme özelliğinin kodlanmış olması anlamına gelir. Modern tarayıcılar, chromium destekli olan Chrome, FireFox, Edge ve Opera gibi tarayıcılarda aktif olarak kullanılmaktadır.Örneğin, modern tarayıcılarda görünüm alanının altında yer alan görsellerin daha düşük bir önceliğe sahip olarak yüklenmesini sağlamak için, img ve iframe elementlerine loading özelliğini eklemeniz yeterli olacaktır.Yukarıda yer alan loading özelliği ile modern tarayıcılar için web sitenizin kaynak koduna fazladan bir kütüphane eklemenize gerek kalmıyor.Resimler İçin Lazy Load KullanımıHTML’de görüntülerin web sayfasında yer alması için iki yöntem kullanılır. Resimler web sayfalarına CSS ile background-image ya da image elementi ile yüklenir. Her iki görsel yükleme yöntemi için lazy load özelliğinin nasıl uygulandığını inceleyelim.İmage Elementi İçin Lazy Load KullanımıHTML’de satır içi olarak geçen elemente lazy load özelliği eklenirken, modern tarayıcı düzeyinde lazy load ya da lazy load için JavaScript kütüphanelerinden faydalanabilirsiniz. Eski tarayıcılar için ise JavaScript kütüphanelerinden faydalanabilirsiniz.Background İmage İçin Lazy Load KullanımıBazı web sitelerinin bazı görselleri CSS yardımıyla arka plan resmi olarak kullanılır. Bu durum SEO açısından pek tavsiye edilmemektedir ve SEO çalışmalarında dikkat edilmesi gereken bir durumdur. Bu durum için en iyi çözüm arka plan resminin yerine, sırası gelince orjinal resim ile yer değiştirmek üzere, boyut olarak çok daha küçük bir görselin yüklenmesidir.Videolar İçin Lazy Load KullanımıGörsel medyalarda olduğu gibi video içeren web sayfalarında da videoların geç yüklenmesi sağlanabilir.  Bu yöntem için en iyi kullanım yöntemi, videoların kullanıcılar tarafından aktif edilmesidir.  Google’ın Lazy Load'a Bakış AçısıGoogle, web sayfasında ekran dışında kalan görsellerin geç yüklenmesine çözüm olarak lazy-loading kullanımının performans ve kullanıcı deneyimini artırma konusunda en iyi uygulamalar arasında yer aldığını söylüyor. Fakat bu teknik yanlış kullanıldığında içeriğin Google’da gizlenmesine sebep olacağı da söylenmektedir.Googlebot’un web sayfasındaki tüm içeriği görebilmesi için, içeriğin görüntülenme sırası ekrana geldiğinden emin olunuz.WordPress Web Siteleri İçin Lazy Load Eklenti ÖnerisiWordPress web site sahipleri için Google tarafından yayınlanan native lazy load (yerel tembel yüklenme) eklentisini kullanmanızı tavsiye ederiz. Eklentiyi web sitenize ekledikten sonra ek bir işlem yapmanıza gerek yoktur. Web sitenizde yer alan tüm görsellere ve iframe’lere otomatik olarak loading=”lazy” özniteliği eklenecektir.Bu basit ve kullanışlı eklenti sayesinde, Googlebot’un web sitenizde yer alan ve lazy-loading uygulanmış görsellerin sorunsuz olarak dizine eklenmesi sağlanacaktır. Lazy Load Nasıl Kurulur?Lazy load kurulumu web sitenizin alt yapısına göre değişiklik göstermektedir. WordPress web sitesine sahipseniz, ekran dışındaki resimleri ertelemek için Lazy Load'u aşağıdaki adımları izleyerek kurabilirsiniz.WordPress yönetim paneline giriş yapın,Eklentiler > Yeni Ekle butonuna tıklayın,"Eklentileri ara..." alanına "Native Lazyload" yazınEklentiyi yüklemek için "Şimdi Yükle" butonuna tıklayın,Kurulum tamamlandıktan sonra, "Etkinleştir" düğmesine tıklayın.İşte kurulum bu kadar kolay! Wordpress web sitesini optimize etmek için kurduğunuz bu eklenti, sizin yerine her şeyi otomatik olarak halledecektir.Web sitesi CMS altyapılı değilse, lazyload kurulumu yapmak için sitenizin etiketleri arasında kullanmak istediğiniz lazyload kütüphanesinin JS dosya URL'ini ekleyiniz. Daha sonrasında görselinizin class'ına "lazyload" yazmanız yeterlidir. SonuçLazy load özelliği dikkatli ve doğru kullanıldığı zaman, lazy-loading uygulanmış resimler ve videolar, web sayfasının ilk yüklenme süresinde ve sayfa yüklenirken indirilen dosya boyutunu azaltabilir. Web sitesini ziyaret eden kullanıcılar, içerikte bazen alt sayfalara kadar kaydırmadan siteyi terk edebilir. Tembel yüklenme kullanılmayan sitelerde ekranın aşağısında  kalan görsellerde indirildiğinden, gerek ağ isteği ve kaynak kullanımına yol açar.Web sayfasında çok fazla görsel yer alıyorsa, web sitenizin PageSpeed Insights tarafında performansını iyileştirmek için lazy load kullanımı oldukça iyi bir tekniktir.Lazy load nedir?  konusunda yayınladığımız blog içeriğimizi faydalı bulduysanız, diğer insanlarında erişebilmesi için sosyal medya hesaplarınızda paylaşarak bizlere destek olabilirsiniz.

Kullanılmayan CSS'leri Kaldırın Uyarısının Çözümü
Eyl 4, 2022 1917 reads

Kullanılmayan CSS'leri Kaldırın Uyarısının Çözümü

Arama motoru algoritmalarındaki güncellemeler daha başarılı bir kullanıcı deneyimi sağlamak için pek çok metriği ve teknik altyapıyı önemli hale getirmiştir. 2015 yılından 2022 yılına kadar geçen süreçte kullanıcıların mobil ve tablet kullanımları önemli ölçüde artış gösterirken, masaüstü ve laptop kullanımları azalmıştır. Bu durum özellikle yüksek boyutlu sayfa kaynağına sahip sitelerde başarısız kullanıcı deneyimlerinin ortaya çıkmasına sebep olmuştur.Örneğin, mobil cihazlardan web sitesini ziyaret eden kullanıcılar yüksek boyutlu görsel, kullanılmayan CSS ve JS dosyalarının yer aldığı web sitelerini yüklerken, aşırı bir kaynak tüketimi ve vakit kaybı yaşamaktadır. Zira bu gibi web sitelerinin açılma süreleri ve site hızları kullanıcılara yetersiz bir deneyim yaşatmakta ve kullanıcı ilgili siteye arama motorundan eriştiği için, arama motorlarının da imaj kaybı yaşamasına neden olmaktadır.Bunun farkında olan arama motorları, algoritmalarındaki son güncellemelerle beraber, web sitesinin hızına ve kaynak tüketimine önemli ölçüde dikkat etmeye başlamıştır. Web site sahipleri ise bu durumu optimize edebilmek için, Pagespeed ve GTMetrix gibi ölçüm araçlarıyla, web sitelerinin hızlarını ve kaynak tüketimlerini analiz ederek, optimizasyonlarını bu minvalde güçlendirmişlerdir.Pagespeed Sayfa Hızı AnaliziWeb sitesini optimize ederken kullanılan en önemli performans araçlarının başında, hiç şüphesiz Pagespeed ve GTMetrix araçları gelmektedir. Özellikle Pagespeed, Google tarafından geliştirilen ve web sitelerinin başarılı bir kullanıcı deneyimi önünde engel teşkil eden hız metriklerini bizlerle paylaşmaktadır.Pagespeed tarafında yapılan analizlerde web site sahiplerinin sıklıkla karşılaştığı ve çözümü konusunda çoğu zaman başarısız oldukları metriklerden bir tanesi ise kullanılmayan CSS dosyalarının kaldırılmasıdır.Ne yazık ki Pagespeed ve GTMetrix araçları, kullanılmayan CSS dosyalarında hangi satırların aktif bir şekilde kullanılıp kullanılmadığını bizlerle paylaşmamakta, sadece tahmini tasarruf oranlarını ve dosyaları bizlere sunmaktadır. Bu uyarı ise, tek başına bu problemi çözmek için yeterli olmamaktadır.Kullanılmayan CSS Dosyaları Nedir?Günümüz modern web programcılığı teknolojilerinde, birçok developer sıfırdan HTML & CSS kodlamak yerine, hazır kütüphaneleri tercih etmektedir. Boostrap, Tailwind gibi kütüphaneler bu yapılara örnektir. Hazır CSS kütüphanelerinin farkı ise; pek çok buton, navbar, grid yapı, görsel ve tasarımsal komutu, belirli classlar altında tek bir kütüphanede toplamalarıdır. Bu sayede web site geliştiricileri, her bir yapı ve modül için ayrı ayrı CSS komutu yazmak yerine, ilgili HTML elemanına class vererek tüm stil ve CSS düzenlemelerini rahatlıkla kullanabilir. Örneğin bir butona çeşitli renk ve radius stilleri, hover efektleri vermek için pek çok satır CSS kodu yazmak gerekirken, ilgili komut ve satırlar hazır kütüphanede yer aldığı için tek bir class vererek istenilen stil düzenlemeleri elde edilebilir.Her ne kadar hazır CSS kütüphaneleri, geliştiriciler için oldukça pratik olsa da web sitesindeki sorgu ve kaynak tüketimlerini artırdığı için SEO taraflı düzenlemelerde bazı sorunlara yol açabilmekte. Örneğin bootstrap kütüphanesini web sitenize dahil ettiğinizde, içerisinde yer alan 16 farklı buton stilinden sadece 1 veya 2 tanesini aktif olarak web sitenizde kullanabilirsiniz. Bunun dışında kalan 14 buton stili, aktif bir şekilde kullanılmadığı halde CSS dosyasında yer almaya ve sayfanın kaynak tüketimini artırmaya devam eder.İşte bu durumlarda PageSpeed gibi hız ölçümü yapan performans araçları, web sitesinde aktif bir şekilde kullanılmayan CSS dosyalarının yer aldığını bizlere bildirir ve bununla ilgili optimizasyonları yapmamızı ister.Kullanılmayan CSS Dosyaları Nasıl Tespit Edilir?Web sitesinde yer alan ve kullanılmayan CSS satırlarını tespit etmenin birkaç farklı yolu bulunmaktadır. Bunun için purgeCSS gibi modüller kullanabilir veya manuel olarak sayfa incelemesinden bu satırları görebilirsiniz.Kullanılmayan CSS dosyalarını tespit etmek için öncelikle yapmanız gereken, sayfaya sağ tıklayarak "İncele/Inspect" seçeneğine tıklamanızdır.Ardından açılan pencerenin sağ tarafında bulunan üç noktaya tıklayarak More Tools > Coverage seçeneğine tıklayınız.Aşağı tarafta açılan kısımda bir record butonu göreceksiniz. Bu butona tıklayarak sayfayı CTRL + F5 veya Command + F5 ile yenileyiniz. Sayfa yenilendikten sonra aşağıya pek çok CSS ve JS dosyasının geldiğini göreceksiniz.Bu kısımda sağ tarafta yer alan oranlar, ilgili CSS dosyasında sayfa yüklendiği anda kullanılmayan oranı göstermektedir.Herhangi bir CSS dosyasının üzerine tıkladığınızda ise ilgili dosya pencerede açılmakta ve yine kullanılmayan CSS satırlarını kırmızı renkte, aktif şekilde kullanılanları ise mavi renkte görüntüleyebilirsiniz.Bu kısımda önemli olan detay, hangi kodun farklı sayfalarda kullanılıp kullanılmadığı, hangi satırların ise mobil ve tablet cihazlarda aktif olduğunu belirlemektedir.Kullanılmayan CSS Dosyaları Nasıl Kaldırılır?Web sitesinde yer alan ve kullanılmayan CSS satırlarını nereden görebileceğimizi öğrendik. Ancak burada önemli olan kısım, hangi CSS satırının gerçekten kullanılıp kullanılmadığını iyi analiz edebilmektedir. Çünkü bazı CSS satırları, mobil ve tablet cihazlarda yer alabileceği gibi farklı sayfalar için yazılan CSS satırları tek bir dosyada toplanmış olabilir.Bu yüzden öncelikli olarak CSS satırlarındaki hazır kütüphane kodlarından kullanılmayınları bir kenara kopyalayarak, ardından sitenin hizmet/servis, kategori, ürün, iletişim gibi sayfalarına gezmeli ve her sayfada yukarıda paylaştığımız coverage işlemini gerçekleştirmelisiniz.Bu işlemin yanı sıra inspect kısmında yer alan cihaz seçim alanından web sitenizin mobil ve tablet görünümlerine geçiş yapmalı ve yine aynı şekilde tüm sayfaları ziyaret ederek, kullanılmayan CSS satırlarını bir kenara kopyalamalısınız.Son aşamada ise kopyaladığınız tüm CSS satırları içerisinde ortak olan ve aktif bir şekilde kullanılmayan CSS satırlarını temizleyebilirsiniz.Not: Tüm bu işlemleri web sitenizin test sürümünde yapmanız ve temizlik sonrası kontrolleri gerçekleştirerek, herhangi bir sorun görülmediği taktirde ana sürüme taşımanız tavsiye edilir.

Google Search Console Nedir? Google Search Console Nasıl Kullanılır?
Eyl 4, 2022 3409 reads

Google Search Console Nedir? Google Search Console Nasıl Kullanılır?

Google Search Console, internet sitesi olan herkesin kullanımına açık olan ücretsiz bir Google Webmaster aracı olarak tanımlanabilir. Tabii ki bu çok genel bir tanım olacaktır. Genel anlamda Google Search Console'u, site sahiplerinin web sitelerinin Google’daki durumlarını kontrol ve optimize edebilecekleri, bir araç olarak tanımlayabiliriz. Bu yazımızda Google Search Console ile ilgili merak edilen pek çok hususa yanıt vermeye çalışacağız. Google Search Console nedir? Yukarıda çok genel hatlarıyla tanımladığımız Google Search Console’un ne olduğuna gelin daha detaylı bakmaya çalışalım. Google Search Console aslına bakılırsa internet ortamında Google ile bir şekilde ilişkisi olan herkesin işine yarayacak ücretsiz bir Google aracıdır. Önceki ismi Google Webmaster Araçları olan Google Search Console, sonrasında bu araçların her birinin özelleştirilmesiyle birlikte bugünkü halini aldı. Google’un internet ortamında kullanımına müsaade ettiği bir diğer kullanışlı araç da Google Analytics aracıdır. Google Analytics ile Google Search Console daha önceden bir arada kullanılıyordu. Google Search Console kullanılarak bir web sitesinin Google tarafından nasıl göründüğü tespit edilebilir. Bununla birlikte takibi yapılan web sitesinin arama sonuçlarındaki performansına ait detaylar hangi arama sorgusundan ne kadar organik trafik aldığı gibi tüm veriler, Google Search Console ile ulaşılabilen veriler arasındadır. Google Search Console’u sadece internet sitesi sahipleri değil, bu siteler için içerik üreten kişilerin kullanmasında da fayda vardır. Zira içeriklerin Google’da nasıl sıralandığı, sayfada yaşanan teknik bir sorundan kaynaklı olarak içeriğin sıralaması etkilenebilmektedir. Bu nedenle çok kıymetli içeriklerin bu sorunlar nedeniyle doğru sıralanamadığı görülmektedir. İşte Google Search Console kullanılarak bir web sitesinin herhangi bir sayfasına ya da sitenin tümüne yönelik optimizasyon hamleleri yapılabilmektedir. Google Search Console kullanabilmek için elbette bir hesabınızın olması gerekmektedir. Google Search Console hesabınızı Google hesabınız ile açabilirsiniz. Bunun için Google Search Console panelinin giriş sayfasına gitmeniz yeterli olacaktır. Search Console hesabınızı açtığınız ilk anda karşınıza yukarıdaki gibi bir ekran gelecektir. Bu kısmı kullanarak sahibi olduğunuz web sitelerini Google Search Console paneline ekleyebilirsiniz. Google Site Ekleme - Search ConsoleSearch Console hesabı kurulduktan sonra sahibi olduğunuz web sitesinin kontrolünü sağlamak için Search Console paneline eklenmesi gerekmektedir. Google Search Console’a site eklemek için sırasıyla şu adımlar takip edilmelidir. Search Console’a giriş yaptığınız ilk anda karşınıza gelen ekran aşağıda gösterilmiştir. Burada yer alan iki seçeneği kullanarak da site ekleme işlemi gerçekleştirilebilir. Bu iki seçeneğin birbirinden farkı ise "Domain" yazan kısma eklenen alan adının bütün bileşenleri için Google Search Console kaydı yapılırken, URL prefix yani Türkçesiyle URL ön eki yazan kısımdan eklenen doğrulama yönteminin belli bir URL olmasıdır. Burada çoğunlukla domain üzerinden yapılan eklemelerde bazı siteler için hem https:// hem de http:// versiyonların sanki iki farklı siteymiş gibi eklenmesi gibi durumlar söz konusu olabilmektedir. Bu nedenle tercihe bağlı olarak URL prefix kısmından ekleme yapılmasını tavsiye edebiliriz. Google Search Console Site Doğrulama YöntemleriSearch Console’a eklenen sitelerin doğrulama işlemlerini gerçekleştirmek için farklı yöntemler mevcuttur. Bu yöntemlerin her biri temelde sitenin sahipliğinin gerçekten Search Console’a erişim isteği yapan kişiye mi ait olup olmadığının tespit edilmesidir. Bu yöntemlerin ortak özelliği siteye ancak ve ancak sitenin dosya ve kod yönetimini elinde bulunduran kişi tarafından yapılabilecek bazı şeyleri istemesidir. HTML Dosyası ile Doğrulama Yukarıda belirttiğimiz ekrana doğrulanması istenen internet sitesinin adresi girildikten sonra bu adresin sahipliğinin doğrulanabileceği farklı yöntemler vardır. Bu yöntemlerin ilki Google tarafından sağlanan bir html dosyası kullanılarak doğrulama işleminin gerçekleştirilmesidir.Yukarıda belirttiğimiz kısma sahibi olduğunuz ve Search Console verilerine erişmek istediğiniz adresi girdikten sonra karşınıza yukarıdaki ekran gelecektir. Google’ın sitenin sahipliğini doğrulayabilmesi için site sahibine özel olarak hazırlamış olduğu ve sadece doğrulama işleminin gerçekleştirileceği html dosyası indirildikten sonra sitenin barındırıldığı sunucudaki dosya yöneticiye erişilmeli ve bu dosya, dosya yöneticisinin ana dizinine - ki bu dizin sitenin tüm html dosyalarının yer aldığı public_html klasörüdür - eklenmelidir. Belirtilen dosya public_html klasörüne yüklendikten sonra “Doğrula” butonuna basılmalıdır. Ardından doğrulama yapılmış olacak ve aşağıdaki gibi bir ekranla karşılaşılacaktır. Eğer doğrulama dosyası sitenin dosyaları arasından kaldırılırsa site doğrulaması sona erecek ve Search Console verilerine erişim son bulacaktır. HTML Meta Etiketi ile DoğrulamaGoogle Search Console site ekleme yöntemlerinin ikincisi de Google tarafından sağlanan bir html meta etiketinin sitenin ana sayfasındaki bölümüne eklenmesidir.Google, her site için benzersiz bir doğrulama kodu oluşturur. Bu kod, doğrulanmak istenen sitenin head alanına yapıştırılarak Doğrula butonu tıklanırsa site sahiplik doğrulaması anında yapılmış olur ve yukarıdaki “Sahiplik Doğrulandı” ekranı ile karşılaşılır. Bunlar dışında 3 farklı ek doğrulama yöntemi daha mevcuttur. Ancak bu 2 yöntem hem en pratik doğrulama yöntemleridir hem de diğer yöntemlere göre doğrulama işlemi daha sağlam gerçekleştirilmiş olur. Bununla birlikte yine de diğer 3 doğrulama yönteminden de ismen bahsedelim: Google Analytics: Doğrulama için Google Analytics hesabı kullanılarak bazı işlemler yapılır. Google Tag Manager: Doğrulama için Google Tag Manager üzerinden birtakım işlemler gerçekleştirilir. Alan Adı Sağlayıcı: Alan adınızın yer aldığı alan adı sağlayıcı firmasındaki alan adı dosyası içerisine yine Google tarafından verilen bir doğrulama kodu kopyalanarak sahiplik doğrulaması gerçekleştirilir. Google Search Console’a doğru alan adını eklemeYukarıda bahsettiğimiz iki farklı alan adı ekleme seçeneğine bağlı olarak Google Search Console’a site ekleme noktasında pratikte sık yaşanan sorunlardan birine de ayrıca değinmek istiyoruz. Zira gerek Search Console’un verilere doğru erişebilmesi gerekse de SEO açısından doğru veri edinilebilmesi için bu durum önemli bir yer teşkil etmektedir. Bunu daha iyi anlamak için şöyle bir örnek verebiliriz: https://analyticahouse.com/ ile https://www.analyticahouse.com/ adresleri aynı adresler midir? Bu iki adres aynı adresler gibi görünse de ve tarayıcıya girildiğinde ikisi de aynı sayfayı işaret etseler de teknik olarak iki adres aynı değillerdir. Burada her ne kadar adres kaynağı aynı yere gitse de teknik olarak analyticahouse.com’un www olan versiyonu canonical olarak belirlenmiştir. Google Search Console’a site eklerken yukarıdaki gibi iki farklı mülkün hesapta ayrı ayrı bulunmaması için site eklemesini alan adı kısmından yapmak, yukarıdaki gibi aynı alan adının iki farklı mülk olarak Search Console’a eklenmesinin önüne geçilmesini sağlayacaktır. Search Console TerminolojisiSearch Console kullanımını daha iyi anlayabilmek için Search Console’da kullanılan bazı terimlerin ne anlama geldiğinden bahsetmek faydalı olacaktır.Google Search Console sorgusu nedir?Google’da yapılan her bir sorgu için sitenizin performansının gösterildiği alan Search Console sorgu alanıdır. Sitenizin hangi Google sorgularında ne şekilde performans gösterdiği bu alandan kontrol edilir. Gösterim sayısı nedir?Bir link URL’inin gözüktüğü her bir arama sonucu bir gösterim sayısı olarak Search Console verilerine eklenir. Arama sorgusu yapıldıktan sonra ilgili URL arama sonuçlarında gözüküyorsa bir gösterim almış sayılır ve gösteri sayısı bir artar. Bu sayının artması için kullanıcının o veriyi görmesine de gerek yoktur. Örneğin yapılan sorgu sonucunda ilgili URL ilk sayfada 10’ncu sırada çıksa ve kullanıcı da o kısma inmeden ilk sayfaya tıklasa dahi ilgili URL’in gösterim sayısına 1 eklenir.Tıklama sayısı nedir?Kullanıcının Google arama sayfasında çıkan bir arama sonucuna tıklayarak o sayfaya girmesi bir tıklama sayılır. Kullanıcının bir linke tıklayarak sonrasında geri butonuna basması ve tekrar o arama sonucundaki linke tıklaması tıklama sayısını arttırmaz. Böyle bir durumda tıklama sayısı yine 1 sayılır. Ancak kullanıcı ilk olarak URL’e tıklayıp sonrasında geri gelip farklı bir URL’e tıkladıktan sonra tekrar ilk URL’e tıklarsa bu durumda tıklama sayısındaki artış 2 olacaktır. Search Console verilerinde gösterilen tıklama sayılarına ücretli arama sonuçlarına yapılan tıklamalar dahil değildir. Ortalama konum nedir?Bu terim site sayfalarının sorgu veya sorgulardaki ortalama sıralamasını ifade etmektedir. Örneğin; Geçmişten Günümüze Önemli Google Algoritma Güncellemeleri içeriğimizin “Google Algoritması” kelimesinde 7’nci sırada ve “Google Algoritma Güncellemeleri” kelimesinde de 5’nci sırada yer aldığı bir durumda ilgili içeriğin ortalama konumu Search Console’da 6 olarak gösterilecektir. Eğer sitemiz sadece bu içerikten oluşuyor olsaydı tüm sitenin ortalama konumu da 6 olarak görülecekti. Yani ortalama konum Google arama sonuçlarında sıralanan sitenin tüm içeriklerinin ortalama konumlarını ifade etmekte ve sitenin arama performansı açısından genel bir kanaat edinilmesini sağlamaktadır.TO nedir?TO, ya da tıklama oranı, tıklama sayılarının gösterim sayılarına bölümü sonucu ortaya çıkan sonucun yüzdelik olarak gösterimidir. Sitede yayınlanan bir gönderi 100 kere gösterilmiş ve 50 tıklama almışsa bu içerik için tıklama oranı %50 olarak ifade edilir.Google Search Console Temel FiltreleriSearch Console, sunduğu verileri daha anlamlı hale getirmek ve çözümlemek için pek çok kullanışlı filtreye sahiptir. Bunların en temellerinden şu şekilde bahsedebiliriz. Arama TürüGoogle’da temel olarak 4 farklı arama türü bulunmaktadır. Bunlar; web, görsel, video ve haberler aramalarıdır. Arama sonuçlarında bu her bir arama türü için ayrı sonuçlar listelenmektedir. Bu filtre hangi arama türündeki veriler görülmek isteniyorsa ona uygulanır. Yine aynı filtrede yer alan “Karşılaştır” sekmesinden de iki farklı arama türünün sonuçları aynı ekranda gösterilerek karşılaştırması yapılabilir. Bu sayede hangi arama türünde daha iyi sonuçlar gösterildiği tespit edilerek SEO stratejisi bu verilere göre şekillendirilebilir. Yukarıda “Karşılaştır” sekmesi kullanılarak bir web sitesinin web ve görsel aramalarının karşılaştırıldığı bir ekrana yer verilmiştir. Bu örnek için ilgili web sitesinin web aramalarının görsel aramalarından çok daha iyi olduğu sonucuna ulaşılabilir.Tarih aralığıSearch Console verilerinin tarih aralıklarına göre gösterilmesini sağlayan filtredir. Tarih aralığı filtresi aşağıdaki tarih aralıklarındaki verilerin gösterilmesini sağlamaktadır. Sitenin ilk kurulduğu günden bugüne kadar tüm verilerin gösterimi sağlanabileceği gibi farklı tarih aralıklarındaki verilerin ekrana getirilmesi tarih aralığı filtresi kullanılarak sağlanabilmektedir.Sorgu, sayfa, ülke, cihaz filtreleriBu filtrelere ulaşmak için yukarıdaki kısımda yer alan “Yeni” butonuna tıklayın. Bu kısımda karşınıza sorgu, sayfa, ülke ve cihazlarla ilgili gelişmiş filtrelere gelecektir. Sorgu filtresinde özel olarak verilerinin görülmesi istenen sorgulara bakılabilmektedir. Sayfa filtresi kullanılarak belli URL’lerin arama performansları görülebilir. Ülke filtresinden arama verilerinin ülke performansları detaylı olarak incelenebilirken cihaz filtresinden masaüstü, mobil ya da tabletteki arama performanslarına göz atılabilmektedir.Dizin Kapsam RaporuDizin kapsam raporu Google’ın sitede dizine eklemek istediği her bir sayfanın durumunu göstermektedir. Bu raporda yer alan veriler kullanılarak web sitesine ilişkin dizine eklenme sorunları teşhis edilebilir.Bu raporun görünümü yukarıdaki gibidir. Görüldüğü üzere raporda 4 farklı durum yer almaktadır. Hata: Bu kısımda yer alan sayfalar Google tarafından dizine alamaz yani arama sonuçlarında kendilerine yer bulamazlar. Uyarılarla Geçerli: Sayfa dizinde ancak sayfa ile ilgili sorunlar mevcut. Hariç Bırakıldı: Sayfanın birebir aynısı bulundu ve bu birebir aynı olan sayfada canonical etiketi mevcut. Bu nedenle canonical etiketi olan sayfa dizine alındı ve bu sayfanın birebir aynısı olan diğer sayfalar dizine alınmayarak hariç bırakıldı. Geçerli: Bu kısımda yer alan sayfalar için herhangi bir dizine eklenme sorununun olmadığı anlaşılmalıdır. Gönderilen Site HaritalarıBu kısımda Google’a gönderilen site haritaları ve güncel durumlarına dair detaylı bilgiler görülebilmektedir. Örneğin yukarıdaki örnekte Google’a farklı tarihlerde 5 adet site haritasının gönderildiği görülmekle birlikte bunların 4’ünün çeşitli nedenlerden ötürü Google tarafından okunamadığı “Durum” kısmında bildirilmiştir. Bu site haritalarından sadece /sitemap.xml URL’ine sahip site haritası “Başarılı” olarak görülmüştür. Google Search Console Hangi Verileri Görmek için Nasıl Kullanılır?Şimdi genel bir bakış attığımız Google Search Console’un bir web sitesinin SEO performansını ölçümleyebilmek için en sık kullanıldığı durumlardan bahsedelim. Google Search Console’un en sık kullanıldığı ölçümleme durumlarını şu şekilde belirtmek mümkündür:Bir web sitesinin en çok organik trafik alan sayfalarını tespit etmeEn yüksek TO sahibi olan sorguları tespit etmeZaman içerisindeki TO durumlarını izlemeZaman içerisindeki gösterimleri izlemeEn yüksek sıralama alan sayfaları tespit etmeEn düşük sıralama alan sayfaları tespit etmeSıralama yükselmesi ve düşüşlerini tespit etmeEn çok trafik getiren sorguları tespit etmeWeb sitesinin arama performansını masaüstü, tablet ve mobil cihazlara göre karşılaştırmaWeb sitesinin kaç sayfasının arama sonuçlarında sıralandığını, kaç sayfasının dizine eklenme sorunlarının olduğunu tespit etmeMobil kullanım sorunlarının tespit edilmesiWeb sitesinin toplam backlink sayısını öğrenmeHangi URL’lerin en çok backlink’inin olduğunu öğrenmeGoogle’ın bir URL’i nasıl gördüğünü tespit etmeŞimdi bütün bu işlemlerin nasıl yapıldıklarına detaylı bir şekilde sırayla bakalım.Bir web sitesinin en çok organik trafik alan sayfalarını tespit etmeBu işlemi gerçekleştirmek için önce sol taraftaki menüden “Performans” butonuna tıklanarak site performans metriklerinin yer aldığı sayfaya giriş yapılmalıdır. Ardından sırasıyla şu adımlar izlenmelidir: Sorgular sekmesinin yanında yer alan Sayfa Sayısı sekmesi tıklanır. Tarih aralığı filtresinden hangi dönemlerin performansına bakılacaksa o dönem seçilmelidir. Bizim önerimiz son 12 ayın seçilmesidir.  Sadece toplam tıklama sayısı ölçüsünün seçili olması gerekmektedir. Dolayısıyla toplam gösterim sayısı metriğinde yer alan tik kaldırılmalıdır. Sayfa linkinin yanında yer alan “Tıklamalar” seçeneğinin üstündeki küçük ok aşağıya bakacak şekilde ayarlanırsa en yüksek tık alan sayfadan en düşük tık alan sayfaya doğru bir sıralama gerçekleşecektir. Bu şekilde sitenin belli bir zaman aralığındaki en çok organik trafik alan sayfası ya da sayfaları kolayca belirlenmiş olacaktır. En yüksek TO sahibi olan sorguları tespit etmeBu tespit de yine “Performans” kısmından yapılmaktadır. Performans sayfasına geldikten sonra sırasıyla aşağıdaki adımlar takip edilmelidir: Sorgular sekmesine tıklanır. Zaman aralığı istenen şekilde ayarlanır. Sadece ortalama TO ölçüsünün tikli olması gerekmektedir. Sayfadaki tikli olan diğer metriklerin tikleri kaldırılır. En yüksek TO sahibi olan sorgunun görülmesi için alt tarafta bulunan TO seçeneğinin hemen yanındaki küçük ok aşağıya bakacak şekilde ayarlanır. Zaman içerisindeki TO durumlarını izlemeSearch Console verileri kontrol edilirken yapılan her kontrolde genel TO’ya göz atılması tavsiye edilmektedir. Genel TO’da bir düşüş yaşanmasına rağmen gösterim sayıları artıyorsa muhtemelen incelemesi yapılan web sitesi daha fazla anahtar kelimede sıralanmaya başlamış; ancak tıklanmalarında ciddi bir artış gözlenmiyor demektir. Bu da ortalama TO’yu muhakkak düşürecektir. Yukarıda bu duruma örnek olacak bir veri aralığına yer verilmiştir. 8 Haziran Çarşamba günü verilerinde TO azalırken gösterimler artmaktadır.Tam tersi şekilde TO artıyor ancak gösterimler düşüyorsa sitenin sıralandığı anahtar kelimelerde kayıplar yaşanmaya başlamıştır. Yine aynı veri setindeki 17 Haziran Çarşamba verisi bu tip bir durumu göstermektedir.Hem TO hem de gösterim sayısında yükselme mevcutsa bu durum en çok istenen durumdur. Böyle bir durum da 6 Haziran Pazartesi verilerinde görülmektedir. Bu durumda sitenin hem sıralandığı anahtar kelimeler hem de bu kelimelerin pozisyonlarındaki artıştan kaynaklanan tıklamalarda artış yaşanıyor anlamına gelmektedir.Zaman içerisindeki gösterimleri izlemeSite içerisinde daha fazla içerik oluşturdukça ve mevcut sayfalarda optimizasyonlar yaptıkça bu sayının yükselmesi beklenir. Yukarıda böyle bir duruma örnek olacak bir veri seti gösterilmiştir. Bu veri setinde son 6 ayda site gösterimlerinin düşmesi siteye gereken içerik optimizasyonlarının son 6 ay içerisinde sağlıklı bir şekilde gerçekleştirilmediğini ortaya koymaktadır. (Elbette her zaman olduğu gibi bu durumun da istisnaları mevcuttur.)En yüksek sıralama alan sayfaları tespit etmeEn yüksek sıralama alan sayfaları tespit etmek için de Performans sayfası kullanılmaktadır.Bunun için sırasıyla şu adımlar takip edilmelidir: Sayfa Sayısı sekmesine tıklanır. Zaman aralığı filtresi son 28 gün olarak ayarlanmalıdır. Zira güncel duruma yönelik bir veri kontrolü hedeflenmektedir. Gösterim metriklerinden “Ortalama konum” ölçümünün seçili olması gerekmektedir. Pozisyon seçeneğinin yanındaki küçük ok yukarı doğru olacak şekilde ayarlanmalıdır. Zira burada incelenen metrik sıralama pozisyonudur ve bu pozisyon ne kadar yüksekse ilgili sayfanın arama sonuçlarındaki durumu o kadar iyidir. Burada dikkat edilmesi gereken nokta bir sayfanın başarısı için sadece bu metriğe bakılarak yapılan değerlendirmenin çok doğru sonuçlar getirmeyeceğidir. Zira sıralama konumları anlık olarak değişmekte ve çok farklı parametrelerle birlikte ortaya konulmaktadır. En düşük sıralama alan sayfaları tespit etmeYukarıdaki ile aynı süreç takip edilir. Burada değişen tek şey, yukarıda pozisyon seçeneğinin yanındaki küçük okun yukarı doğru yönelmiş haliyle sıralama yaparken en düşük sıralama alan sayfaların tespitinde ilgili küçük okun aşağı yönde görünen haliyle değerlendirme yapılmalıdır. Yukarıda bu tespitin yapıldığı ekrana dair bir görüntüye yer verilmiştir. Sıralama yükselmesi ve düşüşlerini tespit etmePerformans sayfası kullanılarak yapılabilecek bir diğer işlem de sıralama yükselmesi ve düşüşlerinin tespit edilmesidir. Bunun için şu adımları izlenmelidir: Sorgular sekmesine tıklanır. Tarih aralığı filtresinde “Karşılaştır” seçeneği seçilir. Bu bölümden karşılaştırma yapılacak dönem aralıkları seçilir. Bu adımdan sonra sağ altta yer alan “Uygula” butonuna tıklanması halinde ilgili veriler karşılaştırmalı bir şekilde sunulmuş olacaktır. Bu işlem yapıldıktan sonra karşılaştırılacak metriğe göre yukarıdaki gibi bir tablo oluşturulacaktır. Buradan seçilen zaman aralıklarındaki veriler karşılaştırmalı olarak gösterilmekte ve arama durumu daha iyi ya da daha kötü olan tarihler kolayca belirlenebilmektedir. En çok trafik getiren sorguları tespit etmePerformans sayfası kullanılarak siteye en çok trafik getiren sorguları bulmak için sırasıyla şu adımlar takip edilmelidir: Sorgular sekmesi tıklanır. Sonuçları görülmek istenen tarih aralığı belirlenir. Toplam tıklama metriği tikli olmalıdır. Tıklamalar kısmının yanında yer alan küçük ok aşağı bakacak şekilde ayarlanmalıdır. Bu şekilde siteye en çok trafik getiren sorgudan en az trafik getiren sorguya doğru bütün sorgular gösterilecektir. İlgili düzenleme yapıldığında göreceğimiz ekran yukarıdaki gibi olacaktır.Bu sorguların bilinmesi siteye en çok organik trafik getiren sorgulara dair içeriklerin takip edilmesini ve belli aralıklarla güncellenerek sürekli zirvede kalmasının sağlanmasına yardımcı olacaktır. Web sitesinin arama performansını masaüstü, tablet ve mobil cihazlara göre karşılaştırmaSite performansında yer alan verilerden bir diğeri de sitenin arama performansının cihaz türüne göre tespitidir. Bunun yapılması için sırasıyla şu adımlar takip edilir: Cihazlar sekmesi tıklanır. Yukarıda grafik halinde gösterilen tüm metrikler tikli olmalıdır. Bunlar; toplam tıklama sayısı, toplam gösterim sayısı, ortalama TO ve ortalama konum metrikleridir.Alt kısımda her bir metrik için sitenin masaüstü, tablet ve mobildeki performansına dair veriler yer alacaktır.Web sitesinin kaç sayfasının arama sonuçlarında sıralandığını, kaç sayfasının dizine eklenme sorunlarının olduğunu tespit etmeBu veriye ulaşabilmek için incelenecek sayfa sol menüde yer alan Ön İzleme sayfasıdır. Ön izleme sayfasına geldikten sonra sırasıyla şu adımlar takip edilmelidir: Yukarıdaki “Kapsam” raporunun yer aldığı kısma gelinir. Geçerli sayfaların yer aldığı yeşil kısım sitenin dizine eklenen sayfa sayısını göstermektedir. Örnek sitemizde 38 sayfa Google arama sonuçlarında yer almış yani dizine eklenmiştir. Kırmızı kısımda yer alan sayfa sayısı dizine eklenmesinde sorun yaşanan sayfaları göstermektedir. Örnek sitemizde 0 sayfada hata vardır. Yani sitenin tüm sayfaları sorunsuz bir şekilde Google arama sonuçlarında kendine yer bulmuştur.Mobil kullanım sorunlarının tespit edilmesiSitenin mobil arama sonuçlarında bir sorun yaşayıp yaşamadığının tespiti için sol menüde yer alan “Mobil Kullanılabilirlik” sayfası kullanılmaktadır. Bu sayfaya girdikten sonra sırasıyla şu adımlar takip edilmelidir: Hata yazılı kısmın tikli olduğundan emin olunmalıdır. Bu kısımda Google’ın mobil taramalarında sorunla karşılaştığı sayfalar ve sorunları gösterilmektedir. Hangi sayfada hangi tarihte ne gibi sorunlar olduğu bu raporda detaylı olarak belirtilmektedir.Web sitesinin toplam backlink sayısını öğrenmeGoogle Search Console ile tespit edilebilecek verilerden bir diğeri de Search Console’da incelenen sitenin backlink sayısıdır. Bunun için bakılacak kısım “Bağlantılar” sayfasıdır. Sol menüden bağlantılar sayfası seçildikten sonra sırasıyla şu adımlar takip edilmelidir: “En Çok Bağlantı Veren Siteler” kısmında sağ altta yer alan “Diğer” butonuna tıklanır. Gelen sayfada sol üstte belirtilen “Toplam harici bağlantı sayısı” kutucuğunun altında siteye verilmiş tüm backlinkler adet olarak yer almaktadır.Hangi URL’lerin en çok backlink’inin olduğunu öğrenmeYine Bağlantılar sayfasından bakılabilecek bir diğer veri sitenin hangi URL’ine en çok backlink verildiği verisidir. Bunu öğrenmek için yine bağlantılar sayfasından veri kontrolü sırasıyla şu şekilde yapılır: Dış bağlantılar kısmında “En çok bağlantı verilen siteler” raporunda sağ altta yer alan “Diğer” butonuna tıklanır. Gelen raporda sağ tarafta yer alan “Gelen Bağlantılar” kısmındaki ok aşağı bakacak şekilde düzenlenir. Bu şekilde ilgili sitenin en çok backlink verilen sayfaları URL olarak görülecektir. Google’ın bir URL’i nasıl gördüğünü tespit etmeGoogle Search Console’da en çok kullanılan özelliklerden biri de Google botlarının sitedeki bir URL’i nasıl gördüğünün tespitidir. Bunun için aracın en üst kısmında yer alan ve arama kısmı gibi görünen bölüm kullanılmaktadır. Bir URL’in Google arama sonuçlarında nasıl göründüğünün ya da yer alıp almadığının tespiti için aranmak istenen URL bu arama kısmına kopyalanır. Ardından enter’a basıldıktan sonra bu URL’i Google’ın nasıl gördüğü ile karşılaşılacaktır. Sorunsuz URL’ler için yukarıdaki gibi bir sayfa sonucu ile karşılaşılacaktır. Eğer URL Google’da mevcut değilse ya da URL’e dair farklı sorunlar bulunuyorsa bu sayfada detaylarıyla belirtilmektedir.SonuçGoogle Search Console, SEO süreçleri için son derece faydalı bir araçtır. Bir web sitesinin Google ile etkileşimindeki en önemli süreçlerin bir çoğunda aktif bir şekilde rol oynamaktadır. Elbette Search Console üzerinden kontrol edilebilecek veriler burada saydıklarımızla sınırlı değildir. Biz Search Console’un en çok kullanıldığı veri denetim alanlarına yer vermeye çalıştık. Google’ın bu aracını her geçen gün geliştirdiği ve web sitelerin SEO süreçlerindeki önemini arttırdığı gerçeği de göz önünde bulundurulduğunda Google Search Console’u dijital ve web ile ilgilenen herkesin iyi derecede bilmesi gün geçtikçe bir zorunluluk halini almaktadır.

SEO Performansı Açısından Log Dosyası Analizi
Eyl 4, 2022 1949 reads

SEO Performansı Açısından Log Dosyası Analizi

SEO performansı açısından log dosyası analizi, web site sunucusunun aldığı erişim isteklerinin tutulduğu dosyada, arama motoru botlarının sitemize eriştikten sonra nasıl davrandığı konusunda bilgi sahibi olmamızı sağlar.Bu içeriğimizde "SEO için detaylı bir log analizinin nasıl yapılır?", "Log analizi yapmanın faydaları nelerdir?" sorularını farklı senaryolu örnekler ile ele alacağız.Log Dosyası Nedir?Log dosyaları, web sitesine kimin ne zaman, hangi adresten hangi içeriğe eriştiğinin kaydının tutulduğu bir dosyadır.Web sitesine erişenlerden kastımız sadece müşteriler değil aynı zamanda Googlebot ve diğer arama motoru botu botları yer almaktadır.Log dosyası, sunucular tarafından toplanır ve belirli bir süre boyunca tutulur, daha sonrasında üzerine yeni kayıt yazılır.Log Dosyası Hangi Verilere Sahiptir?Bir web sitesine erişim sağlayan birinin log dosyasında kaydı şu şekilde gözükmektedir:27.300.14.1 – – \[14/Sep/2017:17:10:07 -0400] “GET https://allthedogs.com/dog1/ HTTP/1.1” 200 “https://allthedogs.com” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”Yukarıda yer alan veriler haricinde, sunucu yapılandırmasına göre farklı bilgilerde tutulabilir. Örneğin, istek yapıldığında ne kadar bir dosya boyutu indirildi ya da sayfanın yüklenmesi için geçen süre şeklinde verilerde yer alabilir.27.300.14.1 – – \[14/Sep/2017:17:10:07 -0400] “GET https://allthedogs.com/dog1/ HTTP/1.1” 200 “https://allthedogs.com” “Mozilla/5.0 (compatible; Googlebot/2.1; +)”Siteye erişim sağlayan kişinin IP adresiİsteğin yapıldığı tarih ve saatSiteye erişim yöntemi GET veya POSTErişilen sayfanın URL adresiİsteğin başarılı veya başarısız olduğunu gösteren, HTTP durum kodu.Tarayıcı ve bot (örneğin, mobil veya masaüstünden geliyorsa) dahil olmak üzere, istekte bulunan istemci hakkında ek bilgiler içeren Kullanıcı Aracısı.Google, web sitenizi taramak ve web sitenize erişmek için kullandığı IP adreslerinin tam listesini Googlebot kullanıcı aracıları altında yayınladı.Googlebot IP Adresi ListesiGoogle 2021 yılı Kasım ayında, web siteni taramak ve web sitesine erişmek için kullandığı IP adreslerinin tam listesini Googlebot kullanıcı aracıları altında yayınladı.https://developers.google.com/search/apis/ipranges/googlebot.json adresinde yer alan IPv4 protokolünde ki IP adresleri 66. ile başlamaktadır. Log Dosyasına Nasıl Erişilir?Log dosyaları, daha önceden de bahsettiğimiz gibi web sunucuları (hosting) içerisinde yer almaktadır.Her web sunucusunun farklı bir yapısı olduğunda dolayı, log dosyalarına nasıl erişebileceğiniz bulmanın en kolay yolu Google'a bakmaktır.Web sitesinin kullandığı teknolojiye bağlı olarak bazen log dosyaları CDN'ler içerisinde de yer alabileceğini belirtmek isterim.nginx, apache, IIS server şekilde sunucu yapıları bulunmaktadır. Her sunucunun kullanacağı yönetim paneli farklı olabilmektedir. Aşağıda yer alan ikisi dünya genelinde web hosting için en çok kullanılan iki paneldir. Cpanel için log dosyası konumu: Plesk panel için log dosyası konumu:SEO Açısından Log Dosyası Analizi Neden Önemlidir?Web sitemize erişen tüm kullanıcıların ve arama motoru botlarının gerçekte neler ile karşılaştığı hakkında yorum yapabilmek için log analizi oldukça önemlidir. Screaming Frog ve DeepCrawl gibi araçlar web sitesinde yer alan bağlantıları takip etmektedir. Arama motoru botları ise geçmişte karşılaştığı durumları tekrar kontrol etmektedir. Örneğin; X sayfası 2 gün önce vardı ama şuan yok diyelim SEO araçları sadece anlık bağlantıları kontrol edeceğinden 2 gün önceki kayıt olmadığından bir hata ile karşılaşmayacak, fakat arama motoru botları geçmiş URL’lerin durumunu merak etmekte kontrol sağlamaktadır. Log dosyası analizi sayesinde, özellikle arama motoru botlarının şu durumlar ile karşılaşıp karşılaşmadığı yorumunu yapabiliriz.Web sayfamızda hangi sayfaların daha sık tarandığı ve önemli olarak değerlendirdiği hakkında yorum yapılabilir.Sunucu hataları ile eğer karşılaşıyorsa, gerekli aksiyonları alabilirsiniz.Web sitesinde yer alan dahili bağlantısı bulunmayan, sayfalar SEO araçları ile fark edilmiyor. Fakat log dosyalarına yer alan verilere göre hangi sayfaları taradığını görebiliriz.Log Dosyası Analizi İçin Yardımcı AraçlarLog dosyası analizinde bize yardımcı olabilecek bazı yardımcı araçlar:Splunk.Logz.io.Screaming Frog Log File Analyser - ücretli ve ücretsiz sürümü şeklinde indirme mevcut, ücretli sürümden farklı ücretsiz sürümde 1000 satır okumaktadır.Semrush Log File AnalyzerGSC Tarama İstatistikleri Raporu GSC Tarama İstatistikleri Raporunda, Google web sitesini nasıl taradığı hakkında bazı bilgiler sunmaktadır. Search console da yer alan veriler, taranan bazı örnek sayfalar ve istediği tarih/saat ile birlikte paylaşır.Burada yer alan verilen, log dosyasında yer alan verilerden daha kapsamlı ve kullanışlı değildir.Peki, GSC üzerinde “Tarama İstatistikleri Raporuna” nasıl erişiriz?GSC hesabınıza girdikten sonra, Settings > Crawling > Open Report adımlarını takip etmeliyiz. GSC Raporunda Neleri Dikkate Almalıyız?Host status alanı, GoogleBot’un, web sitesini tararken bir sorunla karşılaşıp karşılaşmadığını belirtmektedir.Bot’un web sitesini tararken son 90 günde bir sorun yaşamadığını belirtir.Bot’un web sitesini tararken son 7 günden önce bir sorun yaşadığını belirtir. Bu durum çözülmüşte olabilir. İşlem gerekli olup olmadığını anlamak için rapor detayına bakmalıyız.Bot web sitesini tararken kısa bir zaman içinde önemli bir tarama sorunu ile karşılaştığını belirtmektedir. Burada yapılması gereken robots.txt dosyası, DNS çözümlemesi ve sunucu kullanılabilirlik durumlarını kontrol etmelisiniz.Durum kodlarını ve dosya türü isteklerinin dökümünü, ayrıca hangi Googlebot türünün (Masaüstü, Mobil, Reklam, Resim vb.) istekte bulunduğunu ve bunların yeni bulunan (keşif) veya daha önceki sayfalar olup olmadığını görebileceğimiz bir rapordur.Log Dosyası Analizi Nasıl Yorumlanır?Log dosyası analizine başladığımızda kullandığımız araçların filtreleme özelliklerinin yanı sıra ayrıca analiz sonucunda şu sorulara yanıt bulabiliriz.Sitemin ne kadarı arama motorları tarafından gerçekten taranıyor?Sitemin hangi bölümleri taranıyor/taranmıyor?Sitem ne kadar derinde taranıyor?Sitemin belirli bölümleri ne sıklıkla taranıyor?Düzenli olarak güncellenen sayfalar ne sıklıkla taranıyor?Yeni sayfalar arama motorları tarafından ne kadar sürede keşfediliyor ve taranıyor?Site yapısı/mimari değişikliği arama motoru taramasını nasıl etkiledi ?Web sitem ne kadar hızlı taranıyor ve kaynaklar ne kadar hızlı indiriliyor?Log Analizi İçin 7 Farklı Senaryo ÖrnekleriArama motorlarının sitemizde nasıl davrandığını ve SEO performansını iyileştirmek için neler yapabiliriz.Tarama davranışını anlayınWeb sitesinde aslında hangi sayfa daha önemliTarama bütçesini optimize edinTarama hatası olan bölümleri keşfedinGoogle'ın taramadığı dizine eklenebilir sayfaları keşfedinYetim sayfaları keşfedinSite taşımasında log dosyasının yardımı1. Tarama Davranışını AnlayınLog analizi için en iyi başlangıç noktası kesinlikle, Google sitemizi tararken hangi HTTP durum kodu ile karşılaştığı, hangi botun sitemizi daha çok ziyaret ettiği ve hangi dosya türlerini taradığını bilmemiz gerekir.Semrush Log Analyzer verilerine göre aşağıdaki görselde şu şekilde yorumlarız.2XX durum koduna sahip URL ve dosyalar, olması gereken ve istenen davranışlardır. HTML, CSS ve JS dosyaları 200 durum yanıt koduna sahip olmalı, çünkü botun sayfayı oluşturması gerekmektedir.4XX durum koduna sahip URL’ler, daha önceden de sahip olduğumuz fakat web sitesinden silinen URL’ler olabilir. Google bazen 404 veren sayfaları tekrar taramak ister. Bu URL’lere bağlantı vermediğimiz sürece bir problem olmayacaktır.3XX durum koduna sahip URL’ler web sitesinde, URL'leri yeniden yönlendirmek için güncel bazı bağlantılar içeriyor veya geçmişte yer alan bağlantılardır. Farklı bir durum ise başkalarının verdiği yanlış dış bağlantılar.Google bir web sitesinde yer alan 3XX ve 4XX bağlantıları çok sık taramaktadır. Google tarafından tavsiye edilen özellikle site taşımalarından sonra bir yıl boyunca 3XX yönlendirmelerin kalmasıdır. Bot aslında burada bize bir şans veriyor, 3XX ve 4XX bağlantıları önemseyip önemsemediğimizi kontrol ederken, ayrıca sayfa eskiden iyi bir hite sahipse ve yeniden aktif olduysa taramaya devam edecektir.2. Web Sitesinde Hangi Sayfanın Daha Önemli Olduğunu BelirleyinGoogle için ana sayfa oldukça önemli ve değerlidir. Ana sayfanın SEO stratejisine göre doğru kurgulanmış olması bizim için önemli sayfaların taranması sağlar. Peki bu durum Google içinde aynı şekilde geçerli mi?Google burada bir siteyi ne kadar sıklıkla tarayacağı konusunda karar verirken o siteye verilen en çok bağlantıları dikkate almaktadır. Eklenti’nin oluşturmuş olduğu bağlantı yapısından dolayı bir site en sık tarayacağı sayfalardan biri de ingilizce sürümü olmuştur. Yine aynı şekilde Ana sayfayı her 2 saatte bir kontrol etmektedir. 3. Tarama Bütçesini Optimize EdinGoogle tarafından yapılan resmi açıklamalarda da belirtildiği gibi tarama bütçesi optimizasyonu milyonlarca sayfası olan büyük siteler için kritik derecede önemlidir. Orta ve küçük web siteleri için çok fazla önemli olmasa da, tarama bütçesi optimizasyonu sayesinde dahili bağlantı yapınızı ve tarama verimsizliklerinden kurtulursunuz.Arama motoru botlarının, bir web sitesinin tarama bütçesini alakasız URL'lere harcayıp harcamadığını nasıl öğreniriz?Parametreye sahip URL’lere botlar tarafında çok fazla taranma isteği bulunuyorsa, arama motoru botlarının bu URL’lere sayfa genelinde nereden ulaştığını bulup, bağlantıyı kaldırınız. /en/urun-etiketi/kutu-ici-adet-24/page/19/?orderby=dateGoogle eğer ki, web sitesinde yer alan diğer dosya türlerini (özel yazı tipi) çok sık tarıyorsa, o zaman yapmanız gereken HTTP Cache-Control özelliğinin süresini kontrol etmeniz gerekir.Çok sayıda 301, 304, 307 veya 308 HTTP durum koduna sahip URL yer alıyorsa, bu URL’lerin bulunduğu sayfada, nihai URL ile değiştirilmesi gerekir.Robots.txt’de yer alan yönergeye arama motoru botları uyuyor mu? Eğer ki sizin taramasını istemediğiniz URL’i botlar tarıyorsa robots.txt’de bir yazım yanlışı yapmışsınızdır.4. Tarama Hatası Olan Bölümleri KeşfedinGoogle bir web sitesinde çok sayıda 4XX ve 5XX HTTP durum kodu ile karşılaştığında bu durumu tarama hatası olarak değerlendirir ve kötü deneyim yaşar. Bu durum tarama bütçesini boşa harcamakla kalmaz, bazı zamanlarda Google taramayı yarıda kesebilir. Benzer şekilde web sitesinde yer alan 4XX ve 5XX durum kodları kullanıcılara da kötü bir deneyim yaşatmaktadır.Web sitesinde yer alan 2XX durum koduna sahip olan URL’ler ile 4XX ve 5XX durum koduna sahip olan URL’leri karşılaştırmalıyız. Hataya sebebiyet veren sayfaların, URL path’leri sayesinde hangi bölümlerde hata olduğunu görebiliriz.5. Google’ın Taradığı Fakat Dizine Eklenemediği Sayfaları KeşfedinWeb sitesinde yer alan ve Google tarafından dizine eklenebilecek sayfalar, GoogleBot tarafından sık sık taranmaktadır. Peki dizine eklenebilir durumda olan ama seyrek taranan sayfaları nasıl bulabiliriz.Bu tür seyrek taranan sayfaları bulmak için log analizinde yer alan “Crawl Frequency” alanından faydalanmaktayız. Eğer bu alanda “XX Weeks Ago” gibi bir tarama sıklığı yazıyorsa seyrek taranan sayfalar olarak adlandırılır.Önem verdiğimiz dizine eklenebilir sayfaların tarama sıklığını artırmak:Seyrek taranan URL’ler site haritasında yer almıyorsa, site haritasına ekleyin.İlgili URL’lere sık taranan sayfalardan dahili bağlantı verin.İçeriğinizi güncel tutun ve kaliteli içerikler ekleyin.Mümkünse başka sitelerden ilgili sayfalara backlink alın.6. Yetim Sayfaları KeşfedinYetim sayfalar, yani orphan page, web sitemizde yer alan ama diğer sayfalardan bağlantı almayan sayfalar olarak tanımlayabilir. Log analizi ile yetim sayfaları bulmak için şu adımları uygulayabiliriz:200 durum koduna sahip olan sayfaları filtrelemekDosya türü olarak “HTML” seçmeliyiz. (Sayfa olmayan ve parametreye sahip olan URL’lerden de ayırmak için)İçeriği bulunan sayfalar ve dahili bağlantıya sahip olan sayfalar Google tarafından daha sık taranacağından, tarama sıklığı bize yardımcı olacaktır.7. Site Taşımasında Log Dosyasının YardımıWeb sitesi taşımaları bildiğimiz üzere SEO açısından oldukça riskli ve dikkat edilmesi gereken bir süreçtir. Web siteleri taşıma sırasında log dosyalarından şu şekilde faydalanabiliriz.Taşıma sırasında web sitemizin arama motoru botları tarafından en sık taranan ve önemli sayfaları nasıl bir yönlendirme yapmamızı ve yeni sitede URL yapısını nasıl korumamız gerektiği konusunda bilgi verir.Taşıma sonrasında yaşanacak muhtemel trafik kaybından dolayı, Google’ın sitemizde hangi sayfaları taradığını hangi sayfalarımızı tarayamadığını, keşfedemediği konusunda bilgi sahibi oluruz.Log Analizi Dosyası ve SEO OptimizasyonuLog analizi dosyasını kullanarak web sitemizde gözümüzden kaçan kritik SEO hatalarının önüne geçebiliriz. Bu sayede yeni stratejiler oluşturmamıza katkı sağlar.200 OK HTTP durum koduna sahip olmayan sayfalar site haritasından kaldırılmalıdır.Arama motorları için yararlı içeriğe sahip olmayan sayfaların taranması engellenmelidir.Önemli sayfalarımız arasında noindex işaretli sayfa olup olmadığı konusunda bilgi verirBelirli sayfaların önemini vurgulamak için canonical etiketler ekleyin.Sık taranmayan sayfalara, diğer sayfalardan dahili bağlantı ekleyin.Dahili bağlantıların her zaman 200 durum koduna sahip ve dizine eklenebilir sayfalara bağlantı verdiğinden emin olun.Tarama bütçesi boşa harcayan şeylerden kurtarır ve site yapısını optimize etmemizi sağlar.Site kategorilerine yönelik tarama sıklığını inceleyin ve bunların düzenli olarak tarandıklarından emin olun.SonuçSEO için log dosyası analizi yapmanız web siteniz için farklı stratejiler ile başarıya ulaşmanızı sağlayacaktır. SEO performansı açısından log dosyası analizi  konusunda yayınladığımız blog içeriğimizi faydalı bulduysanız, diğer insanlarında erişebilmesi için sosyal medya hesaplarınızda paylaşarak bizlere destek olabilirsiniz.

Kurumsal SEO Danışmanlığı İle Web Sitenizi Öne Çıkarın
Eyl 4, 2022 1947 reads

Kurumsal SEO Danışmanlığı İle Web Sitenizi Öne Çıkarın

Google ve diğer arama motorlarında markanıza ait web sitesinin belli başlı anahtar kelimelerde üst sıralarda yer almasını görmek, her marka sahibin öncelikli istekleri arasındadır. Google gibi arama motorlarında arama yaptığınız zaman ilk sayfada yer alan web sitelerinin nasıl orada olduklarını biliyor musunuz? Web sitesi için doğru kurgulanmış strateji ve analizler ile SEO çalışması yapanlar ilk sayfada yerlerini almaktadır. Kurumsal SEO danışmanlığı hizmeti hakkında detaylı bilgi aktarmadan önce "SEO nedir?" ve "Neden önemlidir?" konularına değinelim.SEO Nedir? Neden Önemlidir?Türkçe karşılığı arama motoru optimizasyonu olan SEO (Search Engine Optimization), web siteleri için oldukça değerli ve gerekli bir dijital pazarlama çalışmaları bütünüdür.SEO, web sitelerinin arama motoru sonuç sayfalarında (SERP) daha fazla organik trafik, dönüşüm ve marka bilinirliği sağlamak adına yapılan bir takım stratejiler ve optimizasyon çalışmalarının bütünüdür.Web sitenizin daha fazla anahtar kelimede görünmesini ve daha fazla ziyaretçi çekmesini istiyorsanız, profesyonel SEO hizmeti veren firmalar ya da kişiler ile çalışmalısınız. Her SEO uzmanı, marka bilinirliğini artırmak için size özel stratejiler planlamaktadır. Arama motorları, özellikle Google, her zaman kendini güncellemekte ve algoritmasında değişiklikler yapmaktadır. Bundan dolayı internetteki online varlığınızı ve görünürlüğünü artırmak istiyorsanız SEO çalışmasına önem vermelisiniz.Kurumsal SEO Nedir?Kurumsal SEO, süregelen arama motoru optimizasyon çalışmalarına nazaran, daha rekabetçi ve stratejik bir yaklaşım benimsemektir. Kurumsal firmaların internette yer alan rakipleri, yüksek aranma hacmine sahip anahtar kelimelerde daha fazla görünürlük ve organik trafik elde etmektedir. Kurumsal SEO stratejileri belirlenirken, uzun kuyruklu anahtar kelimeler yerine daha kısa anahtar kelimelere yönelik planlar yapılmaktadır. Organik trafik açısında büyük hacimli bir siteye sahipseniz, kurumsal SEO danışmanlığı yüksek aranma hacmine sahip rekabetçi anahtar kelimelerde mevcut sıralamanızı iyileştirmeye ve markanızın amaçladığı uzun vadede ki hedeflerine ulaşması konusunda yardımcı olacak stratejiler oluşturur.Kurumsal SEO Danışmanlığı Nedir?Kurumsal SEO danışmanlığı, rekabetçi web siteleri için yüksek arama hacmine sahip anahtar kelimelerde trafik ve dönüşümleri artırmayı hedeflerken marka bilinirliğini de arttırmayı sağlayan bir takım SEO stratejilerinin oluşturulduğu hizmet türüdür.Çeşitli sektörlerde yer alan büyük kurumsal firmalar, online varlıklarını iyileştirmek için kurumsal SEO danışmanlık hizmeti almaktadır. AnalyticaHouse ile çalışan her firmaya özel SEO stratejisi ile gözle görülür çalışmalar yapılmaktadır.Kurumsal SEO Danışmanlık Hizmeti Neleri Kapsar?Web sitesinin organik trafiğini ve ziyaretçi sayısını artırmaya yönelik en iyi SEO danışmanlık hizmeti için markanıza özel çalışmalar boyunca strateji ve teknik süreç hizmeti verilmektedir. Kurumsal SEO danışmanlık hizmeti şu sorumlulukları kapsar:Anahtar Kelime AraştırmasıRakip analiziTeknik SEO Analizi ve RaporlamaSEO Dostu İçerik AnaliziWeb Sitesi Taşıma Süreci DanışmanlığıBacklink Süreç YönetimiBütünsel pazarlama teknikleri ile çok boyutlu dijital danışmanlık hizmeti veren AnalyticaHouse, SEO çalışmalarını destekleyecek Performans Pazarlama, Web Analitiği&Veri Bilimi, Medya Planlama&Satın Alma, İhracat&Uluslararası Büyüme Danışmanlığı, Yazılım Çözümleri, Pazarlama İletişimi&Sosyal Medya Danışmanlığı ve E-Ticaret Danışmanlığı gibi farklı dijital pazarlama danışmanlık hizmetleri sunmaktadır.İstanbul’da kurumsal SEO danışmanlığı hizmeti sunan profesyonel firmalar arasında yer alan AnalyticaHouse, uzman ekibi ve güçlü referansları ile markanıza özel hizmet sunmaktadır.SEO Danışmanı Kimdir ve Ne İş Yapar?Markanıza ait web sitenizin daha fazla anahtar kelimede listelenmesini sağlayacak ve daha fazla trafik çekmesini ve dönüşüm sağlanmasına yönelik stratejilerin belirlenmesine sağlayan kişileri SEO danışmanı olarak adlandırabiliriz.SEO danışmanı, sorumlu olduğu web sitesinin SEO stratejisini planlama, uygulanmasından ve yönetmekten sorumlu olan kişidir. Danışmanlık kapsamında, web sitesi pazarlaması, web site analitiği, içerik stratejilerin oluşturulması, harici bağlantı oluşturma ve anahtar kelime stratejisi gibi daha pek çok çeşitli görevleri kapsamaktadır.SEO danışmanlarının teknik açıdan HTML, CSS ve JS bilgisine sahip olması beklenmekte, ayrıca web sitesi için stratejileri belirlerken SEO açısından analitik düşünme yeteneğine sahiptir. SEO için süreci yönetiminde web geliştiricileri ve pazarlama ekibi ile sürekli temas halinde olmanın yanı sıra düzenli olarak SEO raporları hazırlar ve sizlere sunar.Profesyonel SEO Hizmeti Ne Zaman Fayda Sağlar?Profesyonel SEO hizmeti aldığınızda web sitenizde doğrudan etkisi hedeflediğiniz anahtar kelimenin rekabet düzeyine göre farklılık gösterebilmektedir.Anahtar kelimenin arama hacmine ve rekabet düzeyine göre almış olduğunuz profesyonel SEO hizmeti faydası ve etkisi, bazen 3-4 ay bazen 6-9 ay bazende 12 aydan daha fazla sürmektedir. Bu noktada iyi kurgulanmış bir SEO stratejisi önce uzun kuyruklu anahtar kelimeleri (3 ve daha fazla kelime) hedeflemeli ve daha sonrasında kısa anahtar kelimeleri (1 veya 2 kelimeden oluşan) hedeflemelidir.Bu sebepten dolayı öncelikle web sitenizi profesyonel SEO danışmanlık hizmeti sunan bir firmaya emanet etmelisiniz. Bu cümleden çıkarılacak şey tabi ki teslim ettikten sonra tüm kontrol onlarda demek olmuyor. Yapmanız gereken şey, düzenli olarak web sitenizi takip etmeniz ve raporla istemenizdir. Profesyonel SEO Danışmanlık Hizmeti Almanın Faydaları Nelerdir?AnalyticaHouse gibi deneyimli bir markanın kurumsal SEO danışmanlığı, web sitenizin rekabetçi ve daha fazla dönüşüm imkanı sunan anahtar kelimelerde, arama motoru sonuç sayfalarında üst sıralarda yerinizi alabilirsiniz. Profesyonel SEO danışmanlığı ile internet sitenizin, online varlığını en üst seviyelere çıkarmaya yardımcı oluyoruz. Markanıza özel ve veriye dayalı bir strateji ile web sitenizi ilgili arama sonuçlarında görünürlüğünü artırabilir, organik trafik ve dönüşümlerini artırabilir.Markanız için profesyonel SEO danışmanlık hizmeti almanın faydaları:Rekabetçi ve yüksek aranma hacmine sahip anahtar kelimelerde ilk sayfalarda yer almanızı sağlayacak özel stratejiler.Markanıza özel stratejiler ve danışmanlık sunan uzman SEO ekibi,Aylık düzenli şeffaf raporlama ve toplantılar,Google ve diğer arama motorları tarafından sürekli güncellenen, arama algoritmaları değişikliklerine anında uyum sağlamaWeb siteniz için sürekli güncel anahtar kelime araştırması ve optimizasyonuWeb sitesi denetimi ve dönüşüm analizi raporlarıWeb sitesi için içerik yazarlığıWeb sitesi denetim güncellemeleri veya düzeltmeleri için detaylı raporDoğal olarak başka sitelerden backlink kazanma şansıSonuçKurumsal SEO danışmanlık hizmeti ararken, sadece referanslar yada reklamlarına değil, aynı zamanda  Google Partner sertifikasına sahip olan bir ajans seçmeniz çok önemlidir. Bu sertifika, Google tarafından ajansın uzmanlığını ve performansına göre verilmektedir.Google İş Ortağı veya Google Premier İş Ortağı sertifikası doğrudan SEO uzmanlık sertifikası olmasada, dolaylı yoldan SEO konusundaki uzmanlıklarını vurgular ve dijital alanda ki reklamcılıkta başarılarının diğer hizmetler ile bir bütün olarak ele alınması gerektiğini vurgular.Deneyimli bir Google Premier Ortağı olan AnalyticaHouse, İstanbul'da SEO danışmanlığı hizmeti veren firmalar arasında yerini her zaman korumaktadır.Markanıza ait web sitesi için rekabetçi ve arama hacmi yüksek anahtar kelimelerde mevcut sıralamaları iyileştirmeyi, yeni sıralamalar elde etmeyi, markanıza özel uzun vadede hedeflerine ulaşmasını sağlayacak çeşitli stratejiler oluşturulur.AnalyticaHouse, sizleri SEO’nun karmaşıklığını ve anlaşılması zor yapısında kurtarıyor ve markanızın hedeflediği dönüşümleri, marka bilinirliğini, organik trafiğini artıracak kurumsal SEO danışmanlığı hizmeti sunuyor.