Home | Blog

Le sorgenti dei dati

Un SEO audit completo e tecnico deve considerare molte informazioni ed è fondamentale acquisirle da fonti attendibili. Durante le fasi dei nostri SEO audit utilizziamo:

  • Google Search Console;
  • Google Analytics;
  • SEMRush;
  • Majestic;
  • Ahrefs;
  • Screaming Frog;
  • Operatori di ricerca di Google.

Il processo del SEO audit

Keyword analysis e competitor

Il primo step da compiere è comprendere il campo di gioco del cliente e il livello di competizione con gli altri player del settore; quindi procediamo con l’individuazione dei competitor (solitamente tra gli 8 e i 10 competitor) e avviamo un’analisi sul ranking e sulle keyword, per poter individuare quali sono le keyword sulle quali sono presenti gli avversari e non è presente il cliente. Questa analisi è di fondamentale importanza in quanto ci permette di capire la possibilità che il nostro cliente ha di competere per le prime posizioni sui motori di ricerca oppure se il sito web è troppo debole e sotto-dimensionato per competere nel settore con i player più autorevoli.
La keyword research è una componente critica della SEO in quanto ci permette di rispondere a domande del tipo: quali ricerche compiono gli utenti per ricercare un prodotto o un servizio simile a quello del cliente? E ci permette di individuare possibilità di miglioramento dell’architettura informativa.
Dall’analisi delle keyword è possibile anche riprogettare l’AI del sito web, comprendere se ci sono problemi di cannibalizzazione e se le keyword sono in target con l’architettura informativa. Avere keyword fuori target è uno dei segnali da considerare se la frequenza di rimbalzo è elevata.
Effettueremo una Keyword Mapping, dopo aver ottimizzato l’architettura informativa, per avere una mappatura delle keyword più rilevanti e orientate al business, tale mappatura ci permette di pianificare nuovi contenuti/sezioni che il sito web non copre ma che portano traffico in target e ci permettono di capire, in generale, come guidare l’utente durante la navigazione.

Keyword Cannibalization: Check

Un controllo approfondito e di vitale importanza è sulla presenza di cannibalizzazione delle keyword, tale situazione dovrà essere risolta prima di procedere con qualunque attività e investimento di budget. Tale situazione solitamente si verifica quando una pagina è posizionata per differenti keyword (semplificando il concetto). Le cause possono essere le seguenti:

  • Errata gestione degli anchor text
    • In quanto sono state utilizzate anchor non semanticamente connesse con la pagina di destinazione.
  • Link esterni
    • Link che dal sito web del cliente puntano esternamente verso risorse non pertinenti
  • Qualità dei contenuti
    • L’elevata qualità di un contenuto permette ai motori di ricerca di comprendere al meglio l’argomento e ridurre al minimo il “margine di incomprensione”

File fondamentali del sito web

Durante la seconda fase di SEO audit analizziamo la struttura tecnica del sito cercando di individuare gli errori e le imprecisioni relativamente a: sitemap.xml, file robots.txt, problemi legati all’indicizzazione o errori che impediscono il crawler dei contenuti.

Analisi struttura e ottimizzazione

Passiamo alla fase di controllo sui codici HTML. Un codice ottimizzato lato SEO è di fondamentale importanza per il crawling del sito web e la successiva indicizzazione. Oltre all’ottimizzazione del codice ricopre un ruolo importante l’ottimizzazione delle immagini e la qualità, quindi andremo a curare i TAG specifici e ci occuperemo della selezione delle immagini di qualità, infatti anche se Google non riesce ancora a riconoscere con un elevato grado di precisione i soggetti coinvolti è buona pratica avere immagini di qualità.

Linking interno

La struttura di link interni ha un’importanza elevata al pari dei backlink, è un indicatore di importanza dei contenuti agli occhi dei motori di ricerca. Controlliamo che non ci sia uno squilibrio nel numero di link verso le pagine e che gli anchor text siano impostati in ottica SEO. Per far ciò utilizzeremo:

  • Screaming Frog
    • Per avere una lista di tutte le URL del sito web, per ogni pagina sappiamo la provenienza dei link.
  • Google Search Console.

Dopo aver acquisto i dati procediamo ad un’analisi con Excel e ad una successiva rappresentazione grafica con strumenti dedicati.

Mobile-friendliness

Il sito web dovrà essere ottimizzato per i dispositivi mobile sia perché la percentuale di utenti che accedono al web da mobile sta raggiungendo il 50% del totale sia a seguito del “mobile first indexing” il quale darà maggiore importanza in fase di indicizzazione ai contenuti visibili su Mobile. Spesso i webmaster/programmatori utilizzano tecniche per rendere visibile un contenuto in versione Desktop ma non in versione Mobile (ad esempio in Bootstrap utilizzando la classe Visible o Hyde).

Operatori di Google e cache

In fase di pre-analsi tramite l’operatore “Site:” di Google viene controllato il numero delle pagine indicizzate rispetto al totale delle pagine presenti sul sito web, tale dato viene incrociato con le informazioni estratte da Google Search Console e Bing Webmaster Tool. Viene controllata la versione cache di Google per accertarsi che le pagine in cache siano le stesse della versione live.

Minimizzare la profondità di navigazione

La profondità di navigazione (Link Depth) indica “a quanti click di distanza” sono collocati i contenuti rispetto alla home page. Per i motori di ricerca e per gli utenti, il Link Depth è un indicatore di importanza dei contenuti stessi, infatti un contenuto presente ad un solo click di distanza dalla home viene interpretato come un contenuto molto importante.
Da tenere in considerazione che la profondità di crwaling da parte dei motori di ricerca, in parte, è dovuta all’autorità del sito web stesso o meglio all’autorevolezza del proprio link profile. Il consiglio è di mantere l’architettura del sito web il più “piatta” possibile senza compromettere l’esperienza utente.

Breadcrumb di navigazione

Il breadcrumb, solitamente collocato immediatamente sotto il menu principale, permette agli utenti di capire in quale sezione del sito web si trovano e aiutano i motori di ricerca durante l’ispezione (crawler) dei contenuti. Una buona pratica è di utilizzare (nei link del breadcrumb) come anchor text, keyword forti e in ottica SEO.

Content optimization

A seguito degli ultimi aggiornamenti degli algoritmi di Google, sempre più rivolti alla qualità dei contenuti, alla frequenza di pubblicazione e all’originalità degli stessi, per noi il piano editoriale (o l’ottimizzazione di testi già online) ricopre un ruolo fondamentale.

Controlli contenuti duplicati

Controlliamo la corretta impostazione della versione “www” o “non-www” del sito web tramite Google Search Console e gli eventuali redirect 301 e tag canonical alla versione ufficiale. Altro check importante da compiere è sulla assenza di duplicati tra pagine HTTPS e pagine HTTP. Questi due controlli evitano errori di indicizzazione e problematiche di crawling.

Usabilità del sito web

Durante il controllo sull’usabilità del sito web ci concentriamo sulla fruibilità di navigazione e i tempi di caricamento delle pagine. Il tempo di caricamento delle pagine, anche se non ci sono fonti attendibili che lo classificano tra i fattori di ranking, per noi ricopre un ruolo importante in quanto rende la navigazione dell’utente più agevole.

Backlink

Effettuiamo un’analisi del link profile del cliente per studiarne la qualità e le strategie che sono state utilizzate, ad esempio nella gestione dei pattern per anchor text.

Penalizzazioni

Verranno effettuati controlli sui rischi di penalizzazioni da parte di Google, algoritmiche o manuali tramite Search Console.
I controlli vertono sulla qualità dei contenuti, sull’originalità dei testi e sulla possibilità di avere articoli che non si differenziano dagli altri poiché per Google non è importante immettere nel web un’informazione che è stata già affrontata altre volte senza nulla di nuovo.
Altri controlli verranno effettuati sul link profile per evidenziare backlink presi da directory o PBN e sull’utilizzo eccessivo di anchor text SEO.


Stai cercando un'agenzia per approfondire gli argomenti di questo articolo?
Clicca qui per andare alla nostra pagina contatti.

Roberto Paolucci

SEO Specialist

Anno 1990. Mi sono laureato in Economia Aziendale presso l’Università degli Studi della Tuscia. Prima SEO e sviluppatore freelancer, poi presso la concessionaria d’auto “Centro Auto VT”, le mie esperienze lavorative hanno spaziato in differenti settori. Il mio interesse nel Digital Marketing inizia grazie ad alcuni corsi professionali come PHP e Database relazioni MySQL, programmazione Wordpress e partecipando a numerosi convegni e workshop di settore. In ByTek sono SEO Specialist e utilizzo ogni giorno strumenti di Web Analytics. Running e mountainbike nel tempo libero.

Parlaci del tuo Progetto

Condividi con noi i tuoi obiettivi di business e scopri come possiamo aiutarti

 

Siamo parte del gruppo

Insieme a

Tech company che raccoglie, analizza e traduce dati relativi a clienti/utenti in insight, identificazione anomalie, predizioni e opportunità di business, utili a migliorare decisioni, azioni e risultati operativi.

3rdplace.com

Fintech company che raccoglie, interpreta e pesa Alternative Data per scopi di monitoraggio e li combina con dati tradizionali per finalità d'investimento.

finscience.com

Tech company specializzata nella trasformazione digitale del Publishing, nella distribuzione e monetizzazione dei contenuti via mobile e smart speaker anche per Brand.

paperlit.com