Technical SEO

Anomaly Detection su dati di ricerca e file di Log: identificare i problemi SEO tramite l'AI prima che sia tardi

L’Anomaly Detection, nel campo dell’analisi dei Big Data, consiste nel rilevamento delle anomalie, identificando gli oggetti che si distanziano in modo significativo rispetto alla maggior parte dei dati. Questi oggetti vengono chiamati Outlier (che è anche un altro modo di chiamare la tecnica, appunto - outlier detection) e sono i punti più distanti dalla media, in positivo o in negativo.

Ma cosa c’entra l’anomaly detection con la SEO e per quali analisi può tornare utile?

Nei prossimi paragrafi cercheremo di dare una panoramica generale rispetto a quali analisi SEO possono essere condotte attraverso la tecnica dell’anomaly detection.

Il Traffico

La prima analisi SEO in cui l’anomaly detection può fornire informazioni molto utili è quella del traffico organico e può essere condotta sia sui dati di Google Analytics, prendendo in considerazione sessioni organiche e le altre metriche qualitative (pagine per sessione, durata media, ecc.), che su quelli di Search Console, prendendo in considerazione principalmente i click (l’analisi può essere poi ulteriormente arricchita lato qualitativo includendo anche i dati e le variazioni di posizionamenti e CTR e mettendoli in relazione tra loro, come vedremo successivamente). Una pagina fa più traffico del periodo precedente, ha incrementato notevolmente le performance, sia quantitative che qualitative. Oppure sta perdendo visite rispetto a prima. Quali sono le pagine che aumentano il traffico rispetto al periodo precedente e quali diminuiscono.

La base di un’analisi di anomaly detection rispetto al traffico è la raccolta e l’integrità dei dati, che dovranno essere definiti a priori e lanciati a intervalli regolari, per determinare le medesime condizioni di partenza. I risultati dell’anomaly detection dovranno poi essere analizzati più approfonditamente per scoprire quali sono le cause dei picchi e dei cali e prendere le contromisure necessarie, per mantenere alto il traffico o farlo risalire ai livelli precedenti.

I Posizionamenti

Un’altra analisi, correlata alla prima, è quella dei posizionamenti. In questo caso l’anomaly detection può essere applicata sia a intervalli regolari, ad esempio settimanali, sia in periodi specifici, ad esempio dopo un core update o un aggiornamento del sito. In questo caso la fonte dati può essere Search Console e l’anomaly detection può essere applicata sia ai click, che ai posizionamenti, o anche alle impression e al CTR. L’analisi isolerà le parole chiave che hanno risultati migliori in termini di performance e quelle peggiori e può essere un ottimo punto di partenza per approfondirne le cause. Ad esempio, un calo di CTR può essere avvenuto perché è comparso un annuncio sponsorizzato in una SERP in cui prima c’erano solo risultati organici, oppure il nostro risultato è stato eletto a risultato zero (featured snippet) e genera meno click rispetto al periodo precedente.

Ma attenzione, il traffico e i posizionamenti su Google non sono tutti uguali. Prendiamo ad esempio un sito di news che fa molto traffico su trend del momento, anche attraverso Google News. L’anomaly detection su questo genere di portali può generare moltissimi outlier per la natura del traffico e delle notizie che ne veicolano le visite. Può capitare che un contenuto faccia tantissimo traffico in una settimana e pochissimo nella settimana successiva ma questo può non dipendere da problematiche tecniche, molto più semplicemente l’argomento non è più in trend o non genera più interesse da parte degli Utenti.

Ogni quanto e dove passa lo Spider di Google

Un altro ambito, molto importante ma spesso sottovalutato, in cui l’anomaly detection può essere molto utile a velocizzare la fase iniziale è l’analisi dei Log, attraverso la quale guardare e approfondire cosa fanno i bot dei Motori di ricerca sulle pagine del nostro sito. Quali sono quelle che visita più spesso e quali (pagine o sezioni) sono meno scaricate dagli Spider. Successivamente, sarà più facile andare a indagare sui perché, l’analisi delle anomalie ci ha già estratto le sezioni (e le pagine) da analizzare. Si tratta di metterci la testa e scoprire cosa genera la problematica (o la popolarità) degli outlier rilevati.

Per concludere possiamo dire, come per la quasi totalità delle analisi automatizzate e che prendono in considerazione i Big Data che le piattaforme ci mettono oggi a disposizione, che l’automatismo facilita l’elaborazione dei dati ma non delle risposte. Per quelle serve la testa e la professionalità dei SEO, in grado di interpretare i risultati delle analisi e le cause, prendendo decisioni risolutive su dove intervenire e come prioritizzare le azioni.

Condividi questa pagina


Anomaly Detection su dati di ricerca e file di Log: identificare i problemi SEO tramite l'AI prima che sia tardi

emiliano sammassimo | 18 January 2022

News

Potrebbe interessarti anche

Innova insieme a noi

Condividi con noi i tuoi obiettivi e scopri come possiamo crescere insieme

© 2022 ByTek SRL - P. IVA: 13056731006 - REA: MI - 2562796 - Privacy Policy - Cookie Policy