Analisi SEO completa.

blog single

seo udine

La seconda parte della nostra analisi SEO si compone dell’analisi dei risultati dei motori di ricerca.

Per ogni parola chiave esaminata vengono ricercati i risultati dei posizionamenti su Google, ad una profondità che varia tra le 20 e le 100 posizioni; se abbiamo 40 keyword da prendere in considerazione per una profondità di 70 risultati avremo 2800 siti indicati nella SERP, ciascuno dei quali viene tracciato tenendo conto della posizione raggiunta per ogni parola chiave. Naturalmente si può incorrere in doppioni che, in genere, non superano il 10-20% del totale, quindi tenendo conto dell’esempio precedente potremmo avere circa 2500 risultati univoci.

Per ognuno di essi vengono analizzati una quarantina di parametri relativi ai contenuti delle pagine, ai link verso altri siti, vengono ricercate azioni social che conducano a quegli URL, viene costruito un corpus documentale per analisi lessicali; tutto ciò costituisce il database di partenza sul quale eseguire le analisi. La costruzione di questa base di dati richiede in input il nome del sito in promozione e la lista di keyword; da subito, o dopo una prima analisi, possono essere inseriti i nomi dei domini concorrenti sui quali eseguire analisi più strette. L’operazione richiede tempo; per ottenere risultati di una certa validità nella SERP è necessario per quanto possibile anonimizzare le ricerche ed eseguirle in più modalità per avere risultati significativi; per 50 keyword quindi si va da meno di un’ora ad un’ora e mezza circa.

Corpus di documenti: le analisi lessicali
Le analisi lessicali servono ad avere una immagine globale delle keyword utilizzate e degli argomenti trattati.
Per poterle effettuare è necessario creare quello che viene definito corpus di documenti, ovvero l’insieme dei contenuti di tutte le URL indicizzate: 2500 nell’esempio citato.
Il corpus stesso richiede poi un certo livello di filtraggi per estrarre il solo contenuto testuale, eliminare parti del discorso non utili come articoli e preposizioni, eliminare parti non significative e comuni a tutti i siti (‘home’, ‘login’, ecc.): a questo punto si ottiene la cosiddetta bag of words, un database organizzato di parole indicizzato sui documenti che le contengono. Questo sarà la base di partenza per le analisi lessicali, che vengono condotte secondo due direzioni: analisi delle keyword e analisi degli argomenti.

Analisi delle keyword
Viene effettuata nel corpus dei documenti tenendo in considerazione:

  1. la frequenza assoluta con cui la keyword appare;
  2. la co-occorrenza in più siti, ovvero qual è la keyword che più spesso si propone in siti diversi:
  3. l’analisi peso TF/IDF (term frequency / inverse document frequency), che “non misura quante volte la parola appare, ma dà una misura dell’importanza di quella parola rispetto alle aspettative desunte da una mole di documenti”;
  4. l’analisi del chi-square, in questo caso vengono analizzati i documenti del corpus ed estratte le keyword secondo “Keyword extraction from a single document using word co-occurrence statistical information” di Y.Matsuo and M. Ishizuka;
  5. l’analisi keygraph, con questo metodo vengono analizzati i documenti ed estratte le keyword rilevanti utilizzando l’approccio descritto in “KeyGraph: Automatic Indexing by Co-occurrence Graph based on Building Connstruction Metaphor” di Yukio Ohsawa, descritto come semplice, funzionale ed indipendente da specifici domini di conoscenza;
  6. l’analisi degli n-grams, ovvero delle parole che più spesso ricorrono insieme a gruppi di 2-3-4 parole.

Queste analisi servono a darci l’idea dello spettro di distribuzione delle keyword utilizzate dai siti concorrenti, evidenziando quelle più originali; alcuni di questi parametri (TF/IDF in testa) in passato hanno fatto parte dell’algoritmo di Google e potrebbero ancora oggi essere utilizzate. E’ bene ricordare che alla base del corpus di documenti ci sono i contenuti di tutti i siti che risultano dalle interrogazioni fatte sul motore di ricerca per parole chiave che esprimono uno stesso concetto; rappresenta quindi ciò che il motore di ricerca ritiene utile per il concetto espresso dalle keyword.

Analisi degli argomenti
Questa è una delle analisi più utili per guidare la redazione di nuovi contenuti. Dapprima si definisce in quanti argomenti si vuole suddividere il contenuto del corpus di documenti, e quindi di quante parole deve essere definito ogni argomento.
Possiamo riassumere quanto questa sezione ci consente di fornire ai produttori di contenuti:

  1. un elenco di parole frequenti / ricorrenti / importanti / originali sulle quali basarsi per la redazione;
  2. uno o più argomenti da sviluppare;
  3. un elenco di siti utili dai quali prendere spunto.

Analisi social network
A questo punto possiamo indagare quanto sia importante, per le keyword in esame, agire sui social network;
Questa parte dell’analisi vuole cercare di capire quanto e come è diffuso l’utilizzo di social network nei siti concorrenti; viene distinta in due parti:

  1. la prima riguarda la presenza e frequenza di collegamenti dai siti dei concorrenti verso i social network;
  2. la seconda riguarda invece le azioni effettuate sui social network verso i link in SERP.

Link verso i social network
Viene eseguita la mappatura di ogni URL nella SERP con i network che dalle pagine vanno verso i social network;
Da questa analisi otteniamo la panoramica dei link verso i social network; non sappiamo ancora quanto vengano usati, ma solo quanto vengono linkati. La sezione successiva definisce invece quali azioni vengano effettivamente condotte.

Azioni sui social network
Dapprima evidenziamo le azioni che vengono effettuate sugli URL che meglio si posizionano mediamente nelle SERP: da questa analisi otteniamo una panoramica di ciò che i concorrenti ottengono come azioni da parte dei social network.

A questo punto non resta che correlare azioni e posizionamento, per evidenziare quali azioni eseguite sui social network siano meglio correlate con un buon posizionamento, di nuovo ponendo attenzione a:

  1. correlation is not causation, il fatto che un’azione (es.: condivisione Facebook) sia correlata con un buon posizionamento non vuol dire in tutti i casi che questo valga anche per il sito in promozione;
  2. vanno considerati attentamente i valori di correlazione, perché devono essere significativi per essere utili ad indicare di svolgere effettivamente un’azione.

È poi presente una specifica analisi su Twitter: influencers, siti linkati, numero di tweet che riguardano le keyword in esame.

Analisi dati strutturati
Riguarda l’analisi dei dati strutturati per il web semantico secondo schema.org e la ricerca della panoramica dell’uso che ne fanno i concorrenti e di una eventuale correlazione con il posizionamento. Sicuramente l’utilizzo di dati strutturati, almeno nel settore considerato, è agli albori. Ciò potrebbe essere una buona opportunità per chi cerca una strategia non ancora battuta dalla maggioranza dei concorrenti per poter emergere nelle SERP. I tipi più specifici sono quelli che sembrano essere più premianti per il posizionamento rispetto a quelli generici. Le analisi che vengono effettuate sono la presenza o meno di dati strutturati, i tipi maggiormente implementati, la correlazione tra tipo e posizionamento.
Al di là di tante parole fatte negli ambienti SEO per quanto riguarda l’individuazione di modalità per apparire nelle SERP localizzate geograficamente, questa è una preziosa indicazione che ci dice che, per ottimizzare il sito in esame, è bene utilizzare dati geografici che ne indichino la posizione del business.

Analisi di network
Fino a questo punto sono stati utilizzati i link presenti nella SERP ed i testi in essi contenuti. Viene fatta ora una analisi di rete: da tutte le pagine presenti in SERP vengono estratti tutti i link presenti e si costruisce un grafo che collega tra loro tutti gli URL univoci; su di esso possono essere eseguite analisi complesse che ci indicano l’importanza di ogni singolo nodo o collegamento secondo diversi punti di vista.

Dalla rappresentazione matematica del grafico possiamo ottenere facilmente dati importanti come, per ogni nodo o URL:

  1. IN, il numero di link in ingresso;
  2. OUT, il numero di link in uscita;
  3. HUB score: esistono pagine in rete che non sono, di per sè, autorevoli per il soggetto ricercato, ma che contengono link, magari accuratamente ricercati ‘a mano’, verso pagine molto autorevoli; queste pagine hanno nella rete un elevato ‘HUB score’;
  4. AUTH score: definisce invece le pagine autorevoli, che vengono definite come quelle pagine a cui più puntano le pagine ‘HUB’: una buona pagina HUB punta a molte pagine AUTH, e una buona pagina AUTH è linkata da molte pagine HUB.

L’analisi accurata di questi valori ci porta facilmente a trovare URL di fondamentale importanza per le nostre ricerche; in particolare le migliori risorse HUB saranno quelle più indicate per andare alla ricerca di backlink, mentre le risorse AUTH potranno indicarci quali siano le migliori modalità di redazione di contenuti per diventare una ‘autorità’ nel grafo dei risultati. Anche in questo caso si tratta di risorse importantissime per chi deve creare contenuti. Questa stessa analisi viene ripetuta a livello di dominio; da ogni URL si estrae il dominio di secondo livello e si ricostruisce il grafo collegando ogni dominio;

Schemi di link
Gli schemi di link, nonostante siano una pratica fortemente sconsigliata da Google, a volte costituiscono la base dell’indicizzazione dei siti; per questo può risultare utile indagare il grafo di rete per ritrovare zone in cui si addensano collegamenti particolarmente sospetti.

Conclusioni

Questo tipo di analisi consente di avere un quadro della situazione web relativa ad un gruppo di keyword che identificano un concetto. È un punto di partenza solido sul quale basare strategie di promozione per ottimizzare il posizionamento di un sito che voglia emergere per quelle keyword. Non è un sistema automatico; richiede attenzione, analisi, intervento umano prima di agire.
Nel mondo del SEO, nel quale spesso si agisce per misteri e sapere infuso dall’alto, qui si parla di reti, matematica, posizionamenti; tutti i dati sono ricavati a partire dai posizionamenti nelle SERP e tutti gli sforzi ad essi devono essere dedicati. Con questi dati il consulente SEO è in grado di fornire indicazioni precise per ottenere il suo vero scopo: far sì che un sito che meriti di emergere nella SERP, e per qualche modo non ci riesca, raggiunga un ottimo posizionamento in base alle sue possibilità.

Leave a comment