Analisi SEO checklist completa 2012

Questo documento vuole essere di riferimento per chiunque debba lanciare un nuovo sito internet, analizzare i propri concorrenti o ottimizzare un sito affinchè abbia dei posizionamenti significativi con una campagna SEO (Search Engine Optiomization, ovvero Ottimizzazione per i Motori di Ricerca).

Questo documento presenta anche indicazioni necessarie per ogni aspirante specialista SEO. L’idea è quella di aggiornarlo regolamente ed integrarlo con i contributi che arriveranno.

Report automatici SEO

Report SEOLa soluzione più semplice che avete nelle vostre mani è quella di utilizzare degli strumenti automatici di reportistica SEO che possano offrirvi report SEO, confermando il valore SEO del sito che avete deciso di analizzare. Ecco una lista di tool gratuiti più o meno validi.

http://www.quarkbase.com/
http://marketing.grader.com/
http://www.seoworkers.com/tools/analyzer.html
http://www.cubestat.com/
http://www.statbrain.com/
http://www.jonasjohn.de/test-tool/
http://spydermate.com/ (l’applicazioner per Android e iPhone è gratuita)

Marketing Grader di HubSpot, un valido tool per un report SEO automatico

Il proposito di questo post è però quello di imparare ad organizzare una vostra analisi SEO.

Il primo passo è quello di cercare di capire che tipo di sito dovete analizzare. Se avete accesso alle statistiche del sito, perfetto. Altrimenti poco importa: potrete sempre determinare il tipo di sito, la sua struttura e perfino il suo possibile ranking ed il traffico generato con pochi sforzi.

Verifica indicizzabilità del Sito tramite spider

Analisi SEO completa, come una partita di scacchiPotete iniziare il vostro compito indicizzando il sito che dovete analizzare. Ci sono molti strumenti disponibili. Alcuni dei più interessanti sono: Screaming Frog SEO Spider Tool (http://www.screamingfrog.co.uk/seo-spider/) e IIS SEO Toolkit (http://www.iis.net/download/seotoolkit). Uno degli strumenti che più apprezzo è Xenu Link Sleuth (http://home.snafu.de/tilman/xenulink.html). Per concludere la lista aggiungerei anche Crawl Test di Seomoz (http://pro.seomoz.org/tools/crawl-test). Seomoz offre diversi strumenti SEO, anche se dovete pagare per poterlo utilizzare regolarmente.

Dovete controllare i seguenti fattori SEOon-page” (sulle pagine):

L’architettura web. Un sito con architettura piatta è preferibile ad un sito con livelli profondi di navigazione. Potete approfondire meglio l’argomento andando a leggere questo interessante post sul blog di SEO Moz. : http://www.seomoz.org/blog/site-architecture-for-seo.

Link equity (equità dei link). Verificate che ogni pagina del sito abbia un discreto numero di link entranti e che non esistano differenze notevoli per numero di link entranti dalle pagine del sito stesso (link equity). Google non ha problemi a raggiungere il 4° livello di profondità in un sito web, ma ogni pagina del sito deve essere raggiungibile in non oltre 4 click. Se questo non è il vostro caso, considerate la possibilità di rifare la struttura del sito.

Errori di link. Verificate che non esistano link rotti. Se una pagina linkata dà come risposta un errore, si parla di link rotto (errori sono: 500,400,404 …)

Verifica indicizzazione del Sito

Verificate lo stato di indicizzazione del sito sul motore di ricerca di Google.

Dovete verificare i seguenti fattori SEO:

URL indicizzate. Realizzate questa semplice query su Google: site:namedomain.tld
Google fornirà la lista delle URL (pagine) del vostro sito che ha indicizzato. Se il numero di pagine indicizzate su Google è molto diverso dal numero di pagine che avete indicizzato utilizzando uno degli spider sopra descritti, allora potrebbe esistere un problema di “indicizzabilità” da parte dello spider di Google e dovrete capirne il perchè.

Verifica sulla Home Page. Ricercate in Google le esatte parole che avete nel title della Home Page o la prima parte del testo del title. Se il sito non è posizionato nelle prime posizioni della SERP (Search Engine Results Pages, ovvero Pagine dei Risultati del Motore di Ricerca) significa che esiste un problema SEO nel sito. La verifica in Home Page serve in quanto i motori di ricerca indicizzano i siti a partire proprio dalla Home. La Home Page sarà quindi la pagina del sito più rappresentativa in assoluto per i motori di ricerca. Se non riuscirete a posizionarvi bene con la Home Page, è decisamente improbabile che riusciate ad ottenere ottimi risultati con pagine interne.

Pagine indicizzate obsolte. Se vengono riscontrate pagine obsolete in Google, dovete redirigerle in modo permanente alle nuove pagine del sito. Potete anche rimuoverle usando Google Webmaster Tools, ma in questo caso la risorsa obsoleta dovrà fornire un errore del tipo 404 (risorsa non trovata).

Verifica del contenuto

Controllate i seguenti fattori SEO “on-page” (sulle pagine):

Contenuti Duplicati. Se avreste accesso alle statistiche web del sito questo compito sarebbe decisamente semplice, ma in caso contrario potete sempre usare Webmaster Tools di Google o Seomoz per verificare se il sito abbia o meno contenuti duplicati. Se ancora non avete accesso a questi strumenti (potrebbe essere il caso in cui viene analizzato un concorrente), dovrete verificare la cosa effettuando una serie di query su Google in merito ai servizi e/o prodotti più significativi offerti dal sito. Ci sono diversi strumenti che potete usare per rendere meno oneroso questo lavoro, controllate tali strumenti a questo post: http://slodive.com/web-development/10-top-tools-checking-duplicate-content/

Problemi di Canonizzazione. Il compito è quello di verificare se il tag rel=”canonical” è dovuto o no. La questione riguarda spesso la Home Page, dove la stessa potrebbe rispondere nei seguenti modi: domain.tld/ domain.tld/index.php domain.tld/index.html or domain.tld/index.asp. Dovreste avere una sola ed univoca Home Page. Se non potete redirigere, per esempio, index.asp allo slash della root del dominio: / allora questo è il caso in cui si rende necessaria la canonizzazione della Home Page, piazzando questo codice all’interno dei tag header, come segue:
<link rel=”canonical” href=”http://www.domain.tld/”/>

Problemi di Paginazione. Se il vostro sito ha molti prodotti o servizi è probabile che avrà qualche sorta di paginazione dei prodotti/servizi. In questi casi è anche probabile che il sito abbia pagine con contenuto duplicato o comunque poco diverstificato (magari col medesimo title di pagina). In questo caso dovreste giocare con i tag rel=”prev” and rel=”prev”. Per approfondire l’argomento potete dare un’occhiata al seguente post:http://googlewebmastercentral.blogspot.it/2011/09/pagination-with-relnext-and-relprev.html

Title di Pagina Duplicati. I title di Pagina duplicati sono deprecati da Google e dagli altri motori di ricerca. Per verificare se esistano Title di Pagina “duplicati” potete utilizzarre: Google Webmaster Tools, Seomoz oppure Xenu Link Sleuth. Anche se Xenu è stato pensato per essere usato su Windows, lo potete far funzionare facilmente su Linux tramite wine. Una volta che avete indicizzato il sito tramite Xenu, dovete solo ordinare le pagine per “title” e sarà così facile vedere se ci sono pagine con il medesimo Title di Pagina.

Verifica Extra SEO

Un altro importante fattore che non è però strettamente SEO ma ad esso collegato, è relativo all’Audience. Per valutare l’audience di un sito potete utilizzare diversi strumenti:

Google Adwords (free) https://adwords.google.com
Google Trends (free) http://www.google.com/trends/
Alexa (free) http://www.alexa.com
Quantcast (free) http://www.quantcast.com
Compete (da 199$ al mese) http://www.compete.com

Analisi demografica di Compete

Questi strumenti offrono importanti dettagli sulla demografia dei visitatori di un determinato sito internet, le parole chiave più popolari (keywords) con cui gli utenti hanno raggiunto il sito internet e tanti altri dati che vi permettono di scegliere, aggiornare o cambiare le keyword da posizionare nelle prime posizioni con il sito stesso.

Una volta determinata la struttura del sito, la sua indicizzazione nei motori di ricerca (fondamentalmente Google), la possibile presenza di problemi di navigazione e l’audience del sito, siamo pronti per passare al passo successivo della Analisi SEO.

Fattori SEO On-Page relativi al Dominio

Età. Un dominio più vecchio comporta migliori possibilità di ottenere le prime posizioni nei motori di ricerca.

Rappresentatività delle parole chiave. Il dominio stesso dovrebbe contenere le più significative parole chiave del sito. Il nome dominio dovrebbe essere breve per essere ricordato e non dovrebbe contenere caratteri speciali e simboli grafici tipo l’underscore.

Fattori SEO “Off-Page” (fuori dalle pagine)

Page Rank. E’ il valore con cui Google valuta ogni singola pagina di un sito. Il Page Rank della root del dominio è di solito considerato rappresentativo del valore del dominio stesso. Alcuni esempi di Page Rank ad oggi: Flagsonline.it PR4 Bizonweb.it PR5 Seomoz.org PR6 ShinyStat.com PR7.

Alexa Global Rank. Il rank di Alexa è calcolato usando una combinazione di visitatori medi giornalieri del sito con il numero di pagine viste relativamente agli ultimi tre mesi. Il sito con la più alta combinazione di visitatori e pagine viste è il primo sito, il più importante. E’ utile valutare questo rank paragonando il punteggio ottenuto con quello di siti concorrenti. (http://www.alexa.com)

Compete Rank. Compete offre una stima del traffico del sito e rappresenta questo valore come Compete Rank (http://siteanalytics.compete.com/ )

MozRank, Page Authority e Domain Authority. Il mozrank di dominio (domain mozrank) è una metrica della popolarità globale a livello di link di un sito, calcolata in modo simile al Page Rank di Google, su una scala logaritmica da 1 a 10. L’Autorità della Pagina (Page Authority) e l’Autorità del Dominio (Domain Authority) sono due metriche calcolate attraverso Open Site Explorer di SeoMoz. Queste metriche sono rappresentate su una scala logaritmica da 1 a 100. Questi indici possono essere ottenuti gratuitamente utilizzando questo sito: http://www.check-domains.com/website-analysis/website-analyzer.php

Link esterni entranti (External Backlinks). Potete utilizzare Majestic SEO http://www.majesticseo.com/ per calcolare i link entranti al sito. Dovreste riportare questi dati: External Backlinks (link esterni)
Referring Domains (domini di riferimento)
Referring IP addresses (indirizzi IP di riferimento)
Class C subnets (sottoreti della Classe C)

Se avete migliaia di link entranti ma tutti provenienti da un paio di sottoreti della classe C, è probabile che tutti i domini che linkano il vostro sito vi appartengano, così che il valore dei link entranti diventa insignificante o quasi. Potreste anche verificare la voce “Followed Linking Root Domains”, cioè il numero di domini con almeno un link entrante, che non abbia rel=nofollow, ad una pagina del sito (dovreste usare seomoz.org per avere il dato significativo).
Potreste anche utilizzare il dato fornito da Alexa alla voce “Sites Linking In” come importante fattore di ranking da essere analizzato. La query di Google: “link:domain.tld” non è più un buon riferimento SEO, purtroppo perchè non fornisce tutti i link entranti ad un determinato sito, ma solo parte di essi.

Presenza su Dmoz. Uno dei primi passi che si facevano 10 anni fa in ambito SEO era la sottomissione del sito nella directory di Dmoz. La presenza di un sito in DMOZ è ancora considerata un fattore SEO significativo.

Referenze sui Social Network. Potreste creare una check list con i Social Network di riferimento. Per ogni social network dovreste verificare se il sito in analisi è presente nonché il numero di menzioni, il numero di fans/followers ed il numero di condivisioni dei contenuti proposti dal sito. Ecco una lista oggi significativa di Social Network:
Analisi dei Social Network– Facebook
– Twitter
– Google Plus
– Linkedin
– Pinterest
– Stumbleupon

 


Fattori SEO “On-Page” 

URL. La url di ogni pagina dovrebbe essere “search engine friendly” ovvero amichevole per i motori di ricerca, dovrebbe inoltre essere costituita dalle keyword più significative per la pagina.

Title tag. Il title deve contenere le parole chiave che promoviamo nella singola pagina in modo discorsivo, non potendo essere costituito da una semplice lista di keyword. Come Google indica nel famoso documento “Google SEO Report Card”: “Un title ed un meta tag description descrittivi possono aiutare il sito ad una migliore visibilità nella ricerca degli utenti.” La referenza è: http://www.google.com/webmasters/docs/google-seo-report-card.pdf

Meta tag Description. Questo meta tag dovrebbe essere descrittivo e contenere le parole chiave promosse all’interno della pagina. Lo standard attuale conferma che la descrizione dovrebbe essere non più lunga di 156 caratteri, comprendendo spazi e virgole.

Tag H1, H2 e H3. Ogni pagina del sito dovrebbe avere questi tag e questi tag dovrebbero presentarsi in ordine (h1,h2,h3) ed al loro interno dovrebbero presentare le keywords della pagina stessa.

Keyword density (Densità Parole Chiave). Si tratta della densità delle parole chiave (keyword density) all’interno del corpo della pagina. Un buon ranking è determinato sicuramente da una buona densità (di solito tra il 5 ed il 20% di tutte le parole all’interno del body della pagina).

Bold Keywords e Strong Keywords. Una parola chiave all’interno di un tag <strong> o <b> è una parola chiave più pesante, meglio visibile ai motori di ricerca.

Keyword prominence (Prominenza della Parola Chiave). Una parola chiave nella parte in alto a sinistra della pagina ha un peso maggiore della stessa parola chiave posta in basso a destra. La prominenza è quanto prima una keyword viene posta all’interno della pagina.

Anchor text (testo di ancoraggio). L’anchor text o testo di ancoraggio dovrebbe essere rappresentativo delle parole chiave. Se avete un link alla sezione SEO del sito, l’anchor text dovrebbe essere “sezione SEO” o più semplicemente “SEO”.

Title di Link. Il title di Link dovrebbe essere anch’esso rappresentativo delle parole chiave. Potete dare un’occhiata a questo post per capirne l’importanza:
http://www.seomoz.org/ugc/link-tilte-attribute-and-its-seo-benefit

Alt e Title di Immagine. Il testo dell’alt di immagine è un’informazione alternativa per quelle persone che hanno disabilitato la visione delle immagini dai loro browser o che, semplicemente, non hanno la possibilità di vedere le immagini. Dovrebbe descrivere cosa rappresenta l’immagine e rendere interessati i visitatori a visualizzarla. Il testo alt di immagine contribuisce al posizionamento nella ricerca in Google Images, diventando quindi un importante fattore SEO. Il title di immagine dovrebbe fornire informazioni addizionali, dovrebbe essere rilevante, breve, accattivante, conciso ed aiutare a promuovere le parole chiave della pagina. E’ bene però fare attenzione: il suo uso improprio potrebbe anche essere considerato spam. Quando la descrizione non ha nulla a che vedere con il contenuto dell’immagine si può parlare di spam, mentre quando il numero di keyword inserite è esagerato si parla di kewyord stuffing, tradotto letteralmente “imbottitura di parole chiave”. Quest’ultima pratica è penalizzata da Google a seguito dell’aggiornamento del suo algoritmo nel mese di marzo 2012.

Potete controllare parte di questi fattori SEO sopra descritti visitando questa pagina:
http://www.seocentro.com/tools/search-engines/metatag-analyzer.html

L’ultimo step dell’analisi SEO fa parte del SEO avanzato e si riferisce ad aspetti che vi permettono di migliorare il ranking di un sito, ovvero il suo posizionamento nei motori di ricerca.

Usabilità (Usability)

Website Usability Review (Controllo usabilità). Dovreste verificare che il vostro sito sia usabile, che possa essere navigato facilmente anche avendo javascript disabilitato.

Form Usability (Usabilità dei Form). Ogni form del sito deve essere processabile anche avendo javascript disabilitato.

Navigation Analysis (Analisi navigabilità). Ogni sezione del sito deve essere raggiungibile in non più di 4 click. In caso contrario siamo di fronte ad un serio problema di navigabilità.

Abilità di Indicizzazione (Crawl Ability)

Robots.txt Nella root del dominio dovreste aver messo un file che si chiama robots.txt. Questo file è utile perchè permette ai motori di ricerca di sapere quali pagine possono indicizzare e quali pagine non indicizzare. Il contenuto potrebbe essere di questo tipo:User-Agent: *
Disallow:
Sitemap: http://www.domain.tld/sitemap.xml

Sitemap. La sitemap (mappa del sito) aiuta il motore di ricerca a sapere quali sono le url che chiediamo essere indicizzate. Diversi sono i motori di ricerca che permettono la sottomissione di sitemap, ecco i principali siti di riferimento:
Google – https://www.google.com/webmasters/tools/
Bing – http://www.bing.com/toolbox/webmaster/

Crawl verification (verifica indicizzabilità). Potete verificare come è navigabile il sito usando un browser testuale (Lynx) o utilizzando un browser javascript online tipo questo: http://www.domaintools.com/seo-browser/ L’obiettivo è capire quali testi e link possa visualizzare lo spider di un ipotetico motore di ricerca.

Qualità del Testo

Per verificare la qualità dei vostri testi potete usare strumenti automatici. In questo ambito esistono due metriche: la Lexical Density (densità lessicale) e l’indice Gunning Fog. L’indice Gunning-Fog può variare da 4 (testo facile) a 20 (testo difficile da leggersi), mentre l’indice di densità lessicale rappresenta il fattore di Complessità del testo e il suo valore è espresso in una percentuale (normalmente da 20 a 60%).

Velocità di Caricamento della Pagina

Tutto ciò di cui avete bisogno è Page Speed di Google (il cui motto è Rendi più veloce il tuo sito internet).
https://developers.google.com/pagespeed/

I punti più significativi sono riportati a seguire:

Browser caching. Inserisci una data di scadenza negli HTTP headers affinchè i browser carichino dal disco fisso locale le risorse statiche già scaricate, evitando inutili chiamate alle risorse online.

Compressione delle risorse. Comprimere le risorse con gzip o deflate può ridurre il numero di bytes trasmessi dalla rete.

Immagini Compresse. Formattare e comprimere propriamente le immagini può far risparmiare molti bytes di dati. Ogni immagine dovrebbe essere compressa e per ogni immagine si dovrebbero specificare altezza e larghezza (heigh, width). Fissare le dimensioni delle immagini può fare risparmiare molti bytes di dati.

Sprite CSS. E’ opportuno combinare le immagini nel minor numero possibile di files: utilizzando la tecnica “CSS sprites” si riduce il numero di passaggi e il ritardo nello scaricare altre risorse. Gli sprites CSS sono un modo per combinare insieme delle immagini, al fine di ottimizzare il caricamento della pagina riducendo il numero di richieste HTTP al server.

Minimizza e Differisci Javascript. Comprimendo il codice JavaScript si possono salvare molti bytes di dati e migliorare la velocità di downloading, parsing ed il tempo di esecuzione. Differendo il parsing di codice Javascript non necessario fino a che non sia eseguito, potete ridurre l’iniziale tempo di loading della vostra pagina (fondamentalmente sarà sufficiente spostare, dove possibile, il codice javascript prima della chiusura del tag body).

Risorse asincrone. Gestendo le risorse in modo asincrono si evita che le risorse stesse possano bloccare il load della pagina (codice statistico javascript in, widget di facebook, twitter ecc..).

URL consistenti. E’ importante servire una risorsa attraverso un’unica URL per eliminare duplicazioni inutili di download e chiamate inutili e ripetute alle risorse.

Minimizza l’HTML (Minify HTML). Comprimendo il codice HTML, incluso il codice JavaScript e CSS in esso contenuto, si possono salvare molti bytes di dati ed aumentare la velocità di download, il parsing, e migliorare il tempo d’esecuzione.

Ottimizza l’ordine dei fogli di stile e degli script. Ordinando correttamente i fogli di stile esterni e gli script all’interno della pagina si migliora la parallelizzazione dei download e si spinge la velocità di rendering del browser.

Specifica una validazione della cache. Specificando una validità della cache – tipo Last-Modified o ETag header – potete assicurarvi che la validità delle risorse in cache sia efficacemente determinata.

Minimizza i css. Comprimendo il codice CSS si possono salvare molti bytes di dati ed aumentare la velocità di download, il parsing, e migliorare il tempo d’esecuzione.

Specificare subito il Charset. Specificare un set di caratteri subito nei propri documenti HTML permette al browser di iniziare ad eseguire gli script immediatamente.

Specificare un header “vary accept encoding”. Le risorse comprimibili e pubblicamente memorizzabili nella cache devono avere un’intestazione “Vary: Accept-Encoding”. Si possono istruire così i server proxy ad avere due versioni della risorsa: una compressa ed una non compressa. Questo evita questioni con i proxy pubblici che non individuano la presenza di un header Content-Encoding in modo preciso.

Velocizzare il caricamento delle risorse. Si può migliorare il caricamento di una pagina rendendo disponibili le risorse statiche da più sottodomini attraverso un sistema noto come “fake CDN” dove CDN stà per “content delivery network” rete di distribuzione del contenuto. Di fatto un browser può scaricare in parallelo fino a due risorse per hostname. Aumentando il numero di hostname aumenteranno anche le risorse che simultaneamente il browser può scaricare. Molta attenzione va prestata nel non duplicare i contenuti per cui ogni sottodominio dovrà fornire un’unica risorsa statica.

Una volta che lavorato a tutti questi passi, dovreste conoscere i punti di forza e di debolezza del vostro sito o del sito del vostro concorrente e dovreste essere in grado di combattere per le prime posizioni. Se vi sono rimasti dubbi, lasciate un commento.

Se non condividete alcuni passaggi di quanto sopra scritto, lasciate un commento.