I 3 fattori chiave da cui dipende il ranking del tuo sito

Aumentare visite sito: ma perché?
Conquistare le prime posizioni dei risultati sui motori di ricerca attraverso l’ottimizzazione SEO e il miglioramento del ranking permette di aumentare le visite sul sito web o sul blog, e di raggiungere quindi utenti possibilmente appartenenti a un target specifico. Questo si traduce in maggiori possibilità di aumentare i profitti dei propri investimenti.
Raggiungere le prime posizioni però non è semplice: serve una strategia, serve metodo, serve conoscenza, perché bisogna offrire un sito e dei contenuti che piacciano agli utenti e quindi ai motori di ricerca. Per raggiungere questo stato ideale dovremmo seguire le regole che disciplinano la SEO (Search Engine Optimization) ovvero l’ottimizzazione per i motori di ricerca.
La SEO, anche se è in continua evoluzione e anche se cambiano le esigenze dell’utente e quindi i criteri di valutazione di Google, fondamentalmente si sviluppa su tre fattori:

  • 40% SEO content: contenuti ottimizzati per i motori di ricerca
  • 40% Link Building: strategie atte ad ottenere link in entrata di qualità
  • 20% SEO tecnica: ottimizzazione generale del sito

Ma prima di scendere nel dettaglio facciamo un passo indietro nel tempo, per comprendere meglio come ragiona Google.

Quando nasce la SEO e come venivano classificati i siti

Negli anni 90’, con la diffusione dei primi motori di ricerca, i webmaster si accorsero che agendo su alcuni fattori era possibile manipolare il posizionamento dei siti per determinate query (le ricerche degli utenti sui motori di ricerca). La SEO dei primi tempi era questa: occorreva dare agli algoritmi dei motori di ricerca il numero più alto di keyword, riempendo il sito delle parole chiave che più interessavano.

La nascita di Google e del PageRank

Quando nel 1998 arrivò Google venne introdotto il PageRank, che assegnava un valore ad ogni pagina web, prendendo in considerazione anche la quantità dei link in entrata (backlink). Questo perché tanto più un sito era autorevole e tanto più veniva linkato. In teoria. La realtà si rivelò ben presto un’altra: anche il PageRank si poteva manipolare, attraverso la creazione di backlink artificiosi. Per ottenere link in entrata non si guardava alla qualità né alla pertinenza, e iniziò un vero e proprio commercio di link.

L’algoritmo di Google: Panda e  Penguin

Google è intervenuto, e continua a intervenire, nella lotta alla manipolazione della SERP al fine di migliorare sempre di più i risultati che fornisce agli utenti: sa che se vuole rimanere il motore di ricerca più utilizzato al mondo non deve deludere chi affida a lui le sue ricerche.
Così, periodicamente, aggiorna il suo algoritmo. Tra gli upgrade più noti ricordiamo Panda (2011) e Penguin (2012), che hanno ridotto drasticamente la presenza di siti di scarsa qualità dai risultati di ricerca. L’algoritmo oggi penalizza i siti che:

  • tentano di raggirarlo con attività artificiose di link building;
  • praticano keyword stuffing (ovvero una presenza innaturale e forzata di parole chiave);
  • i siti non aggiornati e/o con contenuti di scarsa qualità;
  • i siti non user friendly e di difficile consultazione;
  • i siti lenti;
  • i siti non sicuri.

SEO 2018: da cosa dipenderà ranking del tuo sito?

Il futuro che riguarda la SEO è interessante: sempre più utenti si rivolgono a Google attraverso la ricerca vocale, e se prima digitavamo su Google “Cappotto uomo grigio”, oggi chiediamo a Google “Mi cerchi un cappotto per uomo lungo e grigio?”. Questo significa che non solo cambieranno le query di ricerca, ma che Google proverà a fornire dei risultati sempre più specifici: ecco perché bisognerà iniziare a lavorare su parole chiave “a coda lunga”, ovvero delle parole chiave sempre meno generiche e più dettagliate.

Nuovo algoritmo Google: cosa cambia con Fred

A marzo 2017 è stato introdotto Fred, che è ancora in fase di assestamento e che vedremo probabilmente protagonista del 2018.
Questo upgrade si pone proprio l’obiettivo di perfezionare i risultati di ricerca, e lo si evince dal fatto che alcuni siti generalisti abbiano subito dei cali organici in favore di siti che che trattano argomenti più ristretti e specifici, con un focus più di nicchia.
Questo perché Google sta cercando di offrire una SERP dal search intent più preciso e marcato, con dei risultati che rispondano alle domande degli utenti con contenuti meno ampi e generici e più in target.
Ne trarranno sicuramente vantaggio gli esperti di settore, che acquisiranno autorevolezza in merito ad argomenti specifici e ben approfonditi.

Come creare contenuti  SEO che piacciano a lettori e motori di ricerca

Google premia i siti che soddisfano le richieste dei suoi utenti: se l’utente, dopo aver raggiunto il sito, legge tutto l’articolo e magari naviga anche altre pagine, Google registra quell’azione, che va a migliorare l’autorevolezza del sito in merito alla query digitata dall’utente.
Quindi, più che scrivere contenuti per i motori di ricerca, dovremmo scrivere per l’utente. Ma per far giungere traffico al nostro sito, dobbiamo creare contenuti che rispondano alle domande che la gente pone ai motori di ricerca, altrimenti sarà come fare il nostro miglior discorso a due o tre persone piuttosto che a una platea gremita di gente.

1. Scegliere le parole chiave

Per far arrivare traffico di qualità sul nostro sito dobbiamo individuare quelle parole chiave che possono potenzialmente interessare alla nostra nicchia ma che abbiano un minimo di ricerche al mese. Per individuare queste parole chiave possono essere utili tool quali:

2. Costruire una struttura SEO per l’articolo

Dopo che abbiamo individuato la nostra parola chiave principale e le correlate, dobbiamo studiare la struttura del nostro articolo. Con le parole chiave secondarie possiamo sviluppare i vari paragrafi. La parola chiave principale dovrebbe essere presente su:

  • Titolo, possibilmente all’inizio;
  • Permalink;
  • Corpo testo, soprattutto nel primo paragrafo, se non nella prima frase;
  • ALT immagine (possibilmente sull’immagine in evidenza/immagine di copertina;
  • Meta description

 

3. Realizzare contenuti di valore

Ricordiamoci che scriviamo per dare valore all’utente, perché dobbiamo fare in modo che legga tutto il nostro articolo, che lo trovi utile. Siamo specifici, chiari, sintetici, non scopiazziamo contenuti altrui ma siamo originali. Se siamo specializzati su un argomento specifico dobbiamo fare in modo che al lettore arrivi tutta la nostra competenza.

Ottimizzazione SEO di un sito

Ma la SEO, come dicevamo all’inizio, non è soltanto contenuti: non basta ottimizzare gli articoli se il sito che li contiene non è ottimizzato.
A sua volta il sito deve essere supportato da una strategia di link building di valore (i link in entrata continuano ad avere un peso notevole nell’indicizzazione di un sito, ma vanno accuratamente selezionati, in quanto devono essere pertinenti e provenire da siti di valore).
Gli aspetti chiave a cui prestare attenzione, nell’ottimizzazione tecnica di un sito, sono:

  1. I meta tag
  2. Il file Robots.text
  3. La Sitemap
  4. L’importanza dell’alberatura del sito
  5. L’user experience e i siti mobile friendly

Come verificare l’ottimizzazione tecnica di un sito

Per fare un audit del sito e verificare se un sito è tecnicamente ottimizzato, è possibile utilizzare questi strumenti:

Come verificare l’ottimizzazione dei contenuti

Per monitorare il posizionamento di un sito e dei singoli contenuti è possibile utilizzare:

  • Search Console di Google: servizio gratuito di Google che permette di monitorare e gestire vari aspetti della presenza online di un sito, nonché lo stato di indicizzazione, le parole chiave ed eventuali problemi di sicurezza;
  • SEOzoom: SeoZoom è una suite tutta italiana per la strategia SEO, sviluppata da Ivano di Blasi, docente del video corso di Dolab SEO . A differenza degli altri tool stranieri come SemRush che operano a livello globale, SeoZoom è incentrato esclusivamente sull’Italia e quindi su google.it. Attraverso questo tool possiamo scoprire per quante e quali keyword è posizionato il nostro sito;
  • SemRush: anche SemRush è una suite per la strategia SEO e di link building, ma è straniera e tiene conto dei primi 100 risultati per una data parola chiave (SEO zoom dei primi 50);
  • Google Analytics: Google Analitycs è un servizio free offerto da Google, che permette di monitorare interamente un sito web, mostrando statistiche e dati relativi agli accessi degli utenti.

Come monitorare i link in entrata

I link in entrata vanno costantemente monitorati: solo così ci si può accorgere di un attacco di Negative SEO o comunque di ricevere link di scarsa qualità. La negative SEO è una tecnica utilizzata dai malintenzionati: fanno arrivare sul sito da colpire una serie di link in entrata di bassissimo valore, così da indurre una penalizzazione da parte di Google.
Per monitorare i link in entrata ci si può affidare ai già citati:

  • Search Console
  • SemRush
  • SEOzoom

Per analizzare invece il valore di un link e la credibilità a livello di link building di un sito:

  • Majestic: nella versione gratuita possiamo ottenere dati sul Trust Flow (indica la qualità dei siti da cui provengono i link in entrata)  e la Citation Flow (indica il numero dei link in entrata). Il livello di affidabilità di un sito si ottiene intersecando questi 2 dati: più è alto l’indice più è affidabile un sito;
  • Moz (che dispone anche di una valida toolbar): fornisce un dato sulla Domin Autorithy e Page Autorithy di un sito e delle sue pagine.