È cosa ormai nota che qualunque contenuto sia presente sul web ha di fronte a sé due tipologie di lettori: quello in carne e ossa e quello digitale, rappresentato da Google e dagli altri motori di ricerca, i quali, mediante appositi agenti software denominati
spider, bot, o crawler,
scansionano i siti con una determinata frequenza e ne colgono gli elementi decisivi per
l’indicizzazione e il posizionamento.
Che cos’è e come funziona l’indicizzazione di un sito
La fase denominata
indicizzazione consiste nella creazione degli indici da parte degli spider, che avviene con vari criteri, dai più tecnici matematico-informatici, agli “umanistici”, linguistico-semantici, e perfino legati alla psicologia cognitiva.
Si svolge in modalità
full-text, cioè mediante la lettura del contenuto testuale (e multimediale) delle pagine del sito, una tecnica che ha rimpiazzato quella basata principalmente sulle
meta tag, le parole-chiave inserite nel codice HTML del sito contenenti le informazioni sul suo conto.
Quando un sito non viene
indicizzato o, se il processo rileva errori o incongruenze, non comparirà o faticherà a comparire nelle pagine che contengono i risultati delle ricerche, le cosiddette
SERP (Search Engine Results Page).
Per risolvere questa situazione Google mette, gratuitamente, a disposizione un
tool apposito.
Il suo funzionamento è molto intuitivo: basta inserire l'URL completo, comprensivo di prefisso https://, con l’eventuale aggiunta di commenti o parole chiave che descrivano il contenuto della pagina, elementi che vengono utilizzati solo internamente e non influiscono in alcun modo sull'indicizzazione o l'uso del sito da parte di Google
Se, al contrario, un sito risponde ai requisiti per il suo corretto inserimento negli
indici è pronto affinché vengano messe in atto le migliori strategie per
guadagnare posizioni nel suo
posizionamento.
Che cos’è e come funziona il posizionamento di un sito
Il
posizionamento di un sito è un concetto
ambivalente: da un lato ha che fare con la maggiore o minore visibilità di quest’ultimo tra i risultati di un motore di ricerca, dall’altro raggruppa l’insieme delle operazioni che devono essere effettuate nell’
ottimizzazione del sito, in modo da renderlo “adatto” a comparire, tra i risultati, in una posizione quanto più favorevole e rilevante.
Può essere di tipo “
organico”, cioè effettuato a partire dai contenuti, che vanno scritti seguendo le regole
SEO (
Search Engine Optimization) specifiche, nonché prodotti in una quantità e con una frequenza adeguata, oppure relativo alla variante più tecnica della SEO stessa, lavorando cioè sulla
Sitemap, l’alberatura del sito, sulla pulizia del codice sorgente che sta alla base, sulle
tag, sulla presenza di
link, e tanto altro.
I siti realizzati con le piattaforme
CMS (Content Management System) o con i
site builder proprietari incorporano già la gran parte delle tecniche SEO, che risultano ulteriormente raffinabili con i servizi specifici aggiuntivi resi disponibili dagli Internet Service Provider (ISP), qualora ci si affidi a essi per creare un sito in
hosting o, ancora di più, se si tratta di un
hosting gestito.
L’altra tecnica di riferimento per massimizzare la probabilità di comparire quanto più in alto possibile nelle SERP è usufruire del servizio di
sponsorizzazione, che consiste in inserzioni a pagamento per le quali il proprietario del sito acquista le parole-chiave con le quali vuole comparire all’atto delle ricerche effettuate dagli utenti.
L’ordine dei risultati viene stabilito dal servizio di
sponsored link sulla base di una serie di criteri definiti e conformati dal network pubblicitario che sta alle sue spalle, il più rilevante è quello che, nella formula
pay per click, determina il costo, cioè quanto il gestore del sito è disposto a spendere per ogni visita o contatto abbinati alle keyword identificate per il servizio.
La ricerca della qualità
Dopo essersi accertati che la SEO tecnica del sito sia stata impostata con tutti i criteri e le regole del caso, ecco che il
focus si può spostare sull’altro dei due lettori citati in partenza, quello umano.
Questo perché l’
algoritmo, cioè, in parole semplici, l’insieme delle decine di fattori che Google prende in considerazione per valutare l’interesse dei contenuti di un sito, in ultima analisi, si basa sulla presunzione del fatto che un lettore sia interessato alla qualità ed è quindi costruito su questo principio-cardine.
Ma quali sono gli elementi che stanno alla base dell’algoritmo di Google? O, per dirla in altri termini, in che cosa consiste, esattamente,
la qualità di un contenuto?
In
primis, Google valuta la
coerenza, cioè la corrispondenza tra gli argomenti trattati nelle pagine del sito e quelli che vengono dichiarati di sua pertinenza.
In una posizione primaria ci sono poi anche la
quantità, e la
frequenza di aggiornamento. Senza contare, infine, la
content curation, la cura del contenuto, da perseguire in termini di
lunghezza (contenuti lunghi sono preferiti di gran lunga a quelli brevi)
formattazione del testo,
riconoscibilità dell’autore, presenza di
link, e ricchezza del
corredo multimediale.
Insomma, in tutti i casi, le attività che permettono di avere un sito qualitativamente impeccabile richiedono progettualità, tempo e impegno costante.
Per raggiungere l’obiettivo, giungono in soccorso diversi
tool, sia a pagamento che gratuiti: tra questi ultimi possiamo citare, per esempio, quelli messi a disposizione dallo stesso motore di ricerca di Mountain View, quali
Google Trends e
KeywordTool.