Crea la TUA
STRATEGIA DI
CRESCITA

Seguici!

Storia sull’ ottimizzazione dei motori di ricerca

Nei primi giorni di vita di internet, il “search engine optimisation” (l’ottimizzazione dei motori di ricerca) era un compito piuttosto semplice.

Puntare su una keyword ben precisa significava inserirla nel title, nel meta tag keyword ed utilizzarla liberamente nel testo dell’articolo, spesso con una key-density elevatissima… il gioco era fatto, i motori indicizzavano la pagina e la riportavano nella loro serp.
Questo modo di costruire le proprie pagine web ha portato al Keyword stuffing, che era una tecnica molto comune che prevedeva un uso di keyword esagerato spesso non attinenti all’argomento ma utili solamente per il posizionamento. Le keyword spesso venivano nascoste dietro le immagini o come campi nascosti.

Molto spesso delle frasi venivano ripetute più e più volte all’interno della stessa pagina… i motori di ricerca del tempo le interpretavano come importanti perché ripetute.

I motori di ricerca, alle prese con queste strategie dei webmaster, introdussero un fattore che cominciò ad influenzare in modo considerevole la posizione di un sito nelle pagine dei risultati. Introdussero il concetto di numero di link in entrata in un sito.

Nello stesso periodo nacque il google page rank che fu, e lo è stato fino ad oggi, fortemente influenzato dai link di entrata.

Il Page Rank di Google in sostanza, afferma che ogni link ad una pagina rappresenta un ‘voto’, questo significa che più link ha una pagina più risulta importante per google.

Questo meccanismo ha però portato ad un’altra forma di spamming, i webmaster hanno cominciato a comprare o a scambiare il link sui reciproci siti.

Ecco che nuovamente, i motori di ricerca quali google, bing, yahoo e molti altri hanno dovuto ingegnarsi per rivedere i loro criteri che misurano l’importanza dei siti web.

I motori di ricerca continuano  la messa a punto dei loro algoritmi ed i professionisti SEO devono,attraverso il loro ingegno, effettuare dei continui studi ( molto spesso reverse engineering)  per rimanere in testa nella SERP.

Ecco l’ultima rivoluzione chiamata goolge PANDA.

Questo algoritmo classifica tutti i siti web in base alla qualità del contenuto, l’uso improprio di keyword e l’uso di reciproci link non daranno nessun valore aggiunto al sito… in alcuni casi saranno addirittura penalizzanti.

Lo scopo di google è quello di penalizzare i siti “inutili” cioè quelli creati per l’inserimento di banner pubblicitari e tutti quelli che danno scarsa informazione all’utente finale.

Quali sono quindi le grosse novità di google panda?

  1. Analisi dei contenuti/testi di ogni singola pagina web, google darà molto più credito ai siti di qualità
  2. Controllo della lunghezza e sulla qualità del testo all’interno delle pagine
  3. Verrà valutata molto positivamente l’usabilità e la gradevolezza della grafica
  4. Troppe pubblicità nelle pagine sarà indice negativo per il posizionamento
  5. Google analizza il tempo medio sul sito e controlla un eventuale ritorno sulla serp da parte dell’utente
  6. Title, metatag non subiranno grosse variazioni

Altra grossa novità è l’approccio di google nei confronti del navigatore. Google ha raccolto delle statistiche intervistando direttamente le persone costruendo una lista di cose che l’utente ritiene indispensabile per ottenere informazioni dai siti… cosa distingue un sito serio da uno meno serio o addirittura, quando un sito è considerato inaffidabile?

Una volta raccolte queste informazioni, google le ha trasformate in regole per il nuovo algoritmo.

Il mio consiglio è quello di toccare con mano questo nuovo algoritmo facendo delle prove senza azzardare troppo per non essere penalizzi

 

 

Mirko Pianetti

I miei 3 comandamenti sono: Innovazione, marketing e comunicazione.. SEO Specialist, strategic web marketing, usability, optimization, positioning e tuning portal web ma soprattutto Informatico