Appunti intorno a ‘La SEO è morta ??’

(mercoledì 9 nOvembre)

Di questi tempi continua a rimbalzare e a far paura, incutere timore fra gli addetti ai lavori un “verbo” che compare qua e là in post di Facebook piuttosto che in gruppi di discussione dedicati: ‘LA SEO E’ MORTA !’. Come, “La SEO è morta!” ??!. Sarebbe un cataclisma, una tabula-rasa, un “disastro” biblico per tutte quelle aziende e clienti nonché potenziali clienti che su di essa vedevano il futuro per l propria attività o hanno posto buona parte delle proprie speranze commerciali intravvedendo nello strumento un proficuo canale per il proprio business.

 

Da un recente filmato autorevole (prodotto dall’associazione ‘DA ZERO A SEO‘) si desume che in realtà si tratta di uno “specchietto per le allodole” o meglio un titolone messo lì “per generare panico”, che avverte tutti che una campagna SEO, se non conforme e adeguata ai tempi attuali, nella pianificazione e metodologia, può portare sì al fallimento di un’attività imprenditoriale che invece in essa vedeva u incremento per il proprio portafoglio.

Si cominci col dire che i maggiori fautori di questo ‘incubo’ siamo noi stessi, o per meglio dire i tanti ciarlatani che promettono mari e monti ai futuri (e ignari …) clienti per poi, complice anche la loro (ingenua) fiducia, rivelarsi nella stragrande maggioranza dei casi fuffa !

Ma a parte questo fattore indotto, forse il fenomeno si spiega con il cambiamento dei tempi, quindi un ‘alert’ che volto ad un affinamento delle tecniche e delle strategie che definiscono il posizionamento in SERP.

Lo scopo ultimo di qualsiasi motore di ricerca è quello di farci trovare nelle SERP dei risultati che più si avvicinano alle nostre domande e richieste, così da farci contenti e soddisfatti del servizio. Google è attualmente il motore di ricerca più utilizzato e avanzato al mondo – gli americani hanno subito sfruttato le potenzialità della Rete, portandosi avanti rispetto alla concorrenza, giusto per ritornare al discorso fatto in home page. Google ha così sviluppato una serie di algoritmi “finalizzati” allo scopo di fornirci le informazioni più attinenti alle nostre parole di ricerca. E ci è riuscito bene, tanto da continuare a sviluppare le tecnologie che portano verso un web semantico.

Ovvero, dal suo primo sviluppo (seconda metà anni Novanta con “esplosione” negli anni Duemila) in cui giustamente la dottrina della SEO era basata su determinati paletti (keywords, backlink, autorevolezza, necessità di contenuti, frequenza e densità delle kw, ecc.), quasi dei “dogmi” – si direbbe -, prendendo atto della rincorsa selvaggia al miglior piazzamento che si era venuta a creare  Google ha successivamente (e progressivamente) confinato la SEO affinando sempre più i suoi algoritmi di calcolo (Panda, Penguin, Hummingbird, …) fino ad arrivare a quello attuale per cui praticamente è indeterminabile definire il posizionamento di un sito web di un sito per quanto si faccia essendo il meccanismo di ottimizzazione nella SERP legato a una sorta di automatizzazione avendo con l’algoritmo approcciato ad un valore semantico della parola utilizzata nella ricerca stessa.

Nel momento in cui si digita una richiesta (o query) su Google, l’utente si attende di visualizzare una SERP contenente siti il più possibile correlati e in linea con la richiesta effettuata. Perchè ciò avvenga tutti i siti indicizzati da Google sono sottoposti a una valutazione attraverso un complesso software (detto appunto algoritmo) in base al quale viene deciso l’ordine di visualizzazione dei risultati: più la pagina di un sito corrisponde a determinati criteri in funzione di quanto cercato dall’utente e più essa verrà mostrata in cima alle SERP.

I criteri sopra citati sono nient’altro che l’insieme dei fattori che l’algoritmo pesa prima di elaborare la richiesta dell’utente: non esiste una lista ufficiale delle variabili prese in considerazione da parte di Google e del peso ad esse assegnato, ma chi si occupa di posizionamento e SEO conosce, anche in base alla propria esperienza, i principali fattori su cui concentrare gli sforzi per rendere un sito il più possibile Search Engine Friendly.

 

 

Algoritmo:   Dance dance   e     FloridaSEO Concept with Laptop and Icons

Anno: 2003

Questi due algoritmi penalizzavano le tecniche di posizionamento innaturale di Keyword stuffing, cioè la ripetizione di parole chiave all’interno di un sito e delle sue pagine web.

 

Algoritmo: Austin     

 austin

Anno: 2004

Penalizzava quei siti che utilizzavano le tecniche di Black Hat SEO: le parole chiave venivano inserite nella pagina con caratteri così piccoli da non essere letti, oppure con lo stesso colore dello sfondo.

 

Algoritmo: NoFollow  nofollow
Local Maps                                                                                 localmaps

Anno: 2005

Questo attributo fu introdotto per specificare ai motori di ricerca quali link non indicizzare.
Sempre nel 2005 fu aggiornato l’algoritmo Local Maps, fondamentale nel restituire risultati di ricerca in base alla localizzazione geografica degli utenti.

 

Pulizia sui link in entrata

Anno: 2006

Google penalizzò quei siti con troppi link reciproci e link acquistati da agenzie di SEO.

 

universalsearch

 

 

 

Universal Search e suggerimenti in tempo reale

Anno: 2008

Google aggiunse ai risultati di ricerca le opzioni per selezionare, oltre alle classiche pagine web, canali specifici come “Notizie”, “Immagini”, “Video”.

 

Algoritmo: Caffeine  caffeine

Anno: 2009

Questo algoritmo permise l’indicizzazione e il posizionamento quasi in tempo reale di eventi e contest.

Algoritmo: Social Signal

Anno: 2010

Maggiore attenzione all’uso dei Social Network. Questo algoritmo premiava quei siti che avevano un riscontro anche sui canali Social.

 

Algoritmo:   panda    Panda            panda-2

Anno: 2011

Penalizzava quei siti con contenuti di bassa qualità (spesso copiati da altri siti) o con troppi banner pubblicitari nelle pagine.

 

Algoritmo: Freshness

freshness

Anno: 2011

Come dice il nome stesso, questo algoritmo premiava quei siti i cui contenuti venivano più spesso aggiornati.

 

Algoritmo: Penguin        penguin-2

Anno: 2012

Ancora una volta un algoritmo che penalizzava quei siti con dubbi backlink, con backlink a pagamento e le tecniche di Keyword stuffing.

 

Algoritmo:                                                                                                  Hummingbirdhummingbird

Anno: 2013

Questo algoritmo, pur riprendendo le componenti di Panda e Penguin, cerca di personalizzare al massimo i risultati di ricerca – parallelamente al servizio MyAnswers.

 

 

Algoritmo: Pigeon Update     pigeonupdate

Anno: 2014

Questo algoritmo si chiama Pigeon, cioè piccione, perché i piccioni tornano sempre a casa, e questo algoritmo è pensato per le imprese locali, aiutando nella ricerca a mostrare quelle che si trovano più vicine. Tuttavia questo algoritmo ha modificato anche la ricerca globale di Google, e non solo quella locale.

 

19 Maggio 2014: Payday Loan 2.0 e Panda 4.0. il primo algoritmo colpisce                  prevalentemente query ritenute “spammose” mentre con il secondo vengono colpiti soprattutto i siti poveri di contenuti di qualità.

6 Agosto 2014: Il protocollo HTTPS è da oggi un elemento a favore del posizionamento nelle SERP di Google.

Ottobre 2014: In the News box. I più importanti siti di informazione sono stati privilegiati grazie all’inserimento nelle SERP di un numero maggiore di risultati nella sezione dedicata alle notizie.

21 Ottobre 2014: Algoritmo Pirate 2.0. pirateAggiornamento dell’algoritmo “chirurgico”, ovvero mirato a un limitatissimo numero di siti per combattere la pirateria digitale. I domini “Torrent” sono stati pesantemente colpiti da questo aggiornamento.

 

 

Algoritmo: Mobil(e)geddonmobilegeddonAnno: 2015

Questo algoritmo premia i siti ottimizzati per dispositivi mobili come smartphone o tablet. Questo significa che chi non ha una struttura mobile-friendly nel proprio sito internet, sarà declassato nei risultati forniti dal motore di ricerca.
26 Ottobre 2015: in data odierna Google ha comunicato che da diversi mesi è attivo un sistema di intelligenza artificiale finalizzata all’apprendimento automatizzato (machine learning) denominato RankBrain.

 

12 Maggio 2016: Dopo il rilascio dell’algoritmo dell’aprile 2015 relativo alle versioni mobili dei siti, ecco un nuovo aggiornamento per i mobile websites.

1 Settembre 2016: Possum. Lo scopo di Google Possum  possum2dovrebbe essere quello di offrire risultati maggiormente diversificati, rendendo più importante la posizione degli utenti e favorendo quelle attività che hanno la sede appena al di fuori del centro delle città, il cui ranking in precedenza era sfavorito. Non confermato da Google, tuttavia si sono registrati movimenti piuttosto marcati nei risultati delle SERP.

 

13 Settembre 2016: si è notato un sostanziale declassamento di risultati con immagini nelle SERP.

 

(Fonti: www.dndcom.com, www.topseo.it, www.gigasweb.it, www.seoroma.com)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *