‘Il Crawler’, questo sconosciuto

(sabato 24 novembre)
Attività metodologiche di un crawler
Attività metodologiche di un crawler

Con il termine “crawler” (chiamato anche ‘web crawler‘, spider o robot) si intende un qualsiasi programma che può essere utilizzato per l’individuazione (cioè “verificare la presenza in Rete”) e la scansione automatiche dei siti web, compresi eventuali link che rimandano da una pagina web all’altra. Ogni motore di ricerca ne ha di suoi specifici: ad esempio, il crawler principale di Google è Googlebot. Il loro utilizzo è definito nella parte descrittiva nel file robots.txt, il quale prevedere diversi crawler. Inoltre, possono essere specificati anche dal meta tag robots o nelle istruzioni HTTP X-Robots-Tag.

Definizione Web Crawler
Definizione Web Crawler

 

 

Google bot
Google bot

 

Crawler Token dello user-agent (utilizzato nel file robots.txt) Stringa completa dello user-agent (come mostrata nei file di log del sito web)
APIs-Google
  • APIs-Google
APIs-Google (+https://developers.google.com/webmasters/APIs-Google.html)
AdSense
  • Mediapartners-Google
Mediapartners-Google
AdsBot Mobile Web Android

(Controlla la qualità dell’annuncio nella pagina web Android)

  • AdsBot-Google-Mobile
Mozilla/5.0 (Linux; Android 5.0; SM-G920A) AppleWebKit (KHTML, like Gecko) Chrome Mobile Safari (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot Mobile Web

(Controlla la qualità dell’annuncio nella pagina web dell’iPhone)

  • AdsBot-Google-Mobile
Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1 (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot

(Controlla la qualità dell’annuncio nella pagina web per desktop)

  • AdsBot-Google
AdsBot-Google (+http://www.google.com/adsbot.html)
Googlebot Immagini
  • Googlebot-Image
  • Googlebot
Googlebot-Image/1.0
Googlebot News
  • Googlebot-News
  • Googlebot
Googlebot-News
Googlebot Video
  • Googlebot-Video
  • Googlebot
Googlebot-Video/1.0
Googlebot

(Desktop)

  • Googlebot
  • Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
  • Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36o (utilizzato raramente):
     
  • Googlebot/2.1 (+http://www.google.com/bot.html)
Googlebot

(Smartphone)

  • Googlebot
Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Mobile AdSense
  • Mediapartners-Google
(Vari tipi di dispositivi mobili) (compatible; Mediapartners-Google/2.1+http://www.google.com/bot.html)
Mobile Apps Android

(Controlla la qualità dell’annuncio nella pagina per app Android. segue le regole dei robot AdsBot-Google.)

  • AdsBot-Google-Mobile-Apps
AdsBot-Google-Mobile-Ap

I crawler più comuni di Google

Un crawler è un tipo di bot (programma o script che automatizza delle operazioni), e i crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.

Sul Web, il crawler si basa su una lista di URL da visitare fornita dal motore di ricerca (il quale per ciò si basa sugli indirizzi suggeriti dagli utenti o su una lista precompilata). Durante l’analisi di un URL, lo spider identifica tutti gli hyperlink presenti nel documento e li aggiunge alla lista di URL da visitare.
Il comportamento dei crawler attivi in Rete è tracciato da quanto definito nel file robots.txt, individuabile nella root del sito. 

Esistono anche crawler open source. In particolare, è definito nella riga ‘User-agent‘ mediante una stringa di testo (“token“).

 

Per capire si svolge veramente un’attività di SEO e quindi come funziona l’algoritmo di Google, occorre conoscere e capire come funzionano le due “menti” operative di GoogleBot, ovvero lo spider ed il crawler.
Spider
L’attività principale dello spider è di farsi una copia del codice html delle pagine di un sito web, suddividerle in parti, quindi procedere a farne il controllo spam, salvare un estratto sintetico dei contenuti nell’Index ed in alcuni casi inviare una foto integrale (copia) della pagina alla cache. Per sapere come trovare la copia cache delle tue pagine ecco un post sui comandi avanzati.

Crawler
La funzione del Crawler è analizzare e seguire i link forniti dallo spider nella sua attività di scansione delle pagine. Tutti i link seguiti dal crawler sono analizzati in profondità in base ad una serie di parametri (anchor text, proprietario del dominio, whois etc.) che permettono a Google di capire il valore SEO reale di ogni link e quindi eventuali penalty. Se il crawler trova nuove pagine non presenti nell’indice dello spider, li comunica allo spider stesso che ricomincia la scansione e indicizzazione.

Dispregiativamente, in una accezione secondaria, il termine web crawler viene utilizzato anche per indicare programmi (come PageNest, MSIECrawler, Offline Explorer) concepiti per scaricare il contenuto di un intero sito web sul disco fisso del computer.

“Polimorfi” tacciati da Memory Alpha in quanto, accedendo al sito in modo aggressivo, implicano un rallentamento drastico del le possibilità di accesso al sito stesso da parte dei visitatori.

 

2019: la SEO che sarà

(martedì 6 novembre)

Già il secondo semestre del 2018, disseminato di novità inerenti la parte algoritmica e tendenze di ricerca sempre più dettagliate, ha gettato le basi per quelli che saranno i trend della SEO nel 2019.

La chiave per essere all’avanguardia nel settore della SEO è prevedere i futuri sviluppi con un occhio di riguardo alle mosse di Google. E quindi

  • USER EXPERIENCE

Già dal 2015 con l’algoritmo RankBrain, nato e sviluppato sull’onda del coetaneo e predecessore Hummingbird

, si è fatto un determinante passo in avanti nell’ottica di avere risultati sempre più mirati e soddisfacenti per quelli che sono gli intenti di ricerca dell’utente. Ciò a tutto vantaggio della user experience (o UX) si intende l’esperienza che un utente prova quando interagisce con un qualsiasi prodotto, sistema o servizio, di design, che sia fisico o digitale”.

                  

  1. MOBILE FIRST

L’inversione di tendenza registrata da inizio 2018 a proposito delle ricerche online appannaggio dei dispositivi mobile (60% con punte addirittura del 90& in alcun nicchie) è stato l’impulso noto come ‘Mobile First’, cioè la realizzazione di un sito web partendo da quella che è la risoluzione di un dispositivo mobile adattandosi via via alle risoluzioni maggiori, rimanendo fedele ma capovolgendo il concetto di Responsive Web Design.

  1. CONTENUTI VIDEO

Partendo da un’intuizione brillante ma fondata, un elemento destinato a fare la differenza sarà quello di incentivare l’utilizzo di contenuti video e multimediali, in armonia con una giusta combinazione con i testi.

  1. RICERCA VOCALE

Correlata alla importante crescita fatta registrare dal settore mobile è quella delle ricerche vocali. Non più intesa come ricerca di un numero di telefono da chiamare o per comunicare keywords, l’intento che si insegue è di dare comandi attraverso la voce consentendo così di risparmiare tempo (si pensi ad esempio quando si hanno le mai occupate).

  1. FEATURED SNIPPET

Effettuando una qualsiasi ricerca su Google per una parola chiave popolare oltre ai canonici risultati organici e a pagamento potrebbero essere mostrati, nella parte superiore della pagina, delle porzioni di altre pagine web che vengono richiamate con lo scopo di dare una risposta diretta alla query. Non essendo a pagamento, l’unico modo per far apparire il featured snippet è ottimizzare il sito.

  1. OTTIMIZZAZIONE CONTENUTI E SEO ON-PAGE

I focus finora illustrati non devono però mettere in secondo piano l’ottimizzazione on-page e la qualità dei contenuti, dal caricamento delle pagine all’ottimizzazione dei (meta)tag di una pagina all’evitare contenuti duplicati …

(Rif. www.progettofirenze.com/blog)

 

Col nuovo anno dunque la Seo sarà particolarmente incentrata sull’esperienza utente da mobile e sui contenuti di valore, oltre che su link e menzioni.

Più tecnicamente, non si può non denotare che l’annata in corso ha portato alla ribalta il passaggio al protocollo per la comunicazione sicura “HTTPS” in sostituzione del vecchio “HTTP” (in realtà ancora largamente usato) e il sistema “AMP” (Accelerated Mobile Pages, in verità lanciato già da circa tre anni) “spinto” per velocizzare il caricamento delle pagine su dispositivi mobile.

Oltre a questi parametri, dovremo continuare a focalizzare la nostra attenzione innanzitutto su contenuti di alta qualità, sulla lunghezza dei testi, su un equo utilizzo delle keyword, dei link interni e dei vari h2 … h6, sull’uso di una adeguata meta descrizione (da molti ormai reputata secondaria, ma invece talvolta di importanza strategica) e di un valido indirizzo URL, sulla valorizzazione di video e fotografie all’interno delle pagine e, naturalmente, sul confronto continuo con altre realtà concorrenti e sulle intuizioni personali in modo da riuscire ad anticipare proprio la diretta concorrenza.

 

Accanto alla Search Engine Optimization, parlando di segnali di evoluzione non va dimenticato il Content Marketing (“Content is the King”), uno dei pilastri del Web Marketing e che procede di pari passo con la realizzazione di siti web in quanto entrambe le attività sono ‘rincorse” al fine di  fornire ai visitatori ciò di cui hanno bisogno, nella forma migliore possibile.

Se è innegabile che  gran parte delle chiavi di ricerca secche a intento commerciale siano ‘in mano’ ai colossi internazionali (eBay, Amazon, ecc.), diversamente avviene per le ricerche di tipo informativo, alle quali ognuno può rispondere con contenuti approfonditi ed esaustivi per guadagnare la fiducia del proprio pubblico. Le ricerche informative infatti possono nascondere intenti di acquisto utili per i propri scopi commerciali.

Soddisfare query informazionali nasconde la possibilità di diventare autorevoli punti di riferimento per le persone che avranno bisogno di prodotti e/o servizi per rispondere ad esigenze simili. Necessità alle quali si può rispondere offrendo articoli per il blog, ebook, video guide, infografiche.

Investire sul Content Marketing significa puntare sulla costruzione di autorevolezza agli occhi del proprio pubblico attraverso la realizzazione di contenuti realmente utili, originali e di valore. La produzione di contenuti è un processo di costruzione di credibilità e valore che permane nel tempo e che si auto-alimenta per mezzo della continua crescita di notorietà del brand.

 

 

 

SEO Audit: cos’è e come si fa

(sabato 3 novembre)

SEO Audit: cos’è e come si fa

 Ecco, un lavoro ci è stato commissionato: la ditta X ci incarica di realizzare un sito per la sua attività … Bene, come da ABC procediamo anzitutto ad un colloquio dettagliato nel quale “capire” il segmento dove lavora, il target di clienti che vuole raggiungere, che finalità ha il sito …..

Dopo una prima elaborazione del progetto web e (gli inevitabili) doverosi successivi aggiustamenti da apportare su richiesta del cliente, la “creatura” è pronta per essere data in pasto al mare magnum di Internet e ai motori di ricerca, con l’obbiettivo di ottenere un buon posizionamento in SERP, sapendo di contare su un sito ottimizzato dal nostro collega.

Già, ma come ogni cosa su questo mondo ‘tutto è relativo’, anche il nostro buon lavoro !

 

Ecco allora che il lavoro del SEO non si ferma al ‘confezionamento’ del sito web con tutti i dogmi richiesti per l’ottimizzazione SEO ma occorre monitorare costantemente quanto fatto: questo è fare SEO AUDIT.

Si tratta di uno step indispensabile per ottenere un buon risultato … da piazzare, e oltretutto necessario nel condurre un’attività SEO. Consiste in una analisi strutturale, dei contenuti e concorrenziale del sito web, andando così ad analizzare tutti gli aspetti – interni ed esterni – che potrebbero influenzare il posizionamento sui motori di ricerca.

Con questa attività è così possibile individuare i punti di forza e di debolezza del sito, e di conseguenza apportare le dovute correzioni con un’opportuna serie di attività SEO al fine di massimizzare il risultato.

Non esiste un’unica strada per perseguire un’analisi di SEO audit anzi, al contrario ognuno avrò una checklist personale.

Questo significa che ognuno di noi avrà una personale checklist per quanto riguarda l’audit SEO di un sito web. Quella che segue è la mia personale lista, spero tu possa trarne qualche spunto interessante. Per prima cosa va detto che la mia analisi SEO è articolata in questo modo:

  • Analizzo il settore.
  • Passo gli aspetti on site.
  • Affronto i punti off site.

Analisi del settore

La prima operazione: fare un’analisi del settore. E’ importante capire chi sono i principali competitor, quali contenuti offrono, come sono strutturati e quali sono i punti di forza.

Cerco di individuare le keyword più importanti del settore e faccio delle ricerche per scoprire i siti che si posizionano, in modo ricorrente, ai primi posti dei motori di ricerca.

Questa sezione è utile per individuare, velocemente, i siti che hanno pagine posizionate per le parole chiave che ci interessano sul serio.

Una volta individuati i competitor passiamo alla parte più importante: analizzare i siti. Questo lavoro va fatto manualmente.

L’obiettivo è quello di capire cosa offrono, in termini di servizi/prodotti/contenuti, i principali competitor. Un buon metodo è di effettuare un’analisi a mano, visitando i siti e annotando gli aspetti rilevanti di ognuno.

Raccolgo i numeri in un file Excel per poi fare delle stime medie; mi interessa individuare quelle che sono i “servizi aggiuntivi” che possono essere inseriti nel settore. Ad esempio, tramite di esso potrei accorgermi che tutti i principali competitor offrono un servizio di informazioni H24 attraverso un numero verde, o magari che nei contenuti più importanti hanno deciso di includere dei video.

Insomma, questa fase preliminare mi permette di avere una panoramica del contesto e di quello che fanno i concorrenti che Google premia, posizionandoli meglio nelle serp di riferimento.

Analisi degli aspetti on site

Mi pongo dinanzi al sito con l’obbiettivo di analizzarlo, mettendomi nei panni dell’ utente standard. Mi pongo una serie di domande cercando di rispondere agli aspetti informazionali, legati all’usabilità e alla fiducia del sito (Il sito è facilmente navigabile ? Capisco subito cosa offre ? Il caricamento avviene in tempi accettabili ? I contenuti soddisfano le mie esigenze ?). Interessa capire se l’utente è messo nelle condizioni di poter trovare quello che cerca.

Il secondo passo è quello di analizzare il file robots.txt per controllare se i motori di ricerca hanno accesso a tutte le pagine che devono essere indicizzate o, viceversa, escluse.

A questo punto, individuati i punti deboli del sito posso procedere con l’analisi attraverso i SEO tool (Search Console, Visual SEO Studio, Seo PowerSuite, Seozoom, Google Analytics). 

 

 

Analisi off site

Per analisi off-site si intende l’insieme dei fattori che sono esterni al sito (link, citazioni, ecc.). In questa fase diventano importantissimi gli strumenti di analisi; fra questi, di indubbia utilità sono:

  • Ahrefs: per fare un’analisi approfondita dei link;
  • Buzzsumo: per analizzare la visibilità sui social network;

L’analisi dei fattori off site siamo consente di perfezionare la strategia SEO: valutare, ad esempio, le azioni per rafforzare una eventuale campagna di acquisizione link.

È il momento dell’analisi SEO del sito

La prima parte della SEO Audit è andata. Hai individuato i dati essenziali del contesto, usato i SEO tool per analizzare i competitor, concentrando l’attenzione su quanto è on site e quanto off site al sito. A questo punto siamo in gradi di determinare i fattori essenziali per la SEO Audit:

  • Abbiamo una panoramica della struttura del sito;
  • Siamo in grado di valutare la user experience;
  • Individuare possibili errori nel codice o nei meta tag;
  • Quali contenuti mancano al sito per poter essere competitivo.
  • Il sito presenta dei contenuti duplicati.
  • Presenza di contenuti che sono impossibili da indicizzare per Google.
  • Cosa manca, dal punto di vista dei link, per poter massimizzare la visibilità sui motori.

Tutte queste informazioni, insieme all’analisi preliminare dei competitor, ci permettono di sviluppare la nostra analisi SEO. Si può ora andare ad elaborare un PDF in cui inserire tutti i dati raccolti in tabelle. In questo ci può essere molto utile Excel, altrimenti ci sono le mappe mentali.

Meglio i SEO tool o un lavoro manuale ?

Parlando di analisi SEO sarebbe ipocrita non sottolineare l’importanza dei tools, i quali assumono un ruolo non indifferente nell’attività e consentono di accedere velocemente a informazioni preziose.

Ma sarebbe corretto però affermare che i tool “sono tutto” in quanto è buona prassi comunque navigare il sito e esplorarlo per comprenderne le sue dinamiche.

Il filo conduttore è che se il sito non è pensato per soddisfare la search intent degli utenti non andrà lontano: se il sito non è semplice da navigare, se i contenuti non sono organizzati nel modo giusto o non sono presenti le informazioni di cui gli utenti necessitano, nessuno acquisterà mai il prodotto/servizio.

 

 

Il PageRank cede il passo al Domain Authority

(sabato 27 ottobre)

PageRank come strumento di indicizzazione

Sostanzialmente, l’indicizzazione di un sito web o blog si fonda sulla rilevanza che esso ha nel World Wide Web (quanto cioè  importante è a livello di contenuti per l’argomento trattato), vale a dire quanto è “reso forte” (in ottica link building) da altri documenti, pertanto dalla sua bontà.


Il PageRank, brevetto di proprietà Google, fino a una manciata d’anni fa di efficacia indiscutibile in termini SEO, è definito da un algoritmo mediante cui viene assegnato un valore numerico ad ogni collegamento (hyperlink) presente nel documento stesso, con il fine di misurarne l’importanza. È un valore che può variare da 0 a 10 che Google assegna ad ogni pagina Web per valutarne il livello di popolarità.

 

 

L’algoritmo calcola la probabilità che quella pagina venga visitata, che cioè una persona clicchi su un link che faccia atterrare su di essa.

 

Introdotto da Larry Page e Sergey Brin, fondatori di Google, da cui ereditò il nome di PageRank, il primo passo fu la definizione di un algoritmo di analisi che assegnasse un valore numerico ad ognuna delle pagine web di un sito con l’obiettivo finale di qualificarne l’importanza e il valore dello stesso.

Un pò di storia del PageRank

Larry Page e Sergey Brin nel 1998

Nell’epoca in cui i due si incontrarono, la maggior parte dei motori di ricerca esistenti basavano i loro risultati sulla Keyword Density, ovvero quante volte una determinata parola chiave o frase veniva ripetuta all’interno di un contenuto.

Il valore di PageRank risulta da un algoritmo matematico basato sul grafo dei collegamenti del Web, formato da tutte le pagine (nodi) e collegamenti (archi) che formano il web.

 

Interessante la definizione ‘Il valore di PageRank risulta da un algoritmo matematico basato sul grafo dei collegamenti del Web, formato da tutte le pagine (nodi) e collegamenti (archi) che formano il web. Misura l’importanza di una particolare pagina. Un link verso una pagina conta come un voto di supporto. Il PageRank di una pagina dipende a sua volta dal valore PR delle pagine che linkano ad essa. Una pagina linkata da altre pagine ad alto PageRank riceverà a sua volta un alto PageRank.‘ (rif.: www.evemilano.com)

Col passare del tempo- e il succedersi di modelli sempre più sofisticati si è cercato di evolvere verso algoritmi sempre più precisi, con il fine di ignorare link artificiosi, non naturali e creati con l’unico scopo di alterare il PageRank.
   

 

 

Con questa metrica Google si è distinto ‘organicamente’ dagli altri motori di ricerca.

 

Negli ultimi 10 anni, però, il succedersi di modifiche sempre più frequenti ha fatto sì che il PageRank non avesse più un ruolo di predominanza verso altri algoritmi di ranking.

In effetti, il PageRank rappresenta solo quello che interessa davvero a un imprenditore deciso a mettersi sul web: fare più soldi, attirare più lettori, generare più contatti, eccetera. Il PR viene oltretutto aggiornato poche volte l’anno. L’essere ‘sorpassato’ non vuol dire però che viene accantonato totalmente: appare come una metrica di successo solo nel momento in cui è alto, sinonimo di un sito posizionato: maggior traffico in ingresso vuol dire che più persone fanno quello che si vuole attraverso le mie pagine. Ha un significato fine a se stesso.

Si può dire che l’evoluzione del PageRank è andata di pari passo con l’evolversi del motore di ricerca di Google: vale a dire, mentre si assisteva a una progressiva diversificazione delle SERP, in ragione del succedersi delle logiche che stanno a monte, e dello ‘stravolgimento’ dei piazzamenti, l’indicizzazione non poteva più essere imputabile, riferita ad un unico parametro; si aggiunga che per confrontare fra di loro i diversi siti inoltre ogni query esigeva risposte viavia più complesse.

Ecco che con il passare degli anni, per allinearsi alle mutevoli esigenze anche Google iniziò ad evolvere i propri algoritmi sulla base di esigenze sempre più definite e specifiche.
Addirittura, “Sfuggire il PageRank” divenne necessità primaria per un motore di ricerca che volesse emergere sugli altri.

Google ha sempre indicato la rilevanza come uno degli ingredienti principali per posizionarsi nelle SERP. Ma solo perché è qualcosa di facile da tracciare non significa che rappresenta esattamente quello che succede al tuo sito web: guardare al PageRank come ad una metrica di successo ha senso solo nel momento in cui più è alto e meglio il mio sito è posizionato, più traffico riceve, e più persone fanno quello che voglio che facciano sulle mie pagine.

 

 

L’orientamento è ora quello di prendere in considerazione metriche legate ai guadagni del proprio sito o del business, piuttosto che focalizzarsi su quelle legate al ranking. Considera metriche che si aggiornano quotidianamente o settimanalmente, piuttosto che numeri (tasso di conversione, frequenza di rimbalzo, percentuale di click), tendendo cioè a metriche più legate alle performance e al ritorno economico (rif: blog.tagliaerbe.com).

Nella primavera del 2016 Google ha decretato la fine del Pagerank, ‘coefficiente’ fino ad allora utilizzato dal motore di ricerca di Google per determinare l’indicizzazione. (rif.: www.atopway.it).

‘il rilievo che ogni pagina web assume all’interno di una rete ipertestuale, determinava la sua reputazione’.

Da PageRank a Domain Authority

Domain Authority (“DA”) è ad oggi un parametro fra i più ricorrenti per valutare affidabilità e autorevolezza di un sito web. E’ un punteggio di ranking dei motori di ricerca sviluppato da Moz che prevede quanto un sito si classificherà nelle pagine dei risultati dei motori di ricerca (SERP).

L’Autorità di dominio viene calcolata valutando più fattori, incluso il collegamento dei domini radice e il numero di collegamenti totali, in un singolo punteggio DA. Questo punteggio può quindi essere utilizzato quando si confrontano siti Web o si monitora la “forza di ranking” di un sito web nel tempo.
Sviluppata da Moz, è una metrica utilizzata per valutare l’importanza di un dominio.

 Si basa su una scala di valori da 0 a 100  , dove un valore più alto sta ad indicare che il sito è importante, con buona autorevolezza e con una buona reputazione di link building; viceversa, per valori bassi. Fisiologicamente, è attendibile posizionarsi ovvero oscillare su numeri bassi mentre più difficile è “spingere” a valori più elevati.
Senza scendere nei dettagli, viene calcolata sulla base di tre fattori: dimensione (numero di articoli/contenuti pubblicati: più è alto il numero maggiore è la dimensione), popolarità (frequenza dei link di qualità – tali sono se provenienti da siti ben posizionati dunque già con un DA alto) ed età (da quanti anni è on line: più è vecchio più è affidabile) del sito/blog.

 

 

E’ possibile visualizzare il DA di un sito web usando MozBar (un’estensione di Chrome gratuita), Link Explorer (uno strumento di analisi di backlink), la sezione Analisi SERP di Keyword Explorer e decine di altri strumenti SEO in tutto il web. Per valutare questa metrica si può ricorrere a strumenti SEO a pagamento, ma esistono anche soluzioni free messe a disposizione da Moz.
Il suo valore aumenta migliorando la SEO sul sito, on-site come pure off-site.

Indicizzazione e ottimizzazione

(mercoledì 24 ottobre)

L’approccio con il mondo della SEO implica spesso, soprattutto per i neofiti, un utilizzo errato di terminologie; fra queste, penso sia diffusa la confusione che si viene a creare parlando di ‘indicizzazione’ e ‘ottimizzazione’.

Con il termine “indicizzazione” si intende semplicemente l’inserimento di un sito o un blog in un motore di ricerca. In ciò differisce dal ricorrente e più “sulla bocca” processo di ottimizzazione, il quale riguarda l’insieme delle attività finalizzate a migliorare la visibilità del sito/blog sui motori di ricerca.
Processo che si realizza attraverso tre step:
-segnalazione sito al motore di ricerca;
-creazione e inserimento del file sitemap.xml
– essere citati da altre fonti (essere citati o meglio linkati da altri siti web è spesso considerato come sinonimo di qualità e/o interesse)

L’indicizzazione di un sito internet è la fase in cui il motore di ricerca raccoglie, analizza ed archivia i dati per facilitare la rapida e accurata ricerca di informazioni
Se un sito non viene indicizzato, non può comparire nei risultati di ricerca. L’indicizzazione di siti internet viene effettuata in maniera automatica dal motore stesso, tramite particolari programmi chiamati spider (“ragni”), che entrano in un sito e ne leggono il codice sorgente.

 

Lindicizzazione SEO è un processo, quindi un insieme di azioni, che ha come unico obiettivo quello di raccogliere le informazioni relative ad una certa pagina web e renderle disponibili nel database del motore di ricerca.

 

Interessante notare che quando un utente effettua una ricerca su Google, quest’ultimo deve interpretare il suo bisogno intrinseco nella ricerca, capire quale tra i tanti siti internet che compongono la rete risponda meglio al suo bisogno e restituire una lista di siti che soddisfino al meglio la richiesta dell’utente “intento di ricerca” (questa operazione deve avvenire in pochi istanti: è per questo che il motore deve avere già memorizzate al proprio interno il maggior numero possibile di info sulle pagine, pena l’esclusione della stessa/e dall’attività di ricerca).

Terminata l’attività di registrazione del sito, i motori di ricerca scansionano periodicamente i siti presenti nel proprio db per verificare eventuali aggiornamenti ricorrendo al servizio add-url (segnala un sito al motore di ricerca): tramite particolari programmi chiamati spider (letteralmente “ragni”, nel senso che essi attraversano la “ragnatela” di collegamenti eletto stereotipo con cui si raffigura simbolicamente il web), entrano in un sito e ne incominciano a leggere il markup HTML, alla ricerca di eventuali modifiche del contenuto o della struttura; procedendo in cascata, se trova un link a un’altra pagina del sito o ad un altro sito, analizza anche quest’ultimo di conseguenza.

Dopo aver scansionato la rete e quindi indicizzato (nel senso di raggruppato) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’analisi delle parole chiave contenute. In questo modo i motori di ricerca, tramite gli algoritmi, assicurano ai loro utenti contenuti validi e aggiornati. 

Quando il motore di ricerca termina di scansionare i siti già presenti in archivio passa a scansionare tutti i siti proposti nel motori di ricerca. Questo sistema è oramai obsoleto: è preferibile fare uso di strumenti più moderni per monitorare il proprio sito, come ad esempio la Search Console di Google.

Da notare che il sito non viene indicizzato se nel codice sorgente sono presenti determinate istruzioni (ad esempio come <meta name=”robots” content=”noindex”> oppure <meta name=”robots” content=”noimageindex”>); se invece non è specificato nulla a riguardo, viene indicizzato l’intero contenuto della pagina Web.

A questo punto, scansionata la rete e indicizzata (cioè raggruppata) una grandissima mole di pagine web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base all’apprezzamento delle parole chiave trovate al suo interno e alla “fedeltà” e attendibilità dei contenuti (ciò avviene in base alla logica dell’algoritmo utilizzato dal motore di ricerca). 

Avere un sito indicizzato su Google piuttosto che Bing o Flickr significa che le URL che lo compongono sono state inserite nella banca dati del motore di ricerca, e conseguentemente quando l’utente eseguirà una ricerca lo stesso comparirà nella SERP (lista dei risultati che vengono trovati). Quando si parla di indicizzazione è sempre meglio parlare in termini di singoli url e non del sito nella sua integrità: non è infatti detto le sue pagine (che possono essere anche svariate, ognuna delle quali  contraddistinta da un preciso “url”)  siano presenti nell’indice del motore di ricerca: alcune possono essere duplicate, altre possono finire nell’indice secondario di Google, altre possono risultare ignare perchè non essere ancora scansionate dallo spider.

Se le attività che riguardano l’indicizzazione sono eseguite automaticamente dal motore di ricerca, quelle di ottimizzazione (attività di SEO – Search Engine Optimization) vengono svolte dalle persone, con la finalità di incrementare il posizionamento organico (cioè non a pagamento) di un sito nei risultati dei motori di ricerca, con l’obiettivo di far apparire il proprio sito in cima alle liste di risultati.

Quindi indicizzazione e posizionamento sono due processi molto differenti tra loro. Il primo ha come unica finalità quella di inserire un sito o una pagina web nel database del motore di ricerca; il secondo invece, mediante opportune strategie web e di Inbound Marketing * mira a portare un determinato sito nelle primissime posizioni dei risultati organici di Google.

In principio era Responsive Design, ora spazio al Mobile First

(martedì 16 ottobre)

Se, dati Auditel alla mano, il presagio era già nell’aria almeno sette anni fa con la “rivoluzione” del Responsive Web Design, nel 2015 Google ha reso noto che, per la prima volta, il numero di ricerche effettuate da dispositivi mobili risultava maggiore di quelle da computer fissi. 

Dal 2017 Google ha avviato l’indicizzazione Mobile-First per i risultati di ricerca.
Finora i sistemi di scansione, indicizzazione e classificazione dei siti da parte di Google erano pensati per la versione desktop del contenuto di una pagina, non considerando così le tendenze attualizzate.

Da circa due anni il traffico internet globale mobile ha superato decisamente quello desktop: moltissimi siti, soprattutto quelli che forniscono notizie/dati in tempo reale, registrano sempre più accessi da mobile, soddisfacendo in questo modo l’utente in mobilità, e, in misura sempre decrescente, da desktop.

Si è assistito in una decade al rapido passaggio attraverso due tecniche “antitetiche”: da ‘Responsive Web Design’ a ‘Mobile First Web Design’. Essere mobile first significa progettare e ottimizzare il percorso dell’utente da smartphone, prima che da desktop.

 

Il mercato online risponde a questa tendenza e prende in considerazione la realizzazione di siti web orientati ai dispositivi mobili. La tendenza ora è quella del Mobile First, cioè partire dalla progettazione su mobile per poi pensare alle risoluzioni più alte, quindi attuare un Responsive Design al contrario.
Se la primaria preoccupazione perciò era di progettare siti che fossero mobile friendly curandone il design e la User experience, ciò ha posto questioni anche per chi si occupa di digital marketing, portando in questo modo a pianificare una customer journey invertendo così il polo di partenza (ora unità mobile e non più desktop), partendo dal presupposto che la fetta più grossa dei visitatori del sito/blog/landing page arriverà da un dispositivo mobile.

Se l’imperativo rimane quello del ‘mobile friendly’ (cioè progettare e ottimizzare il percorso dell’utente da smartphone, prima che da desktop, tramite un design responsive in grado di adattarsi alla visualizzazione su dispositivi con schermi ridotti) in alcuni settori lo status quo è viceversa rimasto invariato: la misura più efficace per muoversi in questo senso è di analizzare la situazione che si sta osservando e conseguentemente adottare strategie basate sulle analisi oggettive.

Se l’approccio Mobile First si configura come una scelta strategica specifica, anche i principi cardine nel campo del web design di conseguenza subiscono dei cambiamenti: il dispositivo mobile viene prima di tutto sia per quanto riguarda la configurazione, sia per quanto riguarda l’usabilità e la performance.

Il Mobile First al posto del Desktop First dunque. Vengono prima create pagine ottimizzate per i dispositivi mobili, poi seguono successive estensioni dei siti per desktop.

Fino ad ora, web designer e programmatori si sono occupati per prima cosa della realizzazione di un sito web per il desktop, immaginando una varietà di funzioni, grafici e possibilità creative, pensate per un monitor grande e per una connessione dati veloce; soltanto in una seconda fase seguiva la pianificazione del sito web per i dispositivi mobili, considerati di conseguenza solo come un’appendice al sito principale.

L’approccio Mobile First ribalta questa visione del lavoro e stabilisce altre priorità. Nella progettazione di una strategia vengono definiti innanzitutto quelli che sono gli aspetti centrali della pagina. Ciò vale non solo per contenuti e foto, ma anche per tutte le funzioni importanti e i moduli. In questa fase della progettazione, il pensiero alla base consiste nel concentrarsi sull’essenziale.

approcciare il mobile first

L’approccio Mobile First in sintesi:

Limitato all’essenziale
La programmazione non richiede troppi sforzi
Performance massime su tutti i dispositivi mobili
Accesso veloce alle informazioni
Design adatto allo schermo dello smartphone
Non più immagini grandi e funzioni inutili
Riduzioni del codice sorgente
Pagine programmate direttamente in HTML (JavaScript non viene usato)

Fondamentale è pianificare una soluzione ottimale per questi dispositivi; solo successivamente verranno ottimizzate versioni per desktop e laptop secondo il principio del Progressive Enhancement. Spesso nella realizzazione della strategia ci si avvale delle cosiddette grid, cioè ad una riorganizzazione concettuale basata sulle griglie. Il passo successivo sarà quello della configurazione di una pagina graduabile a seconda delle dimensioni dello schermo, in modo da presentare i contenuti su tutti i dispositivi seguendo i principi del responsive web design (design responsivo).

Con l’approccio Mobile First chi progetta il sito e le sue funzionalità ha già da subito le idee chiare su quali saranno i contenuti primari e secondari del sito, quindi si adopererà per visualizzare gli elementi importanti nel migliore dei modi.

Sostanzialmente cambierà il modo in cui il più importante motore di ricerca, indicizza e attribuisce il ranking alle pagine del tuo sito. Finora la scoperta e l’ordinamento dei risultati di ricerca in serp avveniva sulla base dell’analisi delle pagine lato desktop, scansionate dal crawler di Google e anche l’attribuzione del ranking avveniva sulla base della versione desktop delle pagine del sito.
Ora invece, cambierà la scoperta e il posizionamento delle pagine, utilizzando la versione mobile delle stesse.

Questa tecnica di approccio si basa su tre parametri interdipendenti: design, contenuti e funnel di conversione che comporta la ottimizzazione di percorsi per chi è in mobilità.
Ora, per il design la progettazione del sito implica ora un’approccio mobile da adattare poi al desktop (contrariamente a prima), badando a non inficiare la velocità di caricamento del sito. Diversamente da una risoluzione desktop ricca di immagini e testi, per un sito ‘mobile first’ è necessario tener conto delle ridotte dimensioni dello schermo e conseguentemente un adattamento dei contenuti. Il funnel – “imbuto” – di conversione fa riferimento a una strategia di marketing per tracciare il percorso che porta l’utente da una leads alla generazione di una conversione.

Secondo questo approccio, non si parte, quindi, da un layout e  funzionalità concepiti per il desktop per poi adattarli al mobile; al contrario, si parte ora dal contesto dei dispositivi mobili per concentrarsi al meglio sui contenuti essenziali.

COME PREPARARSI AL MOBILE-FIRST INDEXING

In un mondo in cui gli utenti navigano sempre più proprio tramite un telefono, introdurre ufficialmente il mobile-first index significa che Google utilizzerà la versione mobile della pagina come la principale su cui effettuare la scansione, l’indicizzazione e la classificazione del contenuto. L’obiettivo di tale cambiamento è quello di permettere agli “utenti mobile” di trovare la migliore opzione disponibile in base a ciò che stanno cercando. Google continuerà ad avere un solo indice, ma nella fase di scansione darà principalmente su un’esperienza mobile.
Finora la scoperta e l’ordinamento dei risultati di ricerca in serp avveniva sulla base dell’analisi delle pagine lato desktop, crawlate per mezzo del bot desktop di Google e anche l’attribuzione del ranking avveniva sulla base della versione desktop delle pagine del sito.
Ora invece, cambierà la scoperta e il posizionamento delle pagine, utilizzando la versione mobile delle pagine.

Per tentare di ottenere buoni risultati in tal senso e fornire la migliore esperienza possibile a chi naviga sul web, webmaster e proprietari di siti web dovranno pertanto utilizzare le pagine ottimizzate per mobile, laddove presenti, come principale punto di riferimento per l’indicizzazione sul motore di ricerca. Ciò non vuol dire però che se un sito desktop è più rilevante per una determinata ricerca, lo si vedrà comunque classificato più in basso delle sue alternative mobili.

Fermo restando che oggi, quando si sviluppa il sito web, una landing page o un qualsiasi contenuto visuale, bisognerebbe tener sempre bene a mente il concetto di “mobile-first” , i siti che potrebbero maggiormente essere interessati da questa variazione nell’indexing sono quelli che utilizzano una versione separata per le loro versioni mobili. Parliamo dunque, degli “m-site” o mobile site con separate url. 

Contro possibili allarmismi, vale la pena notare che Google non sta implementando due indici di ricerca separati per desktop e mobile (come si vociferava tempo fa), ma che sta semplicemente passando dall’indicizzazione delle versioni desktop dei contenuti alle versioni mobile. Il cambiamento al momento non influisce sul ranking: ciò che cambia è il modo in cui i contenuti vengono raccolti, non come viene classificato il contenuto. I siti che non dispongono di una versione mobile continueranno ad essere indicizzati in base a quella desktop.

Google presenterà per primi nei risultati di ricerca i contenuti del sito mobile. Se i crawler non troveranno una versione mobile, sarà inserita nella SERP la versione desktop del contenuto. “Se hai solo un sito desktop, continueremo ad indicizzare il tuo sito desktop, anche se stiamo utilizzando un user agent mobile per visualizzare il tuo sito” – si afferma dal blog di Google. In sostanza, se il sito è responsive non ci dovrebbero essere grandi modifiche da programmare. Certamente Google classificherà i contenuti sulla base dei segnali di ranking e della scansione dei siti effettuata da una visualizzazione mobile. Dunque saranno privilegiati in ogni caso contenuti mobile friendly, come avviene da almeno un anno, rispetto a siti desktop che rendono difficile, in termini di User Experience, la navigazione.

Il Mobile First Index avrà rilevanza sul posizionamento dei contenuti e su tanti aspetti del Web Design e della SEO.

 

 

 

 

 

 

 

Per ottimizzare un sito per il Mobile si hanno 3 opzioni:

  1. responsive website (stesso codice, stesso url, set css che adatta il rendering della pagina alla risoluzione dello schermo);
  2. dynamic serving (stesse url, più template html&css che si adattano alla richiesta del device). Questa potrebbe essere una soluzione ideale nello switch al mobile-first indexing in quanto comporta una riduzione del peso di css e script che lato mobile è inutile avere;
  3. sito separato (url differenti, contenuti differenti, link esterni differenti).

Un sito responsive o che implementa il dynamic serving, non comporta particolari problemi. 

Se invece il sito usa un m.site per presentare i contenuti, gli unici implementazione necessaria  per  far comprendere a Google che si tratta dello stesso sito (seppur tecnicamente sono due, facendo perciò pensare a due indici distinti), sono le annotazioni nel codice che devono permettere di segnalare nella pagina desktop la versione mobile, inserendo:

<link rel=”alternate” media=”only screen and (max-width: 640px)”
 href=”http://m.example.com/page-1″>

e, al tempo stesso, di segnalare, nella rispettiva pagina mobile, il legame con quella desktop, mediante il rel “canonical”.

<link rel=”canonical” href=”http://www.example.com/page-1″>

Occhio al fatto che le annotazioni vanno inserite solo nell’html della pagina o nella sitemap.

Questa è “la base” delle implementazioni che un sito con versione separata per il mobile dovrebbe rispettare.

Ottimizzare pagine HTML

(sabato 6 ottobre)

Tornare agli antipodi …

Ecco così può suonare il dover ritornare a lavorare su strutture apparentemente sorpassate per l’evolversi della tecnologia applicata, e l’ambito del web e dello sviluppo di siti è un esempio lampante.

Così si può trovare un senso di imbarazzo quando un cliente titolare di un sito web ci chiede di ottimizzare lato SEO un progetto in HTML, che cioè non poggia su una struttura CMS che sia WordPress, Joomla, Prestashop, Magento o altri ! …

Di fronte a questa richiesta il SEO più “vocato” potrebbe avere un momento di “fremito”, di smarrimento, un ‘… mmaaa …’, abituato o per meglio dire oramai orientato a fare una attività basata sui CMS (e i suoi strumenti): la richiesta potrebbe far … storcere un po’ il naso ….

All’occorrenza è bene sedersi, tirare un respiro … Orbene, anche il sito descritto con un CMS poggia sul codice HTML per cui no problem ! Per quanto ben strutturato, utilizzare caratteri vistosi o effetti grafici ‘pomposi’ accattivanti alla base di un sito web ci sta sempre il codice sorgente HTML: Google e gli altri motori di ricerca “leggono” questo codice per determinare dove devono apparire le pagine web per determinate query di ricerca.

Aperta la pagina del codice sorgente della pagina web, è possibile evidenziare alcune parti (“tag”) che, se ben curate, in ambito seo possono fare la differenza anche in questa modalità di approccio allo sviluppo.

Per una corretta analisi di un qualsiasi listato di codice, possiamo anzitutto individuare i due segmenti principali che lo costituiscono: la sezione <head> … </head>, dove includere alcune informazioni sul codice stesso, la definizione di formattazioni o effetti particolari, e la sezione <body> …. </body>, dove si ritrova il codice ‘nudo e crudo’.

Quando analizziamo e ‘confezioniamo’ debitamente gli elementi di una pagina web ci occupiamo di ‘SEO on-Page’.

Elementi importanti:

  • Tag <title>: il tag title assume una importanza basilare in una attività/analisi SEO (precisamente “SEO o-page). Si tratta della porzione di codice che, definita all’interno di un listato HTML, permette alla pagina web di poter essere presa in considerazione da un motore di ricerca e quindi posizionarsi in SERP.

    

 

Alcune cose importanti da ricordare per quello che riguarda il tuo tag title:

  • Assicurarsi di avere un solo tag title per ogni pagina web.
  • Assicurarsi che ogni pagina web sul sito abbia un tag title.
  • Assicurarsi che ogni tag title sul tuo sito web sia unico. Non cioé tag title duplicati.

 

  • Meta description: Appena al disotto del tag <title> trova posto un altro elemento i quale contiene una breve descrizione di quello che l’utente troverà all’interno e se troverà riposta al suo ‘intento di ricerca’. Quindi, è buona norma controllare e assicurarsi che sia su tutte le pagine web. Più importante, assicurarsi che non sia uguale su più pagine. La duplicazione di un meta tag description non è di per sé un errore grave (Google infatti non utilizza questo tag a scopo di ranking), ma è un grosso errore di marketing.

 

Evitare di sorvolare sulla meta description è consigliabile, poiché viene letta dagli utenti dei motori di ricerca: una buona frase può contribuire ad attirare più visitatori e aumentare la click-through rate

 

  • Intestazioni <H1>,<H2>, …, <H6>: Utilizzato per identificare il ‘titolo’ dell’articolo o di sue porzioni, questo marcatore H<n> risulta importante in chiave seo, dove ‘H1’ assume importanza strategica.

Non bisogna avere più di un tag H1 in ogni pagina web. Non si dovrebbe inoltre cercare di ottimizzare troppo le intestazioni H1, cioè non cercare di aumentare il SEO inserendo forzatamente la parola chiave nel titolo H1.

 

  • Tag di enfatizzazione: è sempre ‘strategico’ ricorrere all’utilizzo in modo parsimonioso di orpelli grafici (grassetto, corsivo, ecc.) per attirare l’attenzione dello spider: non eccedere nel loro utilizzo, sia perché ne ridurrebbe la rilevanza SEO, sia perché condizionerebbe la lettura dell’utente.

 

  • Alt text: Si tratta di un marcatore non scrupolosamente – e a torto – osservato: gli alt tag vuoti nelle immagini sono errori SEO. Il loro compito è proprio quello di indicare ai motori di ricerca cosa le immagini rappresentano ed è dunque buona norma non trascurare questo elemento perché “non importante”.

Rivestono una importanza qualora si abbia un sito e-commerce.

 

  • Anchor text: vale a dire il testo a corredo di u link inserito nel nostro codice e a cui Google dà importanza anzitutto per ‘riconoscere’ e comprendere la pagina di destinazione (possiamo anche inserire una keyword pertinente per “rafforzare”).

 

  • Google Analytics: Entrando più specificamente in un’ottica SEO, buona norma è incorporare nel nostro progetto un tool di analisi con Google Analytics, accertando che sia presente in ogni pagina web (in caso contrario, non si ha una effettiva analisi del traffico sul sito). Per Google Analytics, basta accertarsi della presenza di una riga di codice contrassegnata dal prefisso “UA” seguito da una stringa di 7 cifre.

L’avere la consapevolezza che questa linea sia presente su tutte le pagine del nostro sito non sempre è facile, soprattutto quando si gestiscono progetti di grosse dimensioni, con un certo numero di pagine. In questo caso può tornare utile avvalersi di un file sitemap (estensione .xml), un file di testo che contiene tutti gli indirizzi url del mio sito il quale può essere utile in particolare per tracciare quelli che potrebbero necessitare di maggiore attenzione

 

 

 

 

 

Un altro elemento che va assumendo importanza è la definizione dell’url della pagina web, strutturata in maniera tale che permetta di identificare il contenuto della pagina e preferibilmente composta da non più di 5 parole, raccogliendo nella parte più a sinistra eventuali parole chiave alleggerendo così il “cammino” del crawler.

Assume rilevanza anche l’ottimizzazione delle immagini che devono essere facilmente individuabili nel nome (vedi uso tag ‘alt’).

 

Altro fattore di miglioria in termini di ottimizzazione di una pagina, di qualunque ‘tipo’ essa sia, è data dalla velocità di caricamento della stessa, parte dell’ottimizzazione SEO di una pagina.

 

“Arte” di una pagina web è di saper ottenere dei backlink per cui assume importanza l’attività “lato seo” di link building cui è correlato il concetto di “link juice” ossia la capacità da parte del sito di ottenere un link da un altro sito web. Il legame che si viene a creare è visto dai motori di ricerca come un’approvazione, quindi un  fattore preso in considerazione dai motori di ricerca. “Link Juice” è un termine per definire il potere che il link fornisce al tuo sito web o pagina web in questione.

“Nofollow” è un attributo che annulla questa proprietà di link juice per il sito web considerato. Anche se una persona può comunque cliccare sul link, il succo del collegamento non viene passato.

Dal momento che alcuni esperti SEO ritengono che Google in realtà consideri in qualche modo anche i link col nofollow, se si vuole essere certi  del valore di un link, occorre accertarsi che non abbia questo attributo.

 

Image update algorithm

(martedì 2 ottobre)

Dopo lo scossone di inizio agosto che aveva messo in subbuglio gli operatori di settore facendo pensare a dover riscrivere le procedure operative da adottare causato dall’uscita di un repentino aggiornamento algoritmico, circoscritto inizialmente a determinate categorie – i siti meno EAT -,  ma che effettivamente ha sortito i suoi “effetti indesiderati” nella  cerchia dei cosiddetti siti YMYL (Your Money Your Life) e gli e-commerce disattendendone dunque le prerogative, ecco con fine settembre Big-G sfornarne un altro mediante il quale cercare di porre rimedio a quanto venutosi a determinare con l’update precedente, operando una sorta di riequilibrio nelle SERP (da qui il nome di Medical Update) delle varie categorie: il 27 settembre ecco arrivare l’Image Google Update.

 

 

 

Scostandosi dalla considerevole media (attendibile, perché fornita da fonti ufficiali) di modifiche annue al suo algoritmo, con gli accadimenti di questi ultimi due mesi si è andati oltre il muro delle 2000 modifiche.

All’alba del ventesimo compleanno del motore di ricerca per autonomasia, Google sfodera un aggiornamento incentrato sulla ricerca delle immagini, al fine di affinarne la qualità. Fattori discriminanti per il nuovo algoritmo saranno il posizionamento dell’immagine sulla pagina, l’autorevolezza e l’attendibilità dei contenuti connessi. Il nuovo algoritmo sceglierà immagini di qualità dalle pagine maggiormente autorevoli. Se, a sentire le communities dedicate, la rilevanza di problemi è stata di portata inferiore rispetto al precedente, con Google Medic (alias Google Image), che va a colpire un numero ottimale di siti, gli effetti sono ora distribuiti più equamente fra i vari settori, proprio perché si va di fatto a colpire un elemento comune a qualsiasi progetto web.

Secondo Google, le immagini che si presentano all’inizio dell’articolo / pagina e quelle che si trovano nel mezzo riceveranno la priorità nel risultato della ricerca di immagini. Ad esempio, per un negozio online che vende scarpe, avere un’immagine all’inizio di una pagina di prodotto dedicata a un paio di scarpe ottiene più priorità delle immagini in una pagina di categoria che mostra una gamma di stili di scarpe.

Posto che nelle maglie di una qualsiasi ricerca che facciamo su un motore di ricerca finiscono anche le immagini, è dunque inattendibile che immagini e ricerche tradizionali corrano su due binari separati.

Con l’algoritmo di ricerca di immagini il posizionamento di un’immagine avrà molta importanza nella definizione della relativa SERP e quindi delle priorità.

Se per contro l’update dipendesse solo dalle immagini, basterebbe seguire le linee guida indicate da Google:

  • posizionamento delle immagini nella parte superiore della pagina (se un e-commerce ha più immagini per lo stesso prodotto, l’immagine posta in alto sarà più visibile sui motori di ricerca);
  • utilizzare gli attributi ALT previsti a supporto delle immagini, in maniera che ne sia identificabile in qualsiasi caso il contenuto. Accertarsi che ci sia un rapporto semantico tra la pagina e l’immagine inserita al suo interno;
  • evitare di utilizzare immagini duplicate soprattutto per preservare un posizionamento già autorevole.

Operativamente, scansione delle immagini e della pagina web vengono eseguite simultaneamente, creando un indice di ricerca sulle prime. A questo punto entra in gioco l’algoritmo di ricerca che disattenderà le immagini contenenti spam eseguendone il downgrade mentre valorizzerà quelle più pertinenti e inserite in un contesto.

 

 

Aggiornamento algoritmo di Google di agosto: …stiamo sereni

(lunedì 10 settembre)
Prime indiscrezioni del ‘post-Google Update Algorithm del 1 agosto‘: appena se ne è sentita voce, la voce di un aggiornamento dell’algoritmo di Google alla vigilia della “serrata”delle saracinesche per ‘CHIUSURA ESTIVA’ era parso come uno spauracchio per gli addetti del settore i quali temevano in un “anatema” contro i risultati raggiunti con il proprio operato.
Di seguito una testimonianza di uno dei migliori SEO Specialist che al contrario dimostra, a distanza di un mese dal “refresh” di Google, come gli effetti scaturiti non siamo poi affatto allarmanti come si credeva, ad eccezione forse di quei settori (leggi settore medico e benessere) che già allora erano stati indicati tra gli altri per un riposizionamento attendibile.

 

Google Update 1 Agosto 2018

WordPress incontra Gutenberg: un binomio di web usability

(sabato 11 agosto)

WordPress Gutenberg: il piacere di scrivere

 WordPress 5.0 Gutenberg callout
WordPress 5.0 Gutenberg callout

In molti non se ne saranno accorti (o no ??) o non ci avranno fatto caso: da alcuni mesi accedendo alla bacheca di un blog realizzato con WordPress nella parte centrale si è fatta spazio un’anteprima destinata a scuotere la duttilità e l’utilizzo del CMS, interessandone cioè l’organizzazione strutturale. 

WordPress 5.0 Gutenberg callout

Con l’ultima versione, il CMS per autonomasia ha di fatto compiuto …. un bel salto all’indietro di 7 secoli, andando a scomodare Gutenberg (sì proprio quello della stampa a caratteri mobili) ! … L’adozione cioè di un nuovo editor visuale per la scrittura/gestione dei testi e articoli che scriviamo periodicamente, che inoltre va a semplificare l’approccio anche ai neofiti.

Atteso già dalla versione 4.8 del pacchetto, è con la versione 5.0 dello scorso mese di maggio – nella quale sarà quello predefinito – che è arrivata una ventata di novità in quanto de facto è stato reso fruibile al pubblico l’editor visuale, come alternativa a quello classico.

Il nuovo editor si presenta decisamente flessibile e promette delle novità interessanti nella gestione e stesura dei contenuti, proponendosi come una ineccepibile soluzione WYSWYG. Infatti, dalle premesse e prime indiscrezioni, Gutenberg permetterà di arricchire i nostri testi con una semplicità mai vista prima basata sulla scrittura a blocchi

Gutenberg editor demo
Gutenberg editor demo

, accompagnando l’utente praticamente nella progettazione minimale dei contenuti, rivolgendo questa potenzialità in particolare a chi non ha competenze specifiche, fino alla realizzazione di articoli ben formattati e adeguatamente strutturati.

Scrivere con WordPress Gutenberg è facile.
Scrivere con WordPress Gutenberg è facile
Working with Gutenberg blocks
Working with Gutenberg blocks

 

 

 

 

Pur mantenendo molte analogie con la precedente versione dell’editor, ‘Gutenberg’ si presenta maggiormente orientato alla web usability.

TinyMCE is no more
TinyMCE is no more

 

 

Un primo vantaggio confrontando le due versioni di editor è che quello targato ’GUTENBERG’ mette a disposizione un’area attiva maggiore, in particolare in larghezza, il che va a tutto vantaggio dei dispositivi con schermo ridotto, area che addirittura può essere adattata (“Post settings”) a tutto  schermo. Nella parte superiore a sinistra è inoltre presente uno switch che consente di passare dalla modalità visuale a quella testuale di visualizzazione del codice HTML consentendo così di creare o modificare blocchi direttamente da questa modalità. Ma la ciliegina la si apprezza quando viene selezionato un blocco di testo: vengono cioè mostrate le opzioni per spostarlo (i ‘tasti freccia’, su o giù), cancellarlo o accedere ad altre impostazioni di formattazione e stilizzazione. Sempre restando nella parte superiore dell’editor, si noterà l’assenza della tipica barra degli strumenti tipica di TinyMCE attivabile invece ora clickando sul pulsante “Insert” (.. ecco aprirsi un menu drop-down).

 

WordPress Gutenberg accompagna ad una nuova esperienza di produzione delle pagine basandosi sul concetto dei blocchi: quanto viene aggiunto di volta in volta alla pagina viene considerato come ‘un box separato’ e pertanto indipendente dal resto del testo quanto a formattazione e stilizzazione che vengono apportate.

Cosa significa lavorare per blocchi? Ogni paragrafo, immagine o video ha ora un editor specifico e può essere modificato indipendentemente dalle altre parti senza passare per la barra di formattazione principale (“presente” nello scrolling). Così per esempio se si plana su un paragrafo, ad esempio, si attivano i pulsanti per spostare il testo a sinistra o a destra, per aggiungere il grassetto e il corsivo. Oppure, a sinistra ci sono i comandi per spostare il testo sopra o sotto (le frecce) e il menu per aggiungere heading o quote.

Se parliamo di immagini, invece, ecco le opzioni per posizionare il contenuto rispetto al testo mentre il simbolo + visualizzato consente di aggiungere vari elementi quali titoli, liste puntate, liste numerate, foto e altro ancora. Queste vengono prelevate dalla libreria per essere inserite in un blocco con un certosino effetto fade ; inoltre, su di esse possono essere ora definite proprietà CSS.

 

 

 

 

Ecco le immagini prese da Gutenberg Editor Mockup.

 

 

 

 

 

 

 

Ecco il link ad un buon tutorial sulla presentazione e caratteristiche di WordPress Gutenberg:

 

E per una demo

https://testgutenberg.com/