Google Search scopre le reti neurali

(giovedì 31 ottobre)

E’ di questa settimana la notizia di un nuovo scossone all’algoritmo di ricerca di Google, una novità radicale che va ad impattare sulle ricerche vocali che costituiranno una fetta importante nelle ricerche online. Basandosi cioè sullo studio e l’applicazione delle reti neurali, il colosso di Mountain View sta implementando il motore di ricerca Google Search con una nuova tecnologia denominata BERT (Bidirectional Encoder Representations for Transformers), una tecnica che permetterebbe di analizzare una frase nel suo insieme e nel contesto in cui viene utilizzata, e non come finora analizzando ogni elemento a sé stante, in modo da comprendere meglio il significato delle richieste che si fanno online ed evitando così di fornire risultati piuttosto approssimativi.

Google afferma che il nuovo sistema potrà offrire un servizio migliore, soprattutto quando vengono utilizzate intere frasi come chiavi di ricerca. Finora infatti il motore di ricerca ha sempre avuto alcuni problemi con le ricerche più lunghe: nella maggior parte dei casi fornendo dei risultati generici, basati solo su alcune delle parole chiave utilizzate.

Al momento il sistema funziona solo in inglese ed è limitato agli Stati Uniti.

Con l’ausilio di questa nuova tecnologia, si stima un miglioramento delle ricerche online del 10%, andando a colpire in modo significativo in particolare l’ordine dei risultati.

L’avvento della tecnologia BERT è stata anticipata da altri tentativi di avvicinamento all’AI, con un orientamento più votato a cogliere umori ed emozioni del ‘linguaggio naturale’: Tay di Microsoft e i tentativi tramite chatbot conversazionali ne sono esempi, peraltro non sempre azzeccati negli ntenti_.

Google BERT non sostituisce Rankbrain, il primo metodo (datato 2015) di intelligenza artificiale di Google per migliorare la comprensione delle parole; piuttosto lo supporta nel compito. BERT aiuta Google a capire cosa intendono le persone quando digitano determinate parole per formare long tail keyword.


Si può affermare che l’intelligenza artificiale compie progressi importanti ogni giorno che passa: così, le applicazioni non fanno che migliorare notevolmente le performance nel riconoscimento delle forme di linguaggio parlato come pure le tecnologie di riconoscimento facciale e comportamentale delle persone. Ma mai come in questo caso vale la pena non andare di fretta; proprio questo tipo di applicazioni dell’AI implicano un procedimento non sempre lineare e privo di problemi legati all’approccio della macchina al ‘parlato’.

Siamo quindi vicini a sostenere una piacevole conversazione con automi artificiali? Occorre procedere con una certa prudenza per ragioni di varia natura.

Il lavoro di SEO copywriting è coinvolto. I modelli BERT, dunque, considerano il contesto di una parola e non il termine isolato. Passaggio importante per capire l’intento di ricerca che sta dietro a una query consentendo alle macchine di ottenere una migliore elaborazione del linguaggio naturale (NLP).

Ma questo era già chiaro, Google BERT non fa altro che avvantaggiare i contenuti di qualità.

Uso parole chiave: la rivincita della Long Tail

Qualsiasi campagna di ottimizzazione SEO inizia con l’individuazione e la scelta delle parole chiave più adatte per ‘aggredire’ la SERP per il miglior piazzamento del nostro articolo/pagina e spingere verso le primissime pagine il proprio sito; una fase che deve essere ben pianificata per poi vedere i risultati sperati. “Conditio sine qua non” è scegliere dunque opportune e ricorrenti parole chiave utilizzate nelle query su precisi prodotti/servizi.

Ma che logica adottare nel selezionare queste paroline magiche ? Ebbene, in risposta a questo quesito è possibile muoversi in vario modo: fra questi, oggigiorno l’ideale è la scelta di frasi o di combinazioni di termini (le keywords) che un utente potrebbe utilizzare nelle sue ricerche sui prodotti.

A questo fine, Internet ci mette a disposizione diversi tools anche gratuiti che si rivelano efficaci nelle loro finalità. Essi ci permettono di sondare anzitutto il livello di competitività intrinseca nella scelta delle keywords, andando poi a calibrare le nostre scelte sulla base dei riscontri permettendoci anche ad analizzare le strategie dei nostri competitors.

Anni fa considerata esplicitamente un escamotage alle tradizionali tecniche utilizzate per l’ottimizzazione dei siti web, non riuscendo allora ad affermarsi come una valida tecnica SEO, il progresso in termini di competitività e l’affinamento delle tecniche di posizionamento in SERP hanno fatto sì che fosse necessario rivedere e rimodulare le tecniche d’approccio, tenendo ferma l’esigenza di poter ottenere in tempi brevi delle conversioni piuttosto che avere potenziali clienti interessati ai nostri prodotti/servizi. Ecco allora che il poter arrivare già a un pubblico mirato, un traffico profilato giustifica il ricorso alla “coda lunga” ovvero a concatenazioni di parole piuttosto che letteralmente ad adoperare “frasi”.

La soluzione ottimale in termini di ‘piazzamento’ è cioè andare a cogliere le parole chiave con il minor numero di ricerche nell’arco di tempo prefissato.

Obbiettivo comune a ogni progetto SEO è di creare contenuti di qualità che possano rispondere ai reali bisogni degli utenti, conducendoli a compiere l’azione di clickare sul sito web, intercettando così da subito i suoi bisogni per avere maggiori possibilità di ottenere una sua visita/conversione. Si realizza così la teoria di Chris Anderson, per il quale ‘una strategia di marketing è più efficace se vengono preferiti prodotti che hanno un basso volume di vendita/richiesta da parte dell’utente oppure una bassa richiesta’ (prodotti di nicchia): questi possono difatti portare a costituire una quota di mercato cospicua e superiore a quella dei nostri competitors. Da ciò consegue che e’ preferibile utilizzare più parole chiave eventualmente combinate tra loro e caratterizzate da un basso volume di ricerca piuttosto che scegliere singoli termini ma con un alto volume di ricerca.

Statisticamente inoltre si possono contare fino a 5 diversi modi di operare per la determinazione delle parole chiave da utilizzare (1 parola, 2 oppure 3 parole chiave, 4 parole chiave, più di quattro parole chiave). Il ricorso all’utilizzo di 1-2 parole chiave risulterebbe essere la soluzione migliore mentre la percentuale si riduce per l’impiego di 3 o più parole.
Invece, poiché il successo – come detto sopra – risiede nella capacità di riuscire a conquistare e convertire potenziali clienti in tempi brevi, a tutt’oggi la soluzione migliore è quella che punta ad utilizzarne tre o più.

La SEO “coda lunga” è la strategia di preferire keywords con volume di ricerca inferiore (e tasso di conversione superiore) rispetto a scegliere poche parole chiave con un alto volume di ricerca.

Ad esempio se si vuole ottimizzare il sito di un negozio di prodotti tipici (vini rossi pregiati) per “bruciare” i competitors andremo direttamente a posizionarci per qualcosa di specifico (es.’ vini rossi pregiati’) piuttosto che un comune ‘vini’ o ‘vini rossi’, perché con questa specifica si ha già un’idea chiara di ciò che il visitatore cerca.
L’utilizzo di 3 parole rappresenta lo “zoccolo”, il nostro target in quanto è quello con le maggiori possibilità di ottenere conversioni.
L’ipotetica parola chiave ideale non è però quella che ottiene il maggior numero di visitatori (=maggior volume) ma quella che raccoglie il maggior numero di risultati (=conversioni).

E’ meglio utilizzare le long tail keywords rispetto alle short tail perchè oggi siamo di fronte ad un utente sempre più esigente.

SEO e SEM: l’unione fa la forza

Al cospetto di realtà imprenditoriali di maggior spessore, anche una piccola impresa ha la possibilità di mettersi online, andando a ritagliarsi così un opportuno spazio ‘competitivo’ in Rete: ciò ricorrendo ad un’oculata strategia fondata sostanzialmente su tecniche di web marketing.

Per ciò ci vengono incontro la SEO (Search Engine Optimization) e la SEM (Search Engine Marketing), attività che, se ben attuate e miscelate fra loro, consentono anche alle PMI di ottenere una cospicua crescita a livello digitale e raggiungere obbiettivi di visibilità on line inaspettati per la loro tipologia.

Due attività di web marketing efficaci sì, ma in cosa consistono in poche parole ?

SEO

La SEO comprende un insieme di tecniche e strategie mediante le quali aumentare la quantità di potenziali clienti e migliorare la qualità del traffico organico (cioè non a pagamento) verso il proprio sito web, generando in questo modo visite e traffico qualificato.
L’attività SEO garantisce, mediante opportune tecniche, di migliorare la visibilità on line in termini di ricerche per il proprio sito di attività/servizi e conseguentemente ne migliora il posizionamento nei confronti della concorrenza. Per contro, è alquanto attendibile che un sito web difficile da trovare (mancata adozione di simili strategie) non risulta essere una buona scelta per l’azienda né produce buoni risultati.

Le piccole imprese che adottano un piano SEO di qualità crescono più velocemente poiché lavorando ad una ottimizzazione del sito web
(basato su fattori On Page e fattori Off Page) per i motori di ricerca vengono dimezzati i tempi necessari per entrare in contatto con i potenziali clienti.


I vantaggi dell’attività SEO

Mediante una strategia SEO si ottengono risultati organici destinati ad avere successo maggiore nel lungo periodo, richiedendo contestualmente però un controllo e una cura costante. Andando cioè ad interessare specificamente la struttura del sito, gli effetti di una campagna SEO sono più duraturi e si propagano più fedelmente nel medio/lungo periodo.


SEM

Se la SEO mira ad aumentare il traffico organico (vale a naturale, che cioè non fa uso di strumenti/soluzioni a pagamento) verso il sito web attraverso l’utilizzo di tecniche gratuite mediante le quali si realizzano risultati organici (“strutturali”, propri del sito), l’attività SEM è orientata ad accrescere il traffico online mediante strumenti a pagamento (pay-per-click, ricerca a pagamento, pubblicità).

I vantaggi dell’attività SEM

Investire in annunci a pagamento fa sì che l’impresa possa apparire al momento giusto alla persona giusta (portando traffico profilato). L’attività SEM produce buoni risultati in poco tempo, rivolgendosi ad un pubblico già interessato al prodotto o al servizio offerti dall’azienda, perché terminati i benefici della campagna sponsorizzata ne svaniscono anche gli effetti, mentre una campagna SEO è stabile ed apprezzabile nel medio/lungo periodo: forse più gravosa perché riguarda direttamente il codice HTML ma i cui risultati sono più duraturi nel tempo.

Pur se adottate singolarmente, le due strategie promettono ottimi risultati se combinate insieme. Sta all’imprenditore, in ragione del proprio mercato, decidere quali delle due adottare, se non entrambe.

SEO e SEM hanno in comune l’obbiettivo di veicolare più traffico (mirato) possibile sul proprio sito web.

Gli effetti di un’attività SEM sono quantificabili nel breve periodo rivolgendosi ad un pubblico già interessato al prodotto/servizio, perchè terminati i benefici della campagna sponsorizzata ne svaniscono anche i benefici, mentre quelli che scaturiscono da una campagna SEO permangono anche nel lungo periodo.

L’unione di queste due tecniche consentirà una campagna di marketing digitale più forte, con ottimi risultati, permettendo alle piccole imprese di competere con i colossi aziendali, avendo investito in una strategia digitale completa e sviluppata in maniera ottimale, garantendosi in tal modo una crescita rapida e un successo duraturo.

Panoramica sulla SEO

(venerdì 8 febbraio)

Quando eseguiamo una ricerca su un qualsiasi motore di ricerca – Google Chrome, Internet, Safari, .. – viene generata un elenco pressocché infinita di risultati “attinenti” che prende il nome di SERP (Search Engine Results Page, ovvero “Pagina dei Risultati del Motore di Ricerca“). Ma come si origina questa lista ? con che logica e in base a quali criteri viene stilata seppur automaticamente ?
E’ questa una delle sfaccettature del Web che probabilmente rimane seminascosta ai più, specie se non si è interessati ad un “posizionamento” del proprio progetto web.
Esiste una “nicchia” che s’interessa specificamente e studia la collocazione di un sito web nella lista dei risultati che ci appare a terminale: stiamo parlando della SEO (‘Search Engine Optimization’). Un problema che assume indubbiamente particolare rilevanza per chi, titolare di una attività, fa del proprio sito una vetrina per la vendita di prodotti e/o servizi.


Il concetto di SEO nasce attorno al 1995 quando venne introdotto un insieme di strategie con la finalità di ottenere il miglior posizionamento – “ranking” – per un sito; al’epoca vigeva il dominio incontrastato di Yahoo! quale motore di ricerca. L’avvento di Google verso la fine degli anni Novanta comportò uno stravolgimento sul campo e la crescente complessità degli algoritmi che ne sarebbe conseguita, insieme al miglioramento dei nuovi motori di ricerca, compromisero gli equilibri esistenti sul mercato. Google inoltre cominciò a lavorare e lavora attualmente all’aggiornamento del proprio algoritmo per renderlo sempre più efficace e dettagliato nei risultati.

Fare SEO (Search Engine Optimization) significa adottare tutto un insieme di tecniche, strategie e regole finalizzate a far avere al progetto web su cui si sta lavorando un risultato di visibilità in termini di SERP. Scienza per definizione astratta in quanto non si basa su risultati certi e determinabili in un arco temporale definito bensì in continua evoluzione (si pensi all’adozione di algoritmi di ricerca sempre più affinati e specifici per ottenere il meglio dei risultati).

Componenti essenziali per condurre una buona attività SEO

Un’attività SEO, opportunamente preceduta da una attività di studio del settore e di pianificazione della strategia, a prescindere dal tipo di progetto da trattare, poggia fondamentalmente su due pilastri, due modalità operative: si tratta dell’Ottimizzazione SEO On Page e dell’Ottimizzazione SEO Off Page. Ognuna delle due tecniche prevede la necessità di dover operare su diversi parametri (‘fattori’) o adottare idonee strategie. La prima, tassello fondamentale della SEO, concerne l’adozione di determinati accorgimenti/migliorie sulla struttura del sito stesso (codice), la seconda riguarda tutto quell’insieme di strumenti che danno opportunità di far conoscere all’esterno il proprio sito (es. ottenere dei backlink – il fattore più importante per ottenere il miglior posizionamento possibile -. Essi in particolare vengono interpretati da Google come dei ‘punti’: più punti ottiene, più il sito è importante più Google lo premia con le prime posizioni).

Se per definizione l’Ottimizzazione per i Motori di Ricerca fino a non più di due anni fa era incentrata sul concetto di keyword e nozioni ad esse correlate come densità e ricorrenza e dava valore pure all’enfatizzazione del testo (grassetto, corsivo, ecc.), sia pure con l’introduzione di alcuni accorgimenti (ad esempio “long tail“), negli ultimi anni proprio l’inconsistenza del fare affidamento solo su di esse per una ottimizzazione seo emerse l’esigenza di andare oltre all’analisi delle kw per provare a comprendere il significato “intrinseco” delle parole in virtù di un “web semantico” (le keywords non erano più sufficienti ad ottenere risultati di qualità), ovvero guardare ad una specializzazione delle ricerche cogliendo l’accezione del termine ricercato (il valore semantico), ha fatto sì che cambiassero i “pesi” in gioco. L’avvento della semantica ha cioè fatto sì che non fosse più sufficiente affidarsi semplicemente ad uno specifico ed adeguato utilizzo di keywords in un contenuto/pagina web per migliorarne la visibilità in termini di SERP. SEO oggi significa adottare delle semplici regole che consentono ai motori di ricerca di comprendere l’argomento trattato dal sito/pagina e ai visitatori di trovare ciò che cercano.

Approcciando alla SEO occorre inoltre tener distinti i concetti di “indicizzazione” e “posizionamento”, termini spesso confusi … Indicizzazione è un processo naturale conseguente all’indicizzazione del sito; posizionamento è l’attività in senso stretto di ottimizzazione, interna ed esterna, del sito al fine di migliorarne la visibilità in termini di “query”.

Al concetto di SEO si affiancano quelli di SEM e Web Marketing. Detto della prima (‘Search Engine Marketing ‘) l’insieme delle attività messe in atto da un professionista dei motori di ricerca allo scopo di migliorare il posizionamento delle pagine di un sito web sulle pagine dei risultati organici (anche detti risultati naturali)
risultanti dai motori di ricerca – cioè non riconducibili a ‘strumenti a pagamento’ -, come Adwords o Adsense, Web Marketing indica invece le azioni di carattere commerciali – attuate per incrementare la visibilità e la rintracciabilità di un sito web tramite i motori di ricerca.

Verso il Web Semantico: il Knowledge Graph

(lunedì 4 febbraio)

Con l’avvento degli ultimi algoritmi supportati dai motori di ricerca (Hummingbird e RankBrain su tutti) la tendenza del settore è stata quella di fornire all’utente risultati sempre più specifici e attinenti alle query sottoposte (intento di ricerca). E questo sarà uno dei trend del settore nel 2019.

“Knowledge Graph”, questo sconosciuto

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) fu fin dal principio quello di classificare le informazioni disponibili nel web secondo una serie di relazioni. Gran parte dei servizi tecnologici che utilizziamo poggiano su enormi grafi.

Tutto questo lo fa grazie alla ricerca semantica, mettendo in relazione la query effettuata dall’utente col suo intento di ricerca e le informazioni che potrebbero essere più interessanti.

Il primo cambiamento di Google è stato nell’adozione di un motore semantico che pertanto potesse essere in grado di rispondere alle nuove esigenze di ricerca: di qui il motore di ricerca assume un connotato di intelligenza artificiale.

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) è da sempre quello di classificare le informazioni disponibili nel web secondo una serie di relazioni.

Con il supporto del Knowledge Graph Google è stato in grado di semplificare le ricerche affinando la ricerca semantica in senso stretto.

Come appare in una ricerca un Knowledge Graph

Schematicamente, il Knowledge Graph si presenta come una scheda informativa a destra nella SERP dove poter trovare informazioni su personaggi, luoghi famosi, città, opere d’arte, film, avvenimenti, eccetera (in funzione della query posta)… il tutto senza esplorarne i risultati.

Il pregio di questa soluzione è di ottenere ‘risultati migliori‘ incrociando informazioni provenienti da diverse fonti con altre da siti autorevoli individuati dal motore di ricerca.

Google Duplex


Recentemente, nel maggio del 2018, durante l’annuale conferenza di casa Google per gli sviluppatori, è stata presentata quella che passerà come una novità assoluta per il settore: “Google Duplex”, applicazione di machine learning deputata  a fare il lavoro.

Analizzando Google Duplex, si possono cogliere alcune peculiarità fondamentali: per la tonalità della voce, la capacità di interagire e di condurre la conversazione, Google Duplex sembra praticamente umano. Si comporta come un automa, cioè dietro al programma non c’è nessuno che suggerisce le risposte. L’assistente vocale è indipendente e risponde in maniera dinamica alle interrogazioni; non ha preregistrata nessuna serie di risposte da utilizzare bensì per ciò si basa sul “web visibile”. Potendo contare su un elevato numero di pagine web fornite dal motore di ricerca, di volta in volta è in grado di passare contenuti rilevanti in base a quella che è la ricerca.

In breve, Google Duplex è stato “allenato” ad utilizzare il linguaggio umano partendo da un elevato numero di conversazioni.

Il concetto di machine learning (in cui rientra come detto Google Duplex, che è strettamente correlato a quello di intelligenza artificiale, tecnologie valide che che si contraddistinguono per il fatto di riuscire a processare una mole enorme di dati in maniera velocemente.

Google Knowledge Graph, uno step oltre la parola chiave

16 Maggio 2012, Google annuncia per la prima volta ufficialmente il lancio di un enorme Knowledge Graph.

Prima ancora che Google nascesse, la ricerca era legata all’utilizzo di parole chiave: infatti, la parte di ricerca faceva uso di un semplice matching di parole chiave. Ma le parole chiave non sempre bastano.

Nel momento in cui sottopongo un termine cioé non è dato sapere con quale accezione (in che contesto) debba essere inteso ! ed è proprio qui che interviene la potenzialità del ‘knowledge graph’.

Cosa vuol dire “Knowledge Graph”

Knowledge Graph cambia le cose. Il “graph” sviluppato da Google, infatti, rende il motore di ricerca un elemento più vicino agli utenti e consente di ricevere risposte su cose, persone, luoghi, celebrità, squadre sportive, città, edifici, personaggi storici, opere d’arte. Tutto direttamente all’interno del motore di ricerca. Vengono annullate le ambiguità. Ora è in grado di riconoscere la differenza tra le diverse accezioni del termine e può proporre da subito le risposte alle possibili query.

Mentre maturava l’idea del “grafo”, un ulteriore passo in avanti lo si è fatto nel 2005 quando è stato introdotto il nuovo algoritmo RankBrain mediante cui a fronte di una ricerca è possibile ottenere i migliori risultati possibili, ciò utilizzando quella che viene definita “Intelligenza Artificiale”. Mediante questa, grossi volumi di info e dati vengono trasformati in entità matematiche (“vettori“) comprensibili all’elaboratore.

Componenti principali di un motore di ricerca

(30 dicembre)

Sappiamo tutti cosa sia un motore di ricerca ……, la sua funzione e il suo ruolo in tema di “ricerche”. Se Internet è uno strumento di cui oggigiorno non si può fare a meno, a livello ricreativo piuttosto che commerciale, il ‘motore di ricerca’ ne è una costola permettendo all’utente di ottenere le informazioni che cerca in pochi istanti (intento di ricerca). Tramite un motore di ricerca (“search engine”) è possibile analizzare una vasta quantità di dati restituendo contenuti correlati.

Con questo articolo intendiamo definire i principi che stanno alla base del funzionamento di un motore di ricerca.

Benché questa entità sia costituita da più elementi, si possono individuare dei punti cardine su cui poggia:

Scheduler: prende in carico quando il/i crawler deve attivarsi per il download di una risorsa relativa all’URL passato;

Spider (anche detto crawler o robot): costituisce il Corpus (archivio di documenti), loopando i dati da ogni indirizzo url passati al fine di sviluppare un elenco di pagine web , raccogliere le informazioni presenti e memorizzarle in determinati records;

Indexer: processa i dati raccolti dallo spider, al fine di ottenere indici e metadati che potrebbero tornare utili per snellire la fase di ricerca:

Parser: estrae ogni singola risorsa memorizzata nel repository e, dopo averne letto i contenuti, li suddivide a seconda della tipologia. Qualora l’unità presa in esame contenga a sua volta degli url questi verranno inviati nuovamente al repository. I dati che sono stati catalogati vengono a loro volta etichettati e risulteranno più determinanti per permettere al motore di ricerca di offrire le informazioni più rilevanti;

Query Processor: definito anche Search Engine Software, accetta richieste e fornisce risposte; determina i risultati in base ala loro rilevanza sulla query.

La natura dei motori di ricerca è in continua evoluzione per venire incontro alle esigenze degli utenti con le loro richieste, è un mondo in continua evoluzione: pertanto, a fronte dei repentini cambiamenti è necessario prendere coscienza che occorre essere aggiornati e attenti alle mutazioni del mercato.

Il rapporto tra SEO e Web Marketing

Cosa accomuna due parole, una che oramai risuona facilmente ha a che fare con il settore web e il (web) marketing qualcosa ?

SEO e Web Marketing due termini sempre più strettamente in relazione tra loro oggigiorno che stanno prendendo sempre più piede sul mercato e più specificamente parlando di siti e commercio, e che sono interdipendenti.

Del primo fino a qualche anno fa la definizione ideale sarebbe stata ‘l’insieme delle attività atte a migliorare il posizionamento di un sito/pagina su Google’.

Mentre “Web Markerting” indica ‘un processo che ha come fine quello di favorire l’incontro fra domanda e offerta, di beni o servizi’. Ora veniamo alla parolina ‘Web’: l’accostamento fa sì che, se pubblicità e rapporti commerciali sono i mezzi tramite cui si realizza il marketing (‘tu vai a cercare il cliente’), viene letteralmente ribaltato il significato della parola: ora diviene “qualcuno che ti cerca“, sì che non devi più correre dietro ai potenziali acquirenti per attrarli verso le tue offerte, non più dunque sottostare ‘ai suoi umori’ poiché ora è lui che vuole ciò che tu vendi.

Tornando invece alla definizione primaria, bisogna operare alcune sostituzioni etimologiche: non più “posizionamento” ma “visibilità” in virtù della potenza che oggi l’aggiunta dei rich snippet e di altri tag (title, meta description) realizza un significativo gap in termini di visibilità del progetto/prodotto; “contenuto” al posto di “pagine” dal momento che oggi si posizionano sui motori anche singoli contenuti e non solo pagine (ad es. i video).  Attualmente “Google” andrebbe sostituito con “motori di ricerca“: Google rimane sempre il numero 1 in diversi paesi, ma non ovunque (si pensi ad esempio  alla Cina e alla Russia). 

Verosimilmente, il sito può essere allora pensato come ad un imbuto (tecnicamente, “funnel“): da una parte entrano gli utenti ‘alla ricerca’, dall’altra escono le “conversioni“, ciò che noi vogliamo l’utente faccia (una richiesta di contatto, la compilazione di un modulo, fino alla vendita).

da questo punto di vista è quindi accogliere il visitatore, facendolo atterrare sulla pagina del proprio sito e a proprio agio, e potergli fornire la miglior risposta possibile per ciò che cerca, con l’auspicio che compia l’azione finale, determinante.

‘Il Crawler’, questo sconosciuto

(sabato 24 novembre)

Attività metodologiche di un crawler
Attività metodologiche di un crawler

Con il termine “crawler” (chiamato anche ‘web crawler‘, spider o robot) si intende un qualsiasi programma che può essere utilizzato per l’individuazione (cioè “verificare la presenza in Rete”) e la scansione automatiche dei siti web, compresi eventuali link che rimandano ad altre pagine web. Ogni motore di ricerca ne ha di suoi specifici: ad esempio, il crawler principale di Google è Googlebot.

Il loro utilizzo è definito nella parte descrittiva nel file robots.txt, il quale può prevedere diversi crawler. Inoltre, possono essere specificati anche dal meta tag robots o nelle istruzioni HTTP X-Robots-Tag.

Definizione Web Crawler
Definizione Web Crawler

 

 

Google bot
Google bot

 

Crawler Token dello user-agent (utilizzato nel file robots.txt) Stringa completa dello user-agent (come mostrata nei file di log del sito web)
APIs-Google
  • APIs-Google
APIs-Google (+https://developers.google.com/webmasters/APIs-Google.html)
AdSense
  • Mediapartners-Google
Mediapartners-Google
AdsBot Mobile Web Android 

(Controlla la qualità dell’annuncio nella pagina web Android)

  • AdsBot-Google-Mobile
Mozilla/5.0 (Linux; Android 5.0; SM-G920A) AppleWebKit (KHTML, like Gecko) Chrome Mobile Safari (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot Mobile Web 

(Controlla la qualità dell’annuncio nella pagina web dell’iPhone)

  • AdsBot-Google-Mobile
Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1 (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot 

(Controlla la qualità dell’annuncio nella pagina web per desktop)

  • AdsBot-Google
AdsBot-Google (+http://www.google.com/adsbot.html)
Googlebot Immagini
  • Googlebot-Image
  • Googlebot
Googlebot-Image/1.0
Googlebot News
  • Googlebot-News
  • Googlebot
Googlebot-News
Googlebot Video
  • Googlebot-Video
  • Googlebot
Googlebot-Video/1.0
Googlebot 

(Desktop)

  • Googlebot
  • Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
  • Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36o (utilizzato raramente):
     
  • Googlebot/2.1 (+http://www.google.com/bot.html)
Googlebot 

(Smartphone)

  • Googlebot
Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Mobile AdSense
  • Mediapartners-Google
(Vari tipi di dispositivi mobili) (compatible; Mediapartners-Google/2.1+http://www.google.com/bot.html)
Mobile Apps Android 

(Controlla la qualità dell’annuncio nella pagina per app Android. segue le regole dei robot AdsBot-Google.)

  • AdsBot-Google-Mobile-Apps
AdsBot-Google-Mobile-Ap

I crawler più comuni di Google

 

Un crawler è un tipo di bot (programma o script che automatizza delle operazioni), e i crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.

Sul Web, il crawler si basa su una lista di URL da visitare fornita dal motore di ricerca (il quale per ciò si basa sugli indirizzi suggeriti dagli utenti o su una lista precompilata). Durante l’analisi di un URL, lo spider identifica tutti gli hyperlink presenti nel documento e li aggiunge alla lista di URL da visitare.
Il comportamento dei crawler attivi in Rete è tracciato da quanto definito nel file robots.txt, individuabile nella root del sito. 

Esistono anche crawler open source. In particolare, è definito nella riga ‘User-agent‘ mediante una stringa di testo (“token“).

 

Per capire come si svolge veramente un’attività di SEO e quindi come funziona l’algoritmo di Google, occorre conoscere e capire come funzionano le due “menti” operative di GoogleBot, ovvero lo spider ed il crawler.
Spider
L’attività principale dello spider è di farsi una copia del codice html delle pagine di un sito web, suddividerlo in parti, quindi procedere a farne il controllo spam, salvare un estratto dei contenuti nell’Index ed in alcuni casi inviare una immagine (copia) della pagina alla cache. Per sapere come trovare la copia cache delle proprie pagine ecco un post sui comandi avanzati.

Crawler
La funzione del Crawler è analizzare e seguire i link forniti dallo spider nella sua attività di scansione delle pagine. Tutti i link seguiti dal crawler sono analizzati in profondità in base ad una serie di parametri (anchor text, proprietario del dominio, whois etc.) che permettono a Google di capire il valore SEO reale di ogni link e quindi eventuali penalty. Se il crawler trova nuove pagine non presenti nell’indice dello spider, li comunica allo spider stesso che ricomincia la scansione e indicizzazione.

 

In una accezione secondaria, il termine web crawler viene utilizzato anche per indicare programmi (come PageNest, MSIECrawler, Offline Explorer) concepiti per scaricare il contenuto di un intero sito web sul disco fisso del computer.

“Polimorfi” tacciati da Memory Alpha in quanto, accedendo al sito in modo aggressivo, implicano un rallentamento drastico delle possibilità di accesso al sito stesso da parte dei visitatori.

 

2019: la SEO che sarà

(martedì 6 novembre)

Già il secondo semestre del 2018, disseminato di novità inerenti la parte algoritmica e tendenze di ricerca sempre più dettagliate, ha gettato le basi per quelli che saranno i trend della SEO nel 2019.

La chiave per essere all’avanguardia nel settore della SEO è prevedere i futuri sviluppi con un occhio di riguardo alle mosse di Google. E quindi

  • USER EXPERIENCE

Già dal 2015 con l’algoritmo RankBrain, nato e sviluppato sull’onda del coetaneo e predecessore Hummingbird

, si è fatto un determinante passo in avanti nell’ottica di avere risultati sempre più mirati e soddisfacenti per quelli che sono gli intenti di ricerca dell’utente. Ciò a tutto vantaggio della user experience (o UX) si intende l’esperienza che un utente prova quando interagisce con un qualsiasi prodotto, sistema o servizio, di design, che sia fisico o digitale”.

                  

  1. MOBILE FIRST

L’inversione di tendenza registrata da inizio 2018 a proposito delle ricerche online appannaggio dei dispositivi mobile (60% con punte addirittura del 90% in alcun nicchie) è stato l’impulso per quello che è noto come ‘Mobile First’, cioè la realizzazione di un sito web partendo da quella che è la risoluzione di un dispositivo mobile adattandosi via via alle risoluzioni maggiori, rimanendo fedele cioé al progetto iniziale ma capovolgendo il concetto di Responsive Web Design.

 

  1. CONTENUTI VIDEO

Partendo da un’intuizione brillante ma fondata, un elemento destinato a fare la differenza sarà quello di incentivare l’utilizzo di contenuti video e multimediali, in armonia con una giusta combinazione con i testi.

 

  1. RICERCA VOCALE

Correlata alla importante crescita fatta registrare dal settore mobile è quella delle ricerche vocali. Non più intesa come ricerca di un numero di telefono da chiamare o per comunicare keywords, l’intento che si insegue è di dare comandi attraverso la voce consentendo così di risparmiare tempo (si pensi ad esempio quando si hanno le mai occupate).

 

  1. FEATURED SNIPPET

Effettuando una qualsiasi ricerca su Google per una parola chiave popolare oltre ai canonici risultati organici e a pagamento potrebbero essere mostrati, nella parte superiore della pagina, delle porzioni di altre pagine web che vengono richiamate con lo scopo di dare una risposta diretta alla query. Non essendo a pagamento, l’unico modo per far apparire il featured snippet è ottimizzare il sito.

 

  1. OTTIMIZZAZIONE CONTENUTI E SEO ON-PAGE

I focus finora illustrati non devono però mettere in secondo piano l’ottimizzazione on-page e la qualità dei contenuti, dal caricamento delle pagine all’ottimizzazione dei (meta)tag di una pagina all’evitare contenuti duplicati …

(Rif. www.progettofirenze.com/blog)

 

Col nuovo anno dunque la Seo sarà particolarmente incentrata sull’esperienza utente da mobile e sui contenuti di valore, oltre che su link e menzioni.

Entrando più nel tecnico, non si può non denotare che l’annata in corso ha portato alla ribalta il passaggio al protocollo per la comunicazione sicura “HTTPS” in sostituzione del vecchio “HTTP” (in realtà ancora largamente usato) e il sistema “AMP” (Accelerated Mobile Pages, in verità lanciato già da circa tre anni) “spinto” per velocizzare il caricamento delle pagine su dispositivi mobile.

 

Oltre a questi parametri, dovremo continuare a focalizzare la nostra attenzione innanzitutto su contenuti di alta qualità, sulla lunghezza dei testi, su un equo utilizzo delle keyword, dei link interni e dei vari h2 … h6, sull’uso di una adeguata meta descrizione (da molti ormai reputata secondaria, ma invece talvolta di importanza strategica) e di un valido indirizzo URL, sulla valorizzazione di video e fotografie all’interno delle pagine e, naturalmente, sul confronto continuo con altre realtà concorrenti e sulle intuizioni personali in modo da riuscire ad anticipare proprio la diretta concorrenza.

 

Accanto alla Search Engine Optimization, parlando di segnali di evoluzione non va dimenticato il Content Marketing (“Content is the King”), uno dei pilastri del Web Marketing e che procede di pari passo con la realizzazione di siti web in quanto entrambe le attività sono ‘rincorse” al fine di  fornire ai visitatori ciò di cui hanno bisogno, nella forma migliore possibile.

Se è innegabile che  gran parte delle chiavi di ricerca secche a intento commerciale siano ‘in mano’ ai colossi internazionali (eBay, Amazon, ecc.), diversamente avviene per le ricerche di tipo informativo, alle quali ognuno può rispondere con contenuti approfonditi ed esaustivi per guadagnare la fiducia del proprio pubblico. Le ricerche informative infatti possono nascondere intenti di acquisto utili per i propri scopi commerciali.

Soddisfare query informazionali nasconde la possibilità di diventare autorevoli punti di riferimento per le persone che avranno bisogno di prodotti e/o servizi per rispondere ad esigenze simili. Necessità alle quali si può rispondere offrendo articoli per il blog, ebook, video guide, infografiche.

Investire sul Content Marketing significa puntare sulla costruzione di autorevolezza agli occhi del proprio pubblico attraverso la realizzazione di contenuti realmente utili, originali e di valore. La produzione di contenuti è un processo di costruzione di credibilità e valore che permane nel tempo e che si auto-alimenta per mezzo della continua crescita di notorietà del brand.

 

 

 

SEO Audit: cos’è e come si fa

(sabato 3 novembre)

SEO Audit: cos’è e come si fa

 Ecco, un lavoro ci è stato commissionato: la ditta X ci incarica di realizzare un sito per la sua attività … Bene, come da ABC procediamo anzitutto ad un colloquio dettagliato nel quale “capire” il segmento dove lavora, il target di clienti che vuole raggiungere, che finalità ha il sito …..

Dopo una prima elaborazione del progetto web e (gli inevitabili) doverosi successivi aggiustamenti da apportare su richiesta del cliente, la “creatura” è pronta per essere data in pasto al mare magnum di Internet e ai motori di ricerca, con l’obbiettivo di ottenere un buon posizionamento in SERP, sapendo di contare su un sito ottimizzato dal nostro collega.

Già, ma come ogni cosa su questo mondo ‘tutto è relativo’, anche il nostro buon lavoro !

 

Ecco allora che il lavoro del SEO non si ferma al ‘confezionamento’ del sito web con tutti i dogmi richiesti per l’ottimizzazione SEO ma occorre monitorare costantemente quanto fatto: questo è fare SEO AUDIT.

Si tratta di uno step indispensabile per ottenere un buon risultato … da piazzare, e oltretutto necessario nel condurre un’attività SEO. Consiste in una analisi strutturale, dei contenuti e concorrenziale del sito web, andando così ad analizzare tutti gli aspetti – interni ed esterni – che potrebbero influenzare il posizionamento sui motori di ricerca.

Con questa attività è così possibile individuare i punti di forza e di debolezza del sito, e di conseguenza apportare le dovute correzioni con un’opportuna serie di attività SEO al fine di massimizzare il risultato.

Non esiste un’unica strada per perseguire un’analisi di SEO audit anzi, al contrario ognuno avrò una checklist personale.

Questo significa che ognuno di noi avrà una personale checklist per quanto riguarda l’audit SEO di un sito web. Quella che segue è la mia personale lista, spero tu possa trarne qualche spunto interessante. Per prima cosa va detto che la mia analisi SEO è articolata in questo modo:

  • Analizzo il settore.
  • Passo gli aspetti on site.
  • Affronto i punti off site.

Analisi del settore

La prima operazione: fare un’analisi del settore. E’ importante capire chi sono i principali competitor, quali contenuti offrono, come sono strutturati e quali sono i punti di forza.

Cerco di individuare le keyword più importanti del settore e faccio delle ricerche per scoprire i siti che si posizionano, in modo ricorrente, ai primi posti dei motori di ricerca.

Questa sezione è utile per individuare, velocemente, i siti che hanno pagine posizionate per le parole chiave che ci interessano sul serio.

Una volta individuati i competitor passiamo alla parte più importante: analizzare i siti. Questo lavoro va fatto manualmente.

L’obiettivo è quello di capire cosa offrono, in termini di servizi/prodotti/contenuti, i principali competitor. Un buon metodo è di effettuare un’analisi a mano, visitando i siti e annotando gli aspetti rilevanti di ognuno.

Raccolgo i numeri in un file Excel per poi fare delle stime medie; mi interessa individuare quelle che sono i “servizi aggiuntivi” che possono essere inseriti nel settore. Ad esempio, tramite di esso potrei accorgermi che tutti i principali competitor offrono un servizio di informazioni H24 attraverso un numero verde, o magari che nei contenuti più importanti hanno deciso di includere dei video.

Insomma, questa fase preliminare mi permette di avere una panoramica del contesto e di quello che fanno i concorrenti che Google premia, posizionandoli meglio nelle serp di riferimento.

Analisi degli aspetti on site

Mi pongo dinanzi al sito con l’obbiettivo di analizzarlo, mettendomi nei panni dell’ utente standard. Mi pongo una serie di domande cercando di rispondere agli aspetti informazionali, legati all’usabilità e alla fiducia del sito (Il sito è facilmente navigabile ? Capisco subito cosa offre ? Il caricamento avviene in tempi accettabili ? I contenuti soddisfano le mie esigenze ?). Interessa capire se l’utente è messo nelle condizioni di poter trovare quello che cerca.

Il secondo passo è quello di analizzare il file robots.txt per controllare se i motori di ricerca hanno accesso a tutte le pagine che devono essere indicizzate o, viceversa, escluse.

A questo punto, individuati i punti deboli del sito posso procedere con l’analisi attraverso i SEO tool (Search Console, Visual SEO Studio, Seo PowerSuite, Seozoom, Google Analytics). 

 

 

Analisi off site

Per analisi off-site si intende l’insieme dei fattori che sono esterni al sito (link, citazioni, ecc.). In questa fase diventano importantissimi gli strumenti di analisi; fra questi, di indubbia utilità sono:

  • Ahrefs: per fare un’analisi approfondita dei link;
  • Buzzsumo: per analizzare la visibilità sui social network;

L’analisi dei fattori off site siamo consente di perfezionare la strategia SEO: valutare, ad esempio, le azioni per rafforzare una eventuale campagna di acquisizione link.

È il momento dell’analisi SEO del sito

La prima parte della SEO Audit è andata. Hai individuato i dati essenziali del contesto, usato i SEO tool per analizzare i competitor, concentrando l’attenzione su quanto è on site e quanto off site al sito. A questo punto siamo in gradi di determinare i fattori essenziali per la SEO Audit:

  • Abbiamo una panoramica della struttura del sito;
  • Siamo in grado di valutare la user experience;
  • Individuare possibili errori nel codice o nei meta tag;
  • Quali contenuti mancano al sito per poter essere competitivo.
  • Il sito presenta dei contenuti duplicati.
  • Presenza di contenuti che sono impossibili da indicizzare per Google.
  • Cosa manca, dal punto di vista dei link, per poter massimizzare la visibilità sui motori.

Tutte queste informazioni, insieme all’analisi preliminare dei competitor, ci permettono di sviluppare la nostra analisi SEO. Si può ora andare ad elaborare un PDF in cui inserire tutti i dati raccolti in tabelle. In questo ci può essere molto utile Excel, altrimenti ci sono le mappe mentali.

Meglio i SEO tool o un lavoro manuale ?

Parlando di analisi SEO sarebbe ipocrita non sottolineare l’importanza dei tools, i quali assumono un ruolo non indifferente nell’attività e consentono di accedere velocemente a informazioni preziose.

Ma sarebbe corretto però affermare che i tool “sono tutto” in quanto è buona prassi comunque navigare il sito e esplorarlo per comprenderne le sue dinamiche.

Il filo conduttore è che se il sito non è pensato per soddisfare la search intent degli utenti non andrà lontano: se il sito non è semplice da navigare, se i contenuti non sono organizzati nel modo giusto o non sono presenti le informazioni di cui gli utenti necessitano, nessuno acquisterà mai il prodotto/servizio.