Dal Digital Marketing si leva la crociata per la "HUMAN EXPERIENCE"

(giovedì 23 gennaio)

Da almeno due anni a questa parte il settore del branding e del marketing più in generale (1 2) sono animati da continue novità o aggiornamenti in tema di metodologie di approccio (leggi ‘algoritmi’) e tecniche, sempre più automatizzate e mirate (approccio e specializzazione dell’Intelligenza Artificiale 1 2) le quali, seppur indirettamente, per la logica delle metriche adottate ed i loro strumenti, stanno distraendo gli operatori da quello che è il loro obbiettivo: raggiungere il destinatario, l’utente finale.

Pertanto sorge l’esigenza di ridisegnare il concetto di customer journey, mediante cui rimettere “al centro” l’utente.

Gli stessi operatori di settore convergono nell’affermare che ‘è vitale rifocalizzarsi sulle persone’ (“buyer personas“) e, in particolare, su un processo che conduca al cliente in maniera più trasparente, con meno congetture e più diretto.

Ciò comporta di accantonare il meccanismo del funnel, strumento diventato suo malgrado come il miele per le api, non sempre efficace tuttavia per portare ad una visibilità che veramente converta in transazioni e comportamenti davvero utili.

Ecco allora l’invito ad una riscoperta dell’approccio human oriented: mettere dinanzi a noi una lavagna su cui andare a delineare personalmente, in maniera asettica da fattori esterni, finalità e modalità d’approccio per ‘rimettere al centro la buyer persona‘ così tanto inseguita e quindi costruire una tecnica di clustering.

L'arte dello 'scrivere semplice'

Letto ? Capito ?? … Ok, partiamo !

Quante volte pensiamo di “avere le carte in regola” per fare, pensiamo di aver capito, di potere e riuscire a scrivere bene ? Se non accorgersi dopo i primi (un pò) di tentativi che qualcosa non torna !! …
‘Ma come ! .. Ho seguito alla lettera le indicazioni, il mio ‘ABCDeario’; e ora non vedo “ritorni”, …, apprezzamenti, riscontri positivi …; ciò dopo (casistica non isolata) essersi (s)venduti (insana ma ricorrente pratica in chi si butta nella cerchia) !

Vediamo: ma tu come approcci alla capacità di sviluppare, (ri)creare testi/contenuti ?
Ci sono infatti alcuni punti fissi che non vanno sottovalutati nell’arte del copywriting.
Saper scrivere semplice è un obbiettivo che il copywriter in particolare deve riuscire a raggiungere; sembra un paradosso ma quello che segue è uno scotto che si paga inevitabilmente: “difficile raggiungere la semplicità“.
Il perché trova risposta nella ragione che quando scriviamo, o meglio riscriviamo, utilizziamo vocaboli, verbi, ecc. “nostri”, quasi riversando sulla tastiera quanto ci viene in mente ! Ma scrivere semplice richiede inevitabilmente il saper mettersi al livello del lettore (alla stessa finestra); ciò vuol dire che il nostro elaborato deve essere ‘limato’, smussato, liberato da elementi che abbiamo ritenuto utile aggiungere ma che alla fin fine non rendono chiari i concetti.
Al centro il lettore: ‘scrivere semplice‘ è sinonimo di empatia: mettersi alla finestra; abbandonare – per usare un eufemismo – la nostra “linea” in favore di chi legge. Una buona ricetta per dare continuità (“sopravvivenza”) al proprio blog e anzi aumentarne le visite, in un certo senso renderlo ‘competitivo’ e perché no’autorevole’.

Attenzione però: scrivere semplice non vuol dire sminuire lo scrivere ! … bensì liberare un qualsivoglia testo da tutto ciò che è superfluo senza però intaccarne la sostanza.
Una bella metafora è di considerare il web writer come uno scultore che, trovandosi dinanzi un blocco di marmo (‘prima bozza’) la smussa, la ritocca con lo scalpello ripulendo la pietra iniziale facendo così emergere chiara la figura che è al centro.

Ci sono alcuni punti focali che devono essere tenuti presenti per scrivere meglio:

  1. Usa frasi attive. Essere diretti ed evitare enunciati complessi.
  2. Scelta delle parole. Un ruolo chiave nell’arte del copywriting sta proprio nella scelta delle parole
  3. Impara a usare i verbi. Colta la centralità nella frase del verbo, è opportuno utilizzare verbi diretti in modo cioè da rendere chiaro il messaggio.
  4. Il nucleo della frase. La frase deve essere costruita in modo tale da rimarcare la vicinanza tra soggetto e verbo.
  5. Sviluppo dell’idea. Concentrarsi sul concetto da comunicare; e in base a ciò, strutturare il nostro articolo “step by step”; così ogni frase conterrà un messaggio, ogni paragrafo un concetto.
  6. Evitare frasi troppo lunghe. Se le frasi brevi aiutano la leggibilità del testo, ciò non vuol dire rinunciare a prescindere ad utilizzare quelle più lunghe. O meglio, utilizzarne sì ma sempre tenendo ben presente la semplicità del testo.
  7. Non usare equivalenze. Ovvero evitare di utilizzare parole similari con lo stesso significato a breve distanza.
  8. ‘Emotività’ indispensabile. Per dare più enfasi a ciò che scriviamo occorre puntare sul fattore emotività nello scrivere in modo tale da attirare realmente l’attenzione del lettore.

Ma scrivere semplice non è affatto facile: non si impara l’arte su due piedi. E’ proprio qui che subentra il fattore “empatia“: mettersi cioè dalla parte di chi legge non soddisfare solo la nostra esigenza di comunicare.

Google Search scopre le reti neurali

(giovedì 31 ottobre)

E’ di questa settimana la notizia di un nuovo scossone all’algoritmo di ricerca di Google, una novità radicale che va ad impattare sulle ricerche vocali che costituiranno una fetta importante nelle ricerche online. Basandosi cioè sullo studio e l’applicazione delle reti neurali, il colosso di Mountain View sta implementando il motore di ricerca Google Search con una nuova tecnologia denominata BERT (Bidirectional Encoder Representations for Transformers), una tecnica che permetterebbe di analizzare una frase nel suo insieme e nel contesto in cui viene utilizzata, e non come finora analizzando ogni elemento a sé stante, in modo da comprendere meglio il significato delle richieste che si fanno online ed evitando così di fornire risultati piuttosto approssimativi.

Google afferma che il nuovo sistema potrà offrire un servizio migliore, soprattutto quando vengono utilizzate intere frasi come chiavi di ricerca. Finora infatti il motore di ricerca ha sempre avuto alcuni problemi con le ricerche più lunghe: nella maggior parte dei casi fornendo dei risultati generici, basati solo su alcune delle parole chiave utilizzate.

Al momento il sistema funziona solo in inglese ed è limitato agli Stati Uniti.

Con l’ausilio di questa nuova tecnologia, si stima un miglioramento delle ricerche online del 10%, andando a colpire in modo significativo in particolare l’ordine dei risultati.

L’avvento della tecnologia BERT è stata anticipata da altri tentativi di avvicinamento all’AI, con un orientamento più votato a cogliere umori ed emozioni del ‘linguaggio naturale’: Tay di Microsoft e i tentativi tramite chatbot conversazionali ne sono esempi, peraltro non sempre azzeccati negli ntenti_.

Google BERT non sostituisce Rankbrain, il primo metodo (datato 2015) di intelligenza artificiale di Google per migliorare la comprensione delle parole; piuttosto lo supporta nel compito. BERT aiuta Google a capire cosa intendono le persone quando digitano determinate parole per formare long tail keyword.


Si può affermare che l’intelligenza artificiale compie progressi importanti ogni giorno che passa: così, le applicazioni non fanno che migliorare notevolmente le performance nel riconoscimento delle forme di linguaggio parlato come pure le tecnologie di riconoscimento facciale e comportamentale delle persone. Ma mai come in questo caso vale la pena non andare di fretta; proprio questo tipo di applicazioni dell’AI implicano un procedimento non sempre lineare e privo di problemi legati all’approccio della macchina al ‘parlato’.

Siamo quindi vicini a sostenere una piacevole conversazione con automi artificiali? Occorre procedere con una certa prudenza per ragioni di varia natura.

Il lavoro di SEO copywriting è coinvolto. I modelli BERT, dunque, considerano il contesto di una parola e non il termine isolato. Passaggio importante per capire l’intento di ricerca che sta dietro a una query consentendo alle macchine di ottenere una migliore elaborazione del linguaggio naturale (NLP).

Ma questo era già chiaro, Google BERT non fa altro che avvantaggiare i contenuti di qualità.

Uso parole chiave: la rivincita della Long Tail

Qualsiasi campagna di ottimizzazione SEO inizia con l’individuazione e la scelta delle parole chiave più adatte per ‘aggredire’ la SERP per il miglior piazzamento del nostro articolo/pagina e spingere verso le primissime pagine il proprio sito; una fase che deve essere ben pianificata per poi vedere i risultati sperati. “Conditio sine qua non” è scegliere dunque opportune e ricorrenti parole chiave utilizzate nelle query su precisi prodotti/servizi.

Ma che logica adottare nel selezionare queste paroline magiche ? Ebbene, in risposta a questo quesito è possibile muoversi in vario modo: fra questi, oggigiorno l’ideale è la scelta di frasi o di combinazioni di termini (le keywords) che un utente potrebbe utilizzare nelle sue ricerche sui prodotti.

A questo fine, Internet ci mette a disposizione diversi tools anche gratuiti che si rivelano efficaci nelle loro finalità. Essi ci permettono di sondare anzitutto il livello di competitività intrinseca nella scelta delle keywords, andando poi a calibrare le nostre scelte sulla base dei riscontri permettendoci anche ad analizzare le strategie dei nostri competitors.

Anni fa considerata esplicitamente un escamotage alle tradizionali tecniche utilizzate per l’ottimizzazione dei siti web, non riuscendo allora ad affermarsi come una valida tecnica SEO, il progresso in termini di competitività e l’affinamento delle tecniche di posizionamento in SERP hanno fatto sì che fosse necessario rivedere e rimodulare le tecniche d’approccio, tenendo ferma l’esigenza di poter ottenere in tempi brevi delle conversioni piuttosto che avere potenziali clienti interessati ai nostri prodotti/servizi. Ecco allora che il poter arrivare già a un pubblico mirato, un traffico profilato giustifica il ricorso alla “coda lunga” ovvero a concatenazioni di parole piuttosto che letteralmente ad adoperare “frasi”.

La soluzione ottimale in termini di ‘piazzamento’ è cioè andare a cogliere le parole chiave con il minor numero di ricerche nell’arco di tempo prefissato.

Obbiettivo comune a ogni progetto SEO è di creare contenuti di qualità che possano rispondere ai reali bisogni degli utenti, conducendoli a compiere l’azione di clickare sul sito web, intercettando così da subito i suoi bisogni per avere maggiori possibilità di ottenere una sua visita/conversione. Si realizza così la teoria di Chris Anderson, per il quale ‘una strategia di marketing è più efficace se vengono preferiti prodotti che hanno un basso volume di vendita/richiesta da parte dell’utente oppure una bassa richiesta’ (prodotti di nicchia): questi possono difatti portare a costituire una quota di mercato cospicua e superiore a quella dei nostri competitors. Da ciò consegue che e’ preferibile utilizzare più parole chiave eventualmente combinate tra loro e caratterizzate da un basso volume di ricerca piuttosto che scegliere singoli termini ma con un alto volume di ricerca.

Statisticamente inoltre si possono contare fino a 5 diversi modi di operare per la determinazione delle parole chiave da utilizzare (1 parola, 2 oppure 3 parole chiave, 4 parole chiave, più di quattro parole chiave). Il ricorso all’utilizzo di 1-2 parole chiave risulterebbe essere la soluzione migliore mentre la percentuale si riduce per l’impiego di 3 o più parole.
Invece, poiché il successo – come detto sopra – risiede nella capacità di riuscire a conquistare e convertire potenziali clienti in tempi brevi, a tutt’oggi la soluzione migliore è quella che punta ad utilizzarne tre o più.

La SEO “coda lunga” è la strategia di preferire keywords con volume di ricerca inferiore (e tasso di conversione superiore) rispetto a scegliere poche parole chiave con un alto volume di ricerca.

Ad esempio se si vuole ottimizzare il sito di un negozio di prodotti tipici (vini rossi pregiati) per “bruciare” i competitors andremo direttamente a posizionarci per qualcosa di specifico (es.’ vini rossi pregiati’) piuttosto che un comune ‘vini’ o ‘vini rossi’, perché con questa specifica si ha già un’idea chiara di ciò che il visitatore cerca.
L’utilizzo di 3 parole rappresenta lo “zoccolo”, il nostro target in quanto è quello con le maggiori possibilità di ottenere conversioni.
L’ipotetica parola chiave ideale non è però quella che ottiene il maggior numero di visitatori (=maggior volume) ma quella che raccoglie il maggior numero di risultati (=conversioni).

E’ meglio utilizzare le long tail keywords rispetto alle short tail perchè oggi siamo di fronte ad un utente sempre più esigente.

SEO e SEM: l’unione fa la forza

Al cospetto di realtà imprenditoriali di maggior spessore, anche una piccola impresa ha la possibilità di mettersi online, andando a ritagliarsi così un opportuno spazio ‘competitivo’ in Rete: ciò ricorrendo ad un’oculata strategia fondata sostanzialmente su tecniche di web marketing.

Per ciò ci vengono incontro la SEO (Search Engine Optimization) e la SEM (Search Engine Marketing), attività che, se ben attuate e miscelate fra loro, consentono anche alle PMI di ottenere una cospicua crescita a livello digitale e raggiungere obbiettivi di visibilità on line inaspettati per la loro tipologia.

Due attività di web marketing efficaci sì, ma in cosa consistono in poche parole ?

SEO

La SEO comprende un insieme di tecniche e strategie mediante le quali aumentare la quantità di potenziali clienti e migliorare la qualità del traffico organico (cioè non a pagamento) verso il proprio sito web, generando in questo modo visite e traffico qualificato.
L’attività SEO garantisce, mediante opportune tecniche, di migliorare la visibilità on line in termini di ricerche per il proprio sito di attività/servizi e conseguentemente ne migliora il posizionamento nei confronti della concorrenza. Per contro, è alquanto attendibile che un sito web difficile da trovare (mancata adozione di simili strategie) non risulta essere una buona scelta per l’azienda né produce buoni risultati.

Le piccole imprese che adottano un piano SEO di qualità crescono più velocemente poiché lavorando ad una ottimizzazione del sito web
(basato su fattori On Page e fattori Off Page) per i motori di ricerca vengono dimezzati i tempi necessari per entrare in contatto con i potenziali clienti.


I vantaggi dell’attività SEO

Mediante una strategia SEO si ottengono risultati organici destinati ad avere successo maggiore nel lungo periodo, richiedendo contestualmente però un controllo e una cura costante. Andando cioè ad interessare specificamente la struttura del sito, gli effetti di una campagna SEO sono più duraturi e si propagano più fedelmente nel medio/lungo periodo.


SEM

Se la SEO mira ad aumentare il traffico organico (vale a naturale, che cioè non fa uso di strumenti/soluzioni a pagamento) verso il sito web attraverso l’utilizzo di tecniche gratuite mediante le quali si realizzano risultati organici (“strutturali”, propri del sito), l’attività SEM è orientata ad accrescere il traffico online mediante strumenti a pagamento (pay-per-click, ricerca a pagamento, pubblicità).

I vantaggi dell’attività SEM

Investire in annunci a pagamento fa sì che l’impresa possa apparire al momento giusto alla persona giusta (portando traffico profilato). L’attività SEM produce buoni risultati in poco tempo, rivolgendosi ad un pubblico già interessato al prodotto o al servizio offerti dall’azienda, perché terminati i benefici della campagna sponsorizzata ne svaniscono anche gli effetti, mentre una campagna SEO è stabile ed apprezzabile nel medio/lungo periodo: forse più gravosa perché riguarda direttamente il codice HTML ma i cui risultati sono più duraturi nel tempo.

Pur se adottate singolarmente, le due strategie promettono ottimi risultati se combinate insieme. Sta all’imprenditore, in ragione del proprio mercato, decidere quali delle due adottare, se non entrambe.

SEO e SEM hanno in comune l’obbiettivo di veicolare più traffico (mirato) possibile sul proprio sito web.

Gli effetti di un’attività SEM sono quantificabili nel breve periodo rivolgendosi ad un pubblico già interessato al prodotto/servizio, perchè terminati i benefici della campagna sponsorizzata ne svaniscono anche i benefici, mentre quelli che scaturiscono da una campagna SEO permangono anche nel lungo periodo.

L’unione di queste due tecniche consentirà una campagna di marketing digitale più forte, con ottimi risultati, permettendo alle piccole imprese di competere con i colossi aziendali, avendo investito in una strategia digitale completa e sviluppata in maniera ottimale, garantendosi in tal modo una crescita rapida e un successo duraturo.

Panoramica sulla SEO

(venerdì 8 febbraio)

Quando eseguiamo una ricerca su un qualsiasi motore di ricerca – Google Chrome, Internet, Safari, .. – viene generata un elenco pressocché infinita di risultati “attinenti” che prende il nome di SERP (Search Engine Results Page, ovvero “Pagina dei Risultati del Motore di Ricerca“). Ma come si origina questa lista ? con che logica e in base a quali criteri viene stilata seppur automaticamente ?
E’ questa una delle sfaccettature del Web che probabilmente rimane seminascosta ai più, specie se non si è interessati ad un “posizionamento” del proprio progetto web.
Esiste una “nicchia” che s’interessa specificamente e studia la collocazione di un sito web nella lista dei risultati che ci appare a terminale: stiamo parlando della SEO (‘Search Engine Optimization’). Un problema che assume indubbiamente particolare rilevanza per chi, titolare di una attività, fa del proprio sito una vetrina per la vendita di prodotti e/o servizi.


Il concetto di SEO nasce attorno al 1995 quando venne introdotto un insieme di strategie con la finalità di ottenere il miglior posizionamento – “ranking” – per un sito; al’epoca vigeva il dominio incontrastato di Yahoo! quale motore di ricerca. L’avvento di Google verso la fine degli anni Novanta comportò uno stravolgimento sul campo e la crescente complessità degli algoritmi che ne sarebbe conseguita, insieme al miglioramento dei nuovi motori di ricerca, compromisero gli equilibri esistenti sul mercato. Google inoltre cominciò a lavorare e lavora attualmente all’aggiornamento del proprio algoritmo per renderlo sempre più efficace e dettagliato nei risultati.

Fare SEO (Search Engine Optimization) significa adottare tutto un insieme di tecniche, strategie e regole finalizzate a far avere al progetto web su cui si sta lavorando un risultato di visibilità in termini di SERP. Scienza per definizione astratta in quanto non si basa su risultati certi e determinabili in un arco temporale definito bensì in continua evoluzione (si pensi all’adozione di algoritmi di ricerca sempre più affinati e specifici per ottenere il meglio dei risultati).

Componenti essenziali per condurre una buona attività SEO

Un’attività SEO, opportunamente preceduta da una attività di studio del settore e di pianificazione della strategia, a prescindere dal tipo di progetto da trattare, poggia fondamentalmente su due pilastri, due modalità operative: si tratta dell’Ottimizzazione SEO On Page e dell’Ottimizzazione SEO Off Page. Ognuna delle due tecniche prevede la necessità di dover operare su diversi parametri (‘fattori’) o adottare idonee strategie. La prima, tassello fondamentale della SEO, concerne l’adozione di determinati accorgimenti/migliorie sulla struttura del sito stesso (codice), la seconda riguarda tutto quell’insieme di strumenti che danno opportunità di far conoscere all’esterno il proprio sito (es. ottenere dei backlink – il fattore più importante per ottenere il miglior posizionamento possibile -. Essi in particolare vengono interpretati da Google come dei ‘punti’: più punti ottiene, più il sito è importante più Google lo premia con le prime posizioni).

Se per definizione l’Ottimizzazione per i Motori di Ricerca fino a non più di due anni fa era incentrata sul concetto di keyword e nozioni ad esse correlate come densità e ricorrenza e dava valore pure all’enfatizzazione del testo (grassetto, corsivo, ecc.), sia pure con l’introduzione di alcuni accorgimenti (ad esempio “long tail“), negli ultimi anni proprio l’inconsistenza del fare affidamento solo su di esse per una ottimizzazione seo emerse l’esigenza di andare oltre all’analisi delle kw per provare a comprendere il significato “intrinseco” delle parole in virtù di un “web semantico” (le keywords non erano più sufficienti ad ottenere risultati di qualità), ovvero guardare ad una specializzazione delle ricerche cogliendo l’accezione del termine ricercato (il valore semantico), ha fatto sì che cambiassero i “pesi” in gioco. L’avvento della semantica ha cioè fatto sì che non fosse più sufficiente affidarsi semplicemente ad uno specifico ed adeguato utilizzo di keywords in un contenuto/pagina web per migliorarne la visibilità in termini di SERP. SEO oggi significa adottare delle semplici regole che consentono ai motori di ricerca di comprendere l’argomento trattato dal sito/pagina e ai visitatori di trovare ciò che cercano.

Approcciando alla SEO occorre inoltre tener distinti i concetti di “indicizzazione” e “posizionamento”, termini spesso confusi … Indicizzazione è un processo naturale conseguente all’indicizzazione del sito; posizionamento è l’attività in senso stretto di ottimizzazione, interna ed esterna, del sito al fine di migliorarne la visibilità in termini di “query”.

Al concetto di SEO si affiancano quelli di SEM e Web Marketing. Detto della prima (‘Search Engine Marketing ‘) l’insieme delle attività messe in atto da un professionista dei motori di ricerca allo scopo di migliorare il posizionamento delle pagine di un sito web sulle pagine dei risultati organici (anche detti risultati naturali)
risultanti dai motori di ricerca – cioè non riconducibili a ‘strumenti a pagamento’ -, come Adwords o Adsense, Web Marketing indica invece le azioni di carattere commerciali – attuate per incrementare la visibilità e la rintracciabilità di un sito web tramite i motori di ricerca.

Verso il Web Semantico: il Knowledge Graph

(lunedì 4 febbraio)

Con l’avvento degli ultimi algoritmi supportati dai motori di ricerca (Hummingbird e RankBrain su tutti) la tendenza del settore è stata quella di fornire all’utente risultati sempre più specifici e attinenti alle query sottoposte (intento di ricerca). E questo sarà uno dei trend del settore nel 2019.

“Knowledge Graph”, questo sconosciuto

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) fu fin dal principio quello di classificare le informazioni disponibili nel web secondo una serie di relazioni. Gran parte dei servizi tecnologici che utilizziamo poggiano su enormi grafi.

Tutto questo lo fa grazie alla ricerca semantica, mettendo in relazione la query effettuata dall’utente col suo intento di ricerca e le informazioni che potrebbero essere più interessanti.

Il primo cambiamento di Google è stato nell’adozione di un motore semantico che pertanto potesse essere in grado di rispondere alle nuove esigenze di ricerca: di qui il motore di ricerca assume un connotato di intelligenza artificiale.

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) è da sempre quello di classificare le informazioni disponibili nel web secondo una serie di relazioni.

Con il supporto del Knowledge Graph Google è stato in grado di semplificare le ricerche affinando la ricerca semantica in senso stretto.

Come appare in una ricerca un Knowledge Graph

Schematicamente, il Knowledge Graph si presenta come una scheda informativa a destra nella SERP dove poter trovare informazioni su personaggi, luoghi famosi, città, opere d’arte, film, avvenimenti, eccetera (in funzione della query posta)… il tutto senza esplorarne i risultati.

Il pregio di questa soluzione è di ottenere ‘risultati migliori‘ incrociando informazioni provenienti da diverse fonti con altre da siti autorevoli individuati dal motore di ricerca.

Google Duplex


Recentemente, nel maggio del 2018, durante l’annuale conferenza di casa Google per gli sviluppatori, è stata presentata quella che passerà come una novità assoluta per il settore: “Google Duplex”, applicazione di machine learning deputata  a fare il lavoro.

Analizzando Google Duplex, si possono cogliere alcune peculiarità fondamentali: per la tonalità della voce, la capacità di interagire e di condurre la conversazione, Google Duplex sembra praticamente umano. Si comporta come un automa, cioè dietro al programma non c’è nessuno che suggerisce le risposte. L’assistente vocale è indipendente e risponde in maniera dinamica alle interrogazioni; non ha preregistrata nessuna serie di risposte da utilizzare bensì per ciò si basa sul “web visibile”. Potendo contare su un elevato numero di pagine web fornite dal motore di ricerca, di volta in volta è in grado di passare contenuti rilevanti in base a quella che è la ricerca.

In breve, Google Duplex è stato “allenato” ad utilizzare il linguaggio umano partendo da un elevato numero di conversazioni.

Il concetto di machine learning (in cui rientra come detto Google Duplex, che è strettamente correlato a quello di intelligenza artificiale, tecnologie valide che che si contraddistinguono per il fatto di riuscire a processare una mole enorme di dati in maniera velocemente.

Google Knowledge Graph, uno step oltre la parola chiave

16 Maggio 2012, Google annuncia per la prima volta ufficialmente il lancio di un enorme Knowledge Graph.

Prima ancora che Google nascesse, la ricerca era legata all’utilizzo di parole chiave: infatti, la parte di ricerca faceva uso di un semplice matching di parole chiave. Ma le parole chiave non sempre bastano.

Nel momento in cui sottopongo un termine cioé non è dato sapere con quale accezione (in che contesto) debba essere inteso ! ed è proprio qui che interviene la potenzialità del ‘knowledge graph’.

Cosa vuol dire “Knowledge Graph”

Knowledge Graph cambia le cose. Il “graph” sviluppato da Google, infatti, rende il motore di ricerca un elemento più vicino agli utenti e consente di ricevere risposte su cose, persone, luoghi, celebrità, squadre sportive, città, edifici, personaggi storici, opere d’arte. Tutto direttamente all’interno del motore di ricerca. Vengono annullate le ambiguità. Ora è in grado di riconoscere la differenza tra le diverse accezioni del termine e può proporre da subito le risposte alle possibili query.

Mentre maturava l’idea del “grafo”, un ulteriore passo in avanti lo si è fatto nel 2005 quando è stato introdotto il nuovo algoritmo RankBrain mediante cui a fronte di una ricerca è possibile ottenere i migliori risultati possibili, ciò utilizzando quella che viene definita “Intelligenza Artificiale”. Mediante questa, grossi volumi di info e dati vengono trasformati in entità matematiche (“vettori“) comprensibili all’elaboratore.

Componenti principali di un motore di ricerca

(30 dicembre)

Sappiamo tutti cosa sia un motore di ricerca ……, la sua funzione e il suo ruolo in tema di “ricerche”. Se Internet è uno strumento di cui oggigiorno non si può fare a meno, a livello ricreativo piuttosto che commerciale, il ‘motore di ricerca’ ne è una costola permettendo all’utente di ottenere le informazioni che cerca in pochi istanti (intento di ricerca). Tramite un motore di ricerca (“search engine”) è possibile analizzare una vasta quantità di dati restituendo contenuti correlati.

Con questo articolo intendiamo definire i principi che stanno alla base del funzionamento di un motore di ricerca.

Benché questa entità sia costituita da più elementi, si possono individuare dei punti cardine su cui poggia:

Scheduler: prende in carico quando il/i crawler deve attivarsi per il download di una risorsa relativa all’URL passato;

Spider (anche detto crawler o robot): costituisce il Corpus (archivio di documenti), loopando i dati da ogni indirizzo url passati al fine di sviluppare un elenco di pagine web , raccogliere le informazioni presenti e memorizzarle in determinati records;

Indexer: processa i dati raccolti dallo spider, al fine di ottenere indici e metadati che potrebbero tornare utili per snellire la fase di ricerca:

Parser: estrae ogni singola risorsa memorizzata nel repository e, dopo averne letto i contenuti, li suddivide a seconda della tipologia. Qualora l’unità presa in esame contenga a sua volta degli url questi verranno inviati nuovamente al repository. I dati che sono stati catalogati vengono a loro volta etichettati e risulteranno più determinanti per permettere al motore di ricerca di offrire le informazioni più rilevanti;

Query Processor: definito anche Search Engine Software, accetta richieste e fornisce risposte; determina i risultati in base ala loro rilevanza sulla query.

La natura dei motori di ricerca è in continua evoluzione per venire incontro alle esigenze degli utenti con le loro richieste, è un mondo in continua evoluzione: pertanto, a fronte dei repentini cambiamenti è necessario prendere coscienza che occorre essere aggiornati e attenti alle mutazioni del mercato.

Il rapporto tra SEO e Web Marketing

Cosa accomuna due parole, una che oramai risuona facilmente ha a che fare con il settore web e il (web) marketing qualcosa ?

SEO e Web Marketing due termini sempre più strettamente in relazione tra loro oggigiorno che stanno prendendo sempre più piede sul mercato e più specificamente parlando di siti e commercio, e che sono interdipendenti.

Del primo fino a qualche anno fa la definizione ideale sarebbe stata ‘l’insieme delle attività atte a migliorare il posizionamento di un sito/pagina su Google’.

Mentre “Web Markerting” indica ‘un processo che ha come fine quello di favorire l’incontro fra domanda e offerta, di beni o servizi’. Ora veniamo alla parolina ‘Web’: l’accostamento fa sì che, se pubblicità e rapporti commerciali sono i mezzi tramite cui si realizza il marketing (‘tu vai a cercare il cliente’), viene letteralmente ribaltato il significato della parola: ora diviene “qualcuno che ti cerca“, sì che non devi più correre dietro ai potenziali acquirenti per attrarli verso le tue offerte, non più dunque sottostare ‘ai suoi umori’ poiché ora è lui che vuole ciò che tu vendi.

Tornando invece alla definizione primaria, bisogna operare alcune sostituzioni etimologiche: non più “posizionamento” ma “visibilità” in virtù della potenza che oggi l’aggiunta dei rich snippet e di altri tag (title, meta description) realizza un significativo gap in termini di visibilità del progetto/prodotto; “contenuto” al posto di “pagine” dal momento che oggi si posizionano sui motori anche singoli contenuti e non solo pagine (ad es. i video).  Attualmente “Google” andrebbe sostituito con “motori di ricerca“: Google rimane sempre il numero 1 in diversi paesi, ma non ovunque (si pensi ad esempio  alla Cina e alla Russia). 

Verosimilmente, il sito può essere allora pensato come ad un imbuto (tecnicamente, “funnel“): da una parte entrano gli utenti ‘alla ricerca’, dall’altra escono le “conversioni“, ciò che noi vogliamo l’utente faccia (una richiesta di contatto, la compilazione di un modulo, fino alla vendita).

da questo punto di vista è quindi accogliere il visitatore, facendolo atterrare sulla pagina del proprio sito e a proprio agio, e potergli fornire la miglior risposta possibile per ciò che cerca, con l’auspicio che compia l’azione finale, determinante.

‘Il Crawler’, questo sconosciuto

(sabato 24 novembre)

Attività metodologiche di un crawler
Attività metodologiche di un crawler

Con il termine “crawler” (chiamato anche ‘web crawler‘, spider o robot) si intende un qualsiasi programma che può essere utilizzato per l’individuazione (cioè “verificare la presenza in Rete”) e la scansione automatiche dei siti web, compresi eventuali link che rimandano ad altre pagine web. Ogni motore di ricerca ne ha di suoi specifici: ad esempio, il crawler principale di Google è Googlebot.

Il loro utilizzo è definito nella parte descrittiva nel file robots.txt, il quale può prevedere diversi crawler. Inoltre, possono essere specificati anche dal meta tag robots o nelle istruzioni HTTP X-Robots-Tag.

Definizione Web Crawler
Definizione Web Crawler

 

 

Google bot
Google bot

 

Crawler Token dello user-agent (utilizzato nel file robots.txt) Stringa completa dello user-agent (come mostrata nei file di log del sito web)
APIs-Google
  • APIs-Google
APIs-Google (+https://developers.google.com/webmasters/APIs-Google.html)
AdSense
  • Mediapartners-Google
Mediapartners-Google
AdsBot Mobile Web Android 

(Controlla la qualità dell’annuncio nella pagina web Android)

  • AdsBot-Google-Mobile
Mozilla/5.0 (Linux; Android 5.0; SM-G920A) AppleWebKit (KHTML, like Gecko) Chrome Mobile Safari (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot Mobile Web 

(Controlla la qualità dell’annuncio nella pagina web dell’iPhone)

  • AdsBot-Google-Mobile
Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1 (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)
AdsBot 

(Controlla la qualità dell’annuncio nella pagina web per desktop)

  • AdsBot-Google
AdsBot-Google (+http://www.google.com/adsbot.html)
Googlebot Immagini
  • Googlebot-Image
  • Googlebot
Googlebot-Image/1.0
Googlebot News
  • Googlebot-News
  • Googlebot
Googlebot-News
Googlebot Video
  • Googlebot-Video
  • Googlebot
Googlebot-Video/1.0
Googlebot 

(Desktop)

  • Googlebot
  • Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
  • Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36o (utilizzato raramente):
     
  • Googlebot/2.1 (+http://www.google.com/bot.html)
Googlebot 

(Smartphone)

  • Googlebot
Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Mobile AdSense
  • Mediapartners-Google
(Vari tipi di dispositivi mobili) (compatible; Mediapartners-Google/2.1+http://www.google.com/bot.html)
Mobile Apps Android 

(Controlla la qualità dell’annuncio nella pagina per app Android. segue le regole dei robot AdsBot-Google.)

  • AdsBot-Google-Mobile-Apps
AdsBot-Google-Mobile-Ap

I crawler più comuni di Google

 

Un crawler è un tipo di bot (programma o script che automatizza delle operazioni), e i crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.

Sul Web, il crawler si basa su una lista di URL da visitare fornita dal motore di ricerca (il quale per ciò si basa sugli indirizzi suggeriti dagli utenti o su una lista precompilata). Durante l’analisi di un URL, lo spider identifica tutti gli hyperlink presenti nel documento e li aggiunge alla lista di URL da visitare.
Il comportamento dei crawler attivi in Rete è tracciato da quanto definito nel file robots.txt, individuabile nella root del sito. 

Esistono anche crawler open source. In particolare, è definito nella riga ‘User-agent‘ mediante una stringa di testo (“token“).

 

Per capire come si svolge veramente un’attività di SEO e quindi come funziona l’algoritmo di Google, occorre conoscere e capire come funzionano le due “menti” operative di GoogleBot, ovvero lo spider ed il crawler.
Spider
L’attività principale dello spider è di farsi una copia del codice html delle pagine di un sito web, suddividerlo in parti, quindi procedere a farne il controllo spam, salvare un estratto dei contenuti nell’Index ed in alcuni casi inviare una immagine (copia) della pagina alla cache. Per sapere come trovare la copia cache delle proprie pagine ecco un post sui comandi avanzati.

Crawler
La funzione del Crawler è analizzare e seguire i link forniti dallo spider nella sua attività di scansione delle pagine. Tutti i link seguiti dal crawler sono analizzati in profondità in base ad una serie di parametri (anchor text, proprietario del dominio, whois etc.) che permettono a Google di capire il valore SEO reale di ogni link e quindi eventuali penalty. Se il crawler trova nuove pagine non presenti nell’indice dello spider, li comunica allo spider stesso che ricomincia la scansione e indicizzazione.

 

In una accezione secondaria, il termine web crawler viene utilizzato anche per indicare programmi (come PageNest, MSIECrawler, Offline Explorer) concepiti per scaricare il contenuto di un intero sito web sul disco fisso del computer.

“Polimorfi” tacciati da Memory Alpha in quanto, accedendo al sito in modo aggressivo, implicano un rallentamento drastico delle possibilità di accesso al sito stesso da parte dei visitatori.