Profilazione, Traffico Utenti e Filter Bubble

(giovedì 27 febbraio)

Per profilazione (in contrapposizione alla “privacy”) si intende la raccolta dei dati degli utenti nel momento in cui accedono ai siti per fruire (e ancor prima accedere) dei servizi offerti dagli stessi, la loro successiva elaborazione per la categorizzazione e successiva segmentazione degli utenti in base a vari criteri, inglobando sia dati personali sia dati cosiddetti “sensibili” trattati specificamente dalla normativa europea sulla protezione dei dati personali (GDPR).

Appare dunque come una sorta di automatismo che si presenta ogni volta che carichiamo un sito; la profilazione dei nostri dati, attraverso cui si passa quando accediamo a un qualsiasi sito internet, pare come una normale operazione cui ci troviamo davanti ogni volta che accediamo a un pc. Addirittura, può apparire come una sorta di lucchetto al sito: ‘O clicchi OK o il sito non lo vedi’ (leggi ‘se vuoi guardarmi gratis…‘). E fin qui, ok – direbbero i più, una mera operazione di “raccolta”.

Ma l’acquisizione dei nostri dati non si ferma qui, come potrebbero pensare in diversi, ad una banale operazione di “raccolta”.

Non è facile denotarlo una volta che si accede al browser ma facendo una semplice ricerca da un qualsiasi motore di ricerca – Google piuttosto che Safari – e a prescindere dal tipo di dispositivo che utilizzo – Apple o Android – in primo piano vengono visualizzati dei contenuti diversi, pur effettuando la medesima ricerca. Oggigiorno, qualsiasi motore nasconde diversi artifizi (es. geolocalizzazione, “lettura” delle abitudini) che “hanno il loro perché !” …, permettendo al motore stesso (e conseguentemente al business che ci sta dietro) di raccogliere delle informazioni su di noi – “dati tecnici” e “dati sensibili“, le nostre abitudini, i nostri gusti, ecc. permettendo di crearsi un “identikit” – a creare uno skilling della persona.

L’internauta dunque il più delle volte provvede a rilasciare le informazioni richieste “senza cognizione di causa” quasi, ignaro che dietro la profilazione dei dati si nasconde un’altra “arma” a vantaggio dei magnati proprietari del motore di ricerca: adottando cioè questa strategia il motore è in grado di proporci direttamente informazioni e contenuti secondo i nostri interessi e quindi, invece di andare all’esterno, mettendo a disposizione proprie risorse nelle ricerche effettuate di modo che le persone rimangono all’interno del motore stesso, e ciò aumenta il loro guadagno (leggi “traffico di utenti“).
Non sono solo le inserzioni pubblicitarie ad essere personalizzate sull’utente ma anche i contenuti che vengono proposti (‘ognuno di noi ha il proprio Internet‘): i risultati ottenuti non sono perciò uguali da me a Tizio a Caio: ‘Internet allora non è uguale per tutti !!’. Questa chiusura esercitata nei confronti del cliente che ne consegue favorisce la crescita del motore (‘Filter Bubble‘).

La profilazione si realizza tramite i cookies, mattoncini che raccolgono e tracciano ciò che abbiamo fatto quando eravamo sul sito (nonché i nostri dati), pertanto risultiamo “schedulati” quando si torna.
Questi piccoli pezzi di codice svolgono certamente delle funzioni importanti (cookies tecnici), ma ve ne sono alcuni intrusivi che tracciano dati sensibili mentre noi siamo sui siti internet (cookies di tracciamento) fra cui cookie maligni che cercano di rubare informazioni private dai computer degli ignari navigatori.

Abbiamo motori di ricerca che accolgono la profilazione dei dati – e sapere tutto quello che si fa – (Google, Bing, Yahoo, Virgilio, ecc.) altri come Ecosia, Qwant, DuckDuckGo, StartPage che al contrario permettono una “libera circolazione”: questi non tracciano un profilo da conservare, si rispetta privacy, è possibile una ricerca aperta (senza cioè essere spiati).

Esistono peraltro degli strumenti che permettono di non essere tracciati (ad es. attraverso il comando adsettings.google.com: possibilità di ATTIVARE/DISATTIVARE – ovvero tracciare – GLI ANNUNCI PUBBLICITARI; se digito google.com/locationhistory scopro i miei movimenti tracciati da Google).

https://www.iene.mediaset.it/video/google-motori-di-ricerca-ci-conoscono_698130.shtml

Primati di AI: Chatbot e Assistenti Virtuali

(19 febbraio)

In principio fu il mobile. Un settore che rapidamente ci ha imposto e abituato, con la sua crescita esponenziale, ad avere tempi di risposta sempre più rapidi dagli elaboratori, in un mondo pervaso dalla smanìa del “tutto e subito”, ma anche ad un continuo rincorrersi di artifizi e tecniche che soddisfacessero i nostri bisogni/desideri. Ebbene, anche a ciò l’informatica più avanzata ha saputo rispondere con le applicazioni dell’AI.

In particolare, a queste esigenze vengono incontro i cosiddetti “chatbots“. Si tratta di software piuttosto che dispositivi in grado di interpretare comandi vocali e interagire con le persone, in funzione proprio dell’Intelligenza Artificiale. Ne esistono di due tipi: i “chatbot” e gli ‘assistenti vocali” (o ‘virtuali”).


Un Chatbot è un software programmato che simula una chat: vale a dire, permette di ricreare una sorta di ambiente virtuale – ad es. una chat appunto – in cui un utente può confrontarsi per ottenere delle risposte . Può essere pensato come un programma in grado di ricevere domande e rispondere secondo specifiche; è strutturato come una alberatura domande/risposte che vengono effettuate in successione al fine di arrivare a una risposta. L’Assistente Vocale è invece basato su algoritmi intelligenti, mediante i quali si ottiene la comprensione di concetti precisi. A differenza del primo, entra in relazione con l’utente perché comunica con un “linguaggio naturale“, cioè comprensibile alla macchina; è un chatbot dotato di intelligenza artificiale, capace di rispondere anche a domande non previste.

Due applicazioni software che vengono utilizzati in disparati campi di applicazione – dalla casa al settore sanitario, alle applicazioni sulle automobili, ecc. -, e conseguentemente gli sviluppi che hanno seguito.

“La diversa interazione che si stabilisce con questi due differenti Virtual Assistant determina un diverso approccio alle due tecnologie: il chatbot è un software che può simulare una conversazione strutturata, e trova particolare applicazione nel settore ‘Customer Care‘ sostituendosi all’operatore umano; l’Assistente Vocale come detto altrove è una applicazione risultato di intelligenza artificiale e machine learning in grado di elaborare comandi vocali, che si può definire essenzialmente come un ‘aiuto nella quotidianità‘.

Quella dei chatbot in senso stretto è perciò una soluzione ideale nel campo dell’assistenza clienti dove è sempre più importante la qualità e la velocità del servizio.
Al contrario gli Assistenti Vocali (o Assistenti Virtuali) sono destinati ad un uso in larga parte casalingo, e il successo è apprezzabile nell’uso dispendioso che ne stanno facendo i consumatori i quali ben hanno accolto l’adozione dei comandi vocali, arrivando finanche ad assumere le sembianze di un umano con cui dialogare e addirittura in grado di risolvere possibili problematiche con un approccio empatico !

Diversità oramai latente a ben vedere. Se in passato, il chatbot poteva eseguire solo compiti specifici come una modifica della password o fornire informazioni sul tempo, al contrario dell’assistente virtuale in grado di offrire un ventaglio più ampio di risposte ricorrenti, i progressi che si sono ottenuti con la NLP (Natural Language Processing) e l’apprendimento automatico, hanno accorciato la forbice esistente tra i due: così, ecco che anche il chatbot in senso stretto viene ad essere una applicazione a cui rivolgere domande e ottenere risposte secondo specifiche fornite. “In futuro potremmo forse arrivare a parlare di un unico Assistente Virtuale, capace di integrare al suo interno soluzioni diverse che consentano diversi tipi di interazione, capaci in questo modo di andare incontro alle esigenze e preferenze di un numero maggiore di consumatori.”

La natura stessa dei chatbot delimita le loro capacità. Ogni chatbot è in un certo senso ancorato ad una funzione limitata: sono adatti ad applicazioni singole come il supporto clienti, il customer engagement o gli acquisti automatizzati. Non possono variare il loro vocabolario o acquisire un linguaggio così vasto da poter servire qualsiasi altra funzione, oltre a quella per cui sono stati progettati.
Come visto, vengono tendenzialmente usati per il supporto clienti (di qualsiasi natura, dal meteo fino ai consigli per i film) o per gli acquisti automatizzati (ad esempio per i biglietti del treno). Ancora adesso hanno difficoltà a ricordare le informazioni chiave durante le conversazioni. Viceversa gli assistenti virtuali dimostrano che possono memorizzare ciò che gli si dice, conservando le informazioni per uso futuro, risparmiando all’utente il tempo e la noia di riscriverle ogni volta. Dovessi chiedere info su un ordine o delle informazioni riguardo a modifiche da apportare, non ti chiederebbe di inviarle nuovamente.

“E’ importante che i Virtual Assistant rispecchino i desideri degli utilizzatori finali che, pur sapendo di stare interagendo con una macchina, preferiscono che questa abbia caratteristiche tipicamente umane, come la pazienza e l’empatia.”
“Umanizzare il più possibile l’Assistente e la modalità di interazione è dunque fondamentale per far sì che l’uso di questi software sia sempre più naturale e coinvolgente per gli utenti, elemento fondamentale per una reale diffusione di questa soluzione.” [rif.: www.vidiemme.it]

L’Assistente Virtuale è un’interfaccia di comunicazione che si basa su un motore cognitivo il quale, comprendendo i concetti affrontati, permette di simulare una conversazione vera e propria, uscendo dagli schemi logici preimpostati di domanda/risposta tipici della Chatbot.

Quindi un assistente virtuale è molto diverso da un chatbot. Fin dall’inizio, la tecnologia degli assistenti virtuali ha permesso loro di essere utilizzati per applicazioni sofisticate come pure molto semplici, ad esempio svolgere compiti o fare ricerche e confrontare prodotti, oltre a molte abilità.
Importante è la loro capacità di comprendere il linguaggio naturale, che consente di ricevere comandi vocali complessi in varie lingue e dialetti. I ricercatori dell’Università di Stanford hanno pubblicato un recente articolo sul Natural Language Processing (NLP), spiegando come migliorerà notevolmente la comprensione dei dialetti regionali, dello slang o del modo naturale di parlare.

Quando si parla di Natural Language Processing intendiamo l’elaborazione automatica del linguaggio umano mediante l’analisi delle sue varie componenti (entità): traduzioni, sentiment analysis, generazione automatica di testi e chatbot sono alcune tra le problematiche più comuni nel campo.

Così, i chatbot si sono evoluti rispetto ai primordiali e possono svolgere più funzioni grazie alla loro capacità di comprendere il linguaggio. L’uso di alberi decisionali, ad esempio, rende molto più facile scoprire l’intento preciso che sta dietro le richieste degli utenti, ampliando ulteriormente la sua utilità per il cliente e dunque per l’azienda, che può leggere meglio le richieste della clientela e prendere decisioni per il miglioramento del prodotto o servizio.

Particolare notare come in corrispondenza della rapida diffusione dei social network si è assistito al passaggio dell’utente da semplice fruitore di notizie a “protagonista attivo” e costantemente operativo, sempre più coinvolto nella produzione di contenuti propri come nella modifica di esistenti e in attività relative ad acquisti e vendite di oggetti e servizi – siamo nei primi anni del XXI secolo -, unitamente all’informatizzazione dei processi aziendali.

In questo contesto, l’importanza dell’Intelligenza Artificiale passa per l’applicazione di nuovi approcci, che integrano l’elaborazione del linguaggio naturale con gli algoritmi di apprendimento profondo (deep learning), producendo risultati straordinari in differenti scenari applicativi.
Dal 2011, l’NLP fornisce soluzioni per analizzare la struttura sintattica del testo (es. nome, verbo, aggettivo), identificando entità e classificandole in categorie predefinite, ricostruendo la struttura sintattica e la semantica tramite il significato delle parole, anche relazionato al contesto e alle modalità di utilizzo (ad es. ironia, sarcasmo, sentimento, umore), classificandolo in categorie predefinite (ad es. sport, geografia, medicina) o sintetizzandone il contenuto. Differenti problemi di NLP sono stati affrontati mediante un algoritmo basato sul deep learning , mostrando prestazioni via via migliori rispetto ad altre modalità di approccio; tecniche di NLP basate su deep learning stanno trovando sempre più applicazione riguardo lo sviluppo di sistemi conversazionali in grado di emulare il dialogo umano, di rispondere a domande su diversi argomenti. [cit. www.agendadigitale.eu]

Nell'era dell'Internet of Things

(martedì 4 gennaio)

E’ di trent’anni fa la nascita di una nuova “dimensione” per l’informatica, il frutto di una stretta sinergia fra sviluppo di applicazioni, elaborazione e comunicazione fra apparati diversi – alla stregua di quanto avviene normalmente fra personal computer, tablet e smartphone -: l’era dell’Internet of Things (IoT o IoC), un settore che seppur agli albori tramite soluzioni mano a mano più specifiche sta interessando sempre più il nostro quotidiano e le nostre abitudini, aprendo così ad un campo di applicazioni che è molto vicino a noi.

Internet of Things estende a “dispositivi robotizzati” la capacità di raccogliere, elaborare e scambiare dati tra di loro azioni tipiche dei computer, permettendo di migliorare monitoraggio, controllo e automazione degli stessi.

L’Internet delle cose beneficia degli sviluppi nei campi dell’elettronica e della comunicazione wireless per abilitare le capacità digitali e di comunicazione di elettrodomestici, telecamere, termostati, sistemi di fabbrica, veicoli, dispositivi wearable, ausili e sanitari.

Anche se non ce ne accorgiamo, perlomeno per chi è al di fuori del settore, l’Intelligenza Artificiale (AI) – in combinazione con il machine learning – sta prendendo sempre più piede anche nella nostra quotidianità.

Così, accanto ad applicazioni sempre più specifiche e complesse, l’AI fra le diverse applicazioni è entrata pure fra le mura domestiche con gli Assistenti Vocali: piccole apparecchiature (‘apparecchiatura elettronica’ la definirebbe un non addetto ai lavori) in realtà dispositivi che, basandosi sui fondamenti dell’Intelligenza Artificiale e del machine learning, permettono alle persone di interagire semplicemente tramite la voce, impartendo comandi, facendo loro compiere specifiche operazioni (chiedere informazioni di vario genere – es. la temperatura di casa, che ora o che giorno è – come la riproduzione di musica).
I più comuni assistenti vocali sono Alexa, l’Assistente Google e Siri.

Tutto questo è possibile grazie all’intelligenza artificiale ed al machine learning mediante i quali progressivamente con la commistione con altri protocolli quali ad esempio le reti wireless si potrà contare su assistenti vocali sempre più precisi; progetto è ancora agli albori e non presumibilmente sbrigativo.

Dal Digital Marketing si leva la crociata per la "HUMAN EXPERIENCE"

(giovedì 23 gennaio)

Da almeno due anni a questa parte il settore del branding e del marketing più in generale (1 2) sono animati da continue novità o aggiornamenti in tema di metodologie di approccio (leggi ‘algoritmi’) e tecniche, sempre più automatizzate e mirate (approccio e specializzazione dell’Intelligenza Artificiale 1 2) le quali, seppur indirettamente, per la logica delle metriche adottate ed i loro strumenti, stanno distraendo gli operatori da quello che è il loro obbiettivo: raggiungere il destinatario, l’utente finale.

Pertanto sorge l’esigenza di ridisegnare il concetto di customer journey, mediante cui rimettere “al centro” l’utente.

Gli stessi operatori di settore convergono nell’affermare che ‘è vitale rifocalizzarsi sulle persone’ (“buyer personas“) e, in particolare, su un processo che conduca al cliente in maniera più trasparente, con meno congetture e più diretto.

Ciò comporta di accantonare il meccanismo del funnel, strumento diventato suo malgrado come il miele per le api, non sempre efficace tuttavia per portare ad una visibilità che veramente converta in transazioni e comportamenti davvero utili.

Ecco allora l’invito ad una riscoperta dell’approccio human oriented: mettere dinanzi a noi una lavagna su cui andare a delineare personalmente, in maniera asettica da fattori esterni, finalità e modalità d’approccio per ‘rimettere al centro la buyer persona‘ così tanto inseguita e quindi costruire una tecnica di clustering.

L'arte dello 'scrivere semplice'

Letto ? Capito ?? … Ok, partiamo !

Quante volte pensiamo di “avere le carte in regola” per fare, pensiamo di aver capito, di potere e riuscire a scrivere bene ? Se non accorgersi dopo i primi (un pò) di tentativi che qualcosa non torna !! …
‘Ma come ! .. Ho seguito alla lettera le indicazioni, il mio ‘ABCDeario’; e ora non vedo “ritorni”, …, apprezzamenti, riscontri positivi …; ciò dopo (casistica non isolata) essersi (s)venduti (insana ma ricorrente pratica in chi si butta nella cerchia) !

Vediamo: ma tu come approcci alla capacità di sviluppare, (ri)creare testi/contenuti ?
Ci sono infatti alcuni punti fissi che non vanno sottovalutati nell’arte del copywriting.
Saper scrivere semplice è un obbiettivo che il copywriter in particolare deve riuscire a raggiungere; sembra un paradosso ma quello che segue è uno scotto che si paga inevitabilmente: “difficile raggiungere la semplicità“.
Il perché trova risposta nella ragione che quando scriviamo, o meglio riscriviamo, utilizziamo vocaboli, verbi, ecc. “nostri”, quasi riversando sulla tastiera quanto ci viene in mente ! Ma scrivere semplice richiede inevitabilmente il saper mettersi al livello del lettore (alla stessa finestra); ciò vuol dire che il nostro elaborato deve essere ‘limato’, smussato, liberato da elementi che abbiamo ritenuto utile aggiungere ma che alla fin fine non rendono chiari i concetti.
Al centro il lettore: ‘scrivere semplice‘ è sinonimo di empatia: mettersi alla finestra; abbandonare – per usare un eufemismo – la nostra “linea” in favore di chi legge. Una buona ricetta per dare continuità (“sopravvivenza”) al proprio blog e anzi aumentarne le visite, in un certo senso renderlo ‘competitivo’ e perché no’autorevole’.

Attenzione però: scrivere semplice non vuol dire sminuire lo scrivere ! … bensì liberare un qualsivoglia testo da tutto ciò che è superfluo senza però intaccarne la sostanza.
Una bella metafora è di considerare il web writer come uno scultore che, trovandosi dinanzi un blocco di marmo (‘prima bozza’) la smussa, la ritocca con lo scalpello ripulendo la pietra iniziale facendo così emergere chiara la figura che è al centro.

Ci sono alcuni punti focali che devono essere tenuti presenti per scrivere meglio:

  1. Usa frasi attive. Essere diretti ed evitare enunciati complessi.
  2. Scelta delle parole. Un ruolo chiave nell’arte del copywriting sta proprio nella scelta delle parole
  3. Impara a usare i verbi. Colta la centralità nella frase del verbo, è opportuno utilizzare verbi diretti in modo cioè da rendere chiaro il messaggio.
  4. Il nucleo della frase. La frase deve essere costruita in modo tale da rimarcare la vicinanza tra soggetto e verbo.
  5. Sviluppo dell’idea. Concentrarsi sul concetto da comunicare; e in base a ciò, strutturare il nostro articolo “step by step”; così ogni frase conterrà un messaggio, ogni paragrafo un concetto.
  6. Evitare frasi troppo lunghe. Se le frasi brevi aiutano la leggibilità del testo, ciò non vuol dire rinunciare a prescindere ad utilizzare quelle più lunghe. O meglio, utilizzarne sì ma sempre tenendo ben presente la semplicità del testo.
  7. Non usare equivalenze. Ovvero evitare di utilizzare parole similari con lo stesso significato a breve distanza.
  8. ‘Emotività’ indispensabile. Per dare più enfasi a ciò che scriviamo occorre puntare sul fattore emotività nello scrivere in modo tale da attirare realmente l’attenzione del lettore.

Ma scrivere semplice non è affatto facile: non si impara l’arte su due piedi. E’ proprio qui che subentra il fattore “empatia“: mettersi cioè dalla parte di chi legge non soddisfare solo la nostra esigenza di comunicare.

Google Search scopre le reti neurali

(giovedì 31 ottobre)

E’ di questa settimana la notizia di un nuovo scossone all’algoritmo di ricerca di Google, una novità radicale che va ad impattare sulle ricerche vocali che costituiranno una fetta importante nelle ricerche online. Basandosi cioè sullo studio e l’applicazione delle reti neurali, il colosso di Mountain View sta implementando il motore di ricerca Google Search con una nuova tecnologia denominata BERT (Bidirectional Encoder Representations for Transformers), una tecnica che permetterebbe di analizzare una frase nel suo insieme e nel contesto in cui viene utilizzata, e non come finora analizzando ogni elemento a sé stante, in modo da comprendere meglio il significato delle richieste che si fanno online ed evitando così di fornire risultati piuttosto approssimativi.

Google afferma che il nuovo sistema potrà offrire un servizio migliore, soprattutto quando vengono utilizzate intere frasi come chiavi di ricerca. Finora infatti il motore di ricerca ha sempre avuto alcuni problemi con le ricerche più lunghe: nella maggior parte dei casi fornendo dei risultati generici, basati solo su alcune delle parole chiave utilizzate.

Al momento il sistema funziona solo in inglese ed è limitato agli Stati Uniti.

Con l’ausilio di questa nuova tecnologia, si stima un miglioramento delle ricerche online del 10%, andando a colpire in modo significativo in particolare l’ordine dei risultati.

L’avvento della tecnologia BERT è stata anticipata da altri tentativi di avvicinamento all’AI, con un orientamento più votato a cogliere umori ed emozioni del ‘linguaggio naturale’: Tay di Microsoft e i tentativi tramite chatbot conversazionali ne sono esempi, peraltro non sempre azzeccati negli ntenti_.

Google BERT non sostituisce Rankbrain, il primo metodo (datato 2015) di intelligenza artificiale di Google per migliorare la comprensione delle parole; piuttosto lo supporta nel compito. BERT aiuta Google a capire cosa intendono le persone quando digitano determinate parole per formare long tail keyword.


Si può affermare che l’intelligenza artificiale compie progressi importanti ogni giorno che passa: così, le applicazioni non fanno che migliorare notevolmente le performance nel riconoscimento delle forme di linguaggio parlato come pure le tecnologie di riconoscimento facciale e comportamentale delle persone. Ma mai come in questo caso vale la pena non andare di fretta; proprio questo tipo di applicazioni dell’AI implicano un procedimento non sempre lineare e privo di problemi legati all’approccio della macchina al ‘parlato’.

Siamo quindi vicini a sostenere una piacevole conversazione con automi artificiali? Occorre procedere con una certa prudenza per ragioni di varia natura.

Il lavoro di SEO copywriting è coinvolto. I modelli BERT, dunque, considerano il contesto di una parola e non il termine isolato. Passaggio importante per capire l’intento di ricerca che sta dietro a una query consentendo alle macchine di ottenere una migliore elaborazione del linguaggio naturale (NLP).

Ma questo era già chiaro, Google BERT non fa altro che avvantaggiare i contenuti di qualità.

Digital Marketing e advertising: i trend del 2020 in Italia

Nato ‘da una costola’ della SEO, oggigiorno il Digital Marketing costituisce un’arma strategica per lo sviluppo di una realtà aziendale, un campo d’azione che da pochi anni a questa parte sta assumendo sempre più importanza sul piano commerciale per l’impresa.
Partiamo – o meglio, iniziamo – da una bella definizione di Digital Marketing: è “l’insieme delle attività di marketing che utilizzano i canali web per sviluppare e ampliare la rete commerciale dell’azienda, analizzare i trend di mercato, prevederne l’andamento e creare opportune offerte sul profilo del cliente target – buyer -“; alla base le attività di SEO (Search Engine Optimization) e SEM (Search Engine Marketing) a cui si affiancano competenze e abilità più specifiche che fanno riferimento a particolari strumenti di analisi e campagna pubblicitaria (advertising).

Ma quali saranno i trends, gli orientamenti del Digital Marketing per il 2020? Da una ricerca svolta su un importante campione di professionisti italiani emergono conferme come nuove sfide, nuovi orientamenti che prendono spunto da tecnologie appena introdotte nel mondo del digitale.
“I dati che emergono dalla ricerca mettono in luce uno scenario che sta cambiando e acquisendo una nuova maturità ed un inserzionista sempre più competente e consapevole del futuro.”. E ancora: “Questo fa bene al mercato e agli stessi operatori che dovranno puntare sempre di più su innovazione e crescita delle competenze per approcciare il settore in modo più strutturato ed evoluto”. [fonte: www.ninjamarketing]

Un mercato che cresce guidato da mobile, social media e search

Futuro prossimo che si preannuncia roseo per il settore del digital con una previsione di crescita nell’anno che verrà del 30%, in virtù dell’incremento degli investimenti sui nuovi strumenti che stanno nascendo e facendo breccia pure nel settore del DM (mobile, video, social).

Sempre maggior peso assumerà il settore del mobile, ciò in linea con l’aumentare del tempo speso “pro-capite” per navigare su smartphone, sia per fare acquisti online sia per visualizzare video. Si aggiunga che già una buona fetta degli operatori pubblicitari progetta e istrada le proprie campagne su dispositivi mobile.
Un altro settore su cui si farà sempre più leva in futuro è quello dei social media per far incontrare il potenziale cliente con i prodotti/servizi offerti.

A scapito del traffico organico, negli ultimi anni sta prendendo sempre più piede la paid search, ovvero le strategie pubblicitarie a pagamento (ciò che è il SEM).

Così come l’adozione dei video (video advertising) inteso sia come puro strumento di pubblicità sia di presentazione dei propri prodotti.

Advertising, la pubblicità (dal verbo inglese advertise), è un termine che va a braccetto ed è diretta conseguenza del DM.

E c’è una realtà, una dimensione che sta acquisendo piede da alcuni mesi in questo contesto e ancor più ne avrà nel prossimo anno: l’esigenza di maggior efficienza, più trasparenza e un maggior controllo sui costi, sta portando sempre più le aziende ad internalizzare le proprie attività di web e digital marketing (“In housing“) piuttosto che ad affidarsi a consulenti esterni. Uno dei settori più dinamici della pubblicità digitale si conferma quello del Programmatic Advertising (pubblicità computerizzata), ovvero software specializzati nell’acquisto di spazi pubblicitari online, e questo approccio è sempre più presente nelle scelte delle aziende soprattutto in termini di ottimizzazione dei costi e ritorno efficace degli investimenti. Le aziende intervistate convengono nell’affermare che il Programmatic rappresenti un canale pubblicitario chiave ed efficace, confermando un settore in piena crescita grazie anche alle possibilità nascenti di integrazione con altre tecnologie come l’Out of Home. Dalla ricerca emerge anche che già ora più del 50% degli advertiser già acquista o gestisce spazi in programmatic.

Nuove metriche di misurazione

Il tema della misurazione e dell’efficacia delle campagne pubblicitarie è da sempre considerato importante per gli inserzionisti.
La sfida del mercato è proprio quella di riuscire ad evolvere ed individuare standard più precisi che permettono una misurazione più puntuale del ritorno (ROI) delle campagne. Secondo la ricerca il 55% degli advertiser ritiene siano necessarie nuove metriche di misurazione in grado di delineare una cronologia del legame fra cliente ed azienda (customer journey), sempre più diversificata e multi-device.

Nonostante i modelli basati su approcci tradizionali restano ancora quelli largamente più utilizzati tra le tecnologie che segneranno il futuro del digital non c’è dubbio che a farla da padrone saranno i big data e l’intelligenza artificiale i quali combinati insieme saranno utili a definire con maggior precisione le strategie migliori da applicare.

Da ultimo, il mercato pubblicitario complessivo in Italia ha chiuso il 2018 a quota 8,2 miliardi di euro con una crescita del 4% e l’internet advertising si appresta a chiudere il 2019 intorno ai 3,2 miliardi di euro con tasso di crescita di circa il 10% e, secondo la ricerca, si prevede nel 2020 una crescita ulteriore. Gli investimenti sul Mobile aumentano, superando quelli su desktop. La ricerca evidenzia che il 79% delle aziende veicola principalmente campagne su mobile, soprattutto su smartphone (il tablet non supera il 10%), ma il desktop rimane un dispositivo chiave per il 76% degli intervistati.
Nel 2020 è prevista une crescita della spesa pubblicitaria trainata soprattutto da paid search, social e video. Negli ultimi anni la paid search ha risentito di una crescita continua grazie anche a maggiori possibilità di personalizzazione e soluzioni sempre più integrate ai processi di acquisto e vendita online e ai dispositivi mobile. I brand investono quote sempre maggiori anche sui social media.

SEO e SEM: l’unione fa la forza

Al cospetto di realtà imprenditoriali di maggior spessore, anche una piccola impresa ha la possibilità di mettersi online, andando a ritagliarsi così un opportuno spazio ‘competitivo’ in Rete: ciò ricorrendo ad un’oculata strategia fondata sostanzialmente su tecniche di web marketing.

Per ciò ci vengono incontro la SEO (Search Engine Optimization) e la SEM (Search Engine Marketing), attività che, se ben attuate e miscelate fra loro, consentono anche alle PMI di ottenere una cospicua crescita a livello digitale e raggiungere obbiettivi di visibilità on line inaspettati per la loro tipologia.

Due attività di web marketing efficaci sì, ma in cosa consistono in poche parole ?

SEO

La SEO comprende un insieme di tecniche e strategie mediante le quali aumentare la quantità di potenziali clienti e migliorare la qualità del traffico organico (cioè non a pagamento) verso il proprio sito web, generando in questo modo visite e traffico qualificato.
L’attività SEO garantisce, mediante opportune tecniche, di migliorare la visibilità on line in termini di ricerche per il proprio sito di attività/servizi e conseguentemente ne migliora il posizionamento nei confronti della concorrenza. Per contro, è alquanto attendibile che un sito web difficile da trovare (mancata adozione di simili strategie) non risulta essere una buona scelta per l’azienda né produce buoni risultati.

Le piccole imprese che adottano un piano SEO di qualità crescono più velocemente poiché lavorando ad una ottimizzazione del sito web
(basato su fattori On Page e fattori Off Page) per i motori di ricerca vengono dimezzati i tempi necessari per entrare in contatto con i potenziali clienti.


I vantaggi dell’attività SEO

Mediante una strategia SEO si ottengono risultati organici destinati ad avere successo maggiore nel lungo periodo, richiedendo contestualmente però un controllo e una cura costante. Andando cioè ad interessare specificamente la struttura del sito, gli effetti di una campagna SEO sono più duraturi e si propagano più fedelmente nel medio/lungo periodo.


SEM

Se la SEO mira ad aumentare il traffico organico (vale a naturale, che cioè non fa uso di strumenti/soluzioni a pagamento) verso il sito web attraverso l’utilizzo di tecniche gratuite mediante le quali si realizzano risultati organici (“strutturali”, propri del sito), l’attività SEM è orientata ad accrescere il traffico online mediante strumenti a pagamento (pay-per-click, ricerca a pagamento, pubblicità).

I vantaggi dell’attività SEM

Investire in annunci a pagamento fa sì che l’impresa possa apparire al momento giusto alla persona giusta (portando traffico profilato). L’attività SEM produce buoni risultati in poco tempo, rivolgendosi ad un pubblico già interessato al prodotto o al servizio offerti dall’azienda, perché terminati i benefici della campagna sponsorizzata ne svaniscono anche gli effetti, mentre una campagna SEO è stabile ed apprezzabile nel medio/lungo periodo: forse più gravosa perché riguarda direttamente il codice HTML ma i cui risultati sono più duraturi nel tempo.

Pur se adottate singolarmente, le due strategie promettono ottimi risultati se combinate insieme. Sta all’imprenditore, in ragione del proprio mercato, decidere quali delle due adottare, se non entrambe.

SEO e SEM hanno in comune l’obbiettivo di veicolare più traffico (mirato) possibile sul proprio sito web.

Gli effetti di un’attività SEM sono quantificabili nel breve periodo rivolgendosi ad un pubblico già interessato al prodotto/servizio, perchè terminati i benefici della campagna sponsorizzata ne svaniscono anche i benefici, mentre quelli che scaturiscono da una campagna SEO permangono anche nel lungo periodo.

L’unione di queste due tecniche consentirà una campagna di marketing digitale più forte, con ottimi risultati, permettendo alle piccole imprese di competere con i colossi aziendali, avendo investito in una strategia digitale completa e sviluppata in maniera ottimale, garantendosi in tal modo una crescita rapida e un successo duraturo.

Panoramica sulla SEO

(venerdì 8 febbraio)

Quando eseguiamo una ricerca su un qualsiasi motore di ricerca – Google Chrome, Internet, Safari, .. – viene generata un elenco pressocché infinita di risultati “attinenti” che prende il nome di SERP (Search Engine Results Page, ovvero “Pagina dei Risultati del Motore di Ricerca“). Ma come si origina questa lista ? con che logica e in base a quali criteri viene stilata seppur automaticamente ?
E’ questa una delle sfaccettature del Web che probabilmente rimane seminascosta ai più, specie se non si è interessati ad un “posizionamento” del proprio progetto web.
Esiste una “nicchia” che s’interessa specificamente e studia la collocazione di un sito web nella lista dei risultati che ci appare a terminale: stiamo parlando della SEO (‘Search Engine Optimization’). Un problema che assume indubbiamente particolare rilevanza per chi, titolare di una attività, fa del proprio sito una vetrina per la vendita di prodotti e/o servizi.


Il concetto di SEO nasce attorno al 1995 quando venne introdotto un insieme di strategie con la finalità di ottenere il miglior posizionamento – “ranking” – per un sito; al’epoca vigeva il dominio incontrastato di Yahoo! quale motore di ricerca. L’avvento di Google verso la fine degli anni Novanta comportò uno stravolgimento sul campo e la crescente complessità degli algoritmi che ne sarebbe conseguita, insieme al miglioramento dei nuovi motori di ricerca, compromisero gli equilibri esistenti sul mercato. Google inoltre cominciò a lavorare e lavora attualmente all’aggiornamento del proprio algoritmo per renderlo sempre più efficace e dettagliato nei risultati.

Fare SEO (Search Engine Optimization) significa adottare tutto un insieme di tecniche, strategie e regole finalizzate a far avere al progetto web su cui si sta lavorando un risultato di visibilità in termini di SERP. Scienza per definizione astratta in quanto non si basa su risultati certi e determinabili in un arco temporale definito bensì in continua evoluzione (si pensi all’adozione di algoritmi di ricerca sempre più affinati e specifici per ottenere il meglio dei risultati).

Componenti essenziali per condurre una buona attività SEO

Un’attività SEO, opportunamente preceduta da una attività di studio del settore e di pianificazione della strategia, a prescindere dal tipo di progetto da trattare, poggia fondamentalmente su due pilastri, due modalità operative: si tratta dell’Ottimizzazione SEO On Page e dell’Ottimizzazione SEO Off Page. Ognuna delle due tecniche prevede la necessità di dover operare su diversi parametri (‘fattori’) o adottare idonee strategie. La prima, tassello fondamentale della SEO, concerne l’adozione di determinati accorgimenti/migliorie sulla struttura del sito stesso (codice), la seconda riguarda tutto quell’insieme di strumenti che danno opportunità di far conoscere all’esterno il proprio sito (es. ottenere dei backlink – il fattore più importante per ottenere il miglior posizionamento possibile -. Essi in particolare vengono interpretati da Google come dei ‘punti’: più punti ottiene, più il sito è importante più Google lo premia con le prime posizioni).

Se per definizione l’Ottimizzazione per i Motori di Ricerca fino a non più di due anni fa era incentrata sul concetto di keyword e nozioni ad esse correlate come densità e ricorrenza e dava valore pure all’enfatizzazione del testo (grassetto, corsivo, ecc.), sia pure con l’introduzione di alcuni accorgimenti (ad esempio “long tail“), negli ultimi anni proprio l’inconsistenza del fare affidamento solo su di esse per una ottimizzazione seo emerse l’esigenza di andare oltre all’analisi delle kw per provare a comprendere il significato “intrinseco” delle parole in virtù di un “web semantico” (le keywords non erano più sufficienti ad ottenere risultati di qualità), ovvero guardare ad una specializzazione delle ricerche cogliendo l’accezione del termine ricercato (il valore semantico), ha fatto sì che cambiassero i “pesi” in gioco. L’avvento della semantica ha cioè fatto sì che non fosse più sufficiente affidarsi semplicemente ad uno specifico ed adeguato utilizzo di keywords in un contenuto/pagina web per migliorarne la visibilità in termini di SERP. SEO oggi significa adottare delle semplici regole che consentono ai motori di ricerca di comprendere l’argomento trattato dal sito/pagina e ai visitatori di trovare ciò che cercano.

Approcciando alla SEO occorre inoltre tener distinti i concetti di “indicizzazione” e “posizionamento”, termini spesso confusi … Indicizzazione è un processo naturale conseguente all’indicizzazione del sito; posizionamento è l’attività in senso stretto di ottimizzazione, interna ed esterna, del sito al fine di migliorarne la visibilità in termini di “query”.

Al concetto di SEO si affiancano quelli di SEM e Web Marketing. Detto della prima (‘Search Engine Marketing ‘) l’insieme delle attività messe in atto da un professionista dei motori di ricerca allo scopo di migliorare il posizionamento delle pagine di un sito web sulle pagine dei risultati organici (anche detti risultati naturali)
risultanti dai motori di ricerca – cioè non riconducibili a ‘strumenti a pagamento’ -, come Adwords o Adsense, Web Marketing indica invece le azioni di carattere commerciali – attuate per incrementare la visibilità e la rintracciabilità di un sito web tramite i motori di ricerca.

Verso il Web Semantico: il Knowledge Graph

(lunedì 4 febbraio)

Con l’avvento degli ultimi algoritmi supportati dai motori di ricerca (Hummingbird e RankBrain su tutti) la tendenza del settore è stata quella di fornire all’utente risultati sempre più specifici e attinenti alle query sottoposte (intento di ricerca). E questo sarà uno dei trend del settore nel 2019.

“Knowledge Graph”, questo sconosciuto

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) fu fin dal principio quello di classificare le informazioni disponibili nel web secondo una serie di relazioni. Gran parte dei servizi tecnologici che utilizziamo poggiano su enormi grafi.

Tutto questo lo fa grazie alla ricerca semantica, mettendo in relazione la query effettuata dall’utente col suo intento di ricerca e le informazioni che potrebbero essere più interessanti.

Il primo cambiamento di Google è stato nell’adozione di un motore semantico che pertanto potesse essere in grado di rispondere alle nuove esigenze di ricerca: di qui il motore di ricerca assume un connotato di intelligenza artificiale.

Lo scopo del Google Knowledge Graph (in Italiano “grafo”) è da sempre quello di classificare le informazioni disponibili nel web secondo una serie di relazioni.

Con il supporto del Knowledge Graph Google è stato in grado di semplificare le ricerche affinando la ricerca semantica in senso stretto.

Come appare in una ricerca un Knowledge Graph

Schematicamente, il Knowledge Graph si presenta come una scheda informativa a destra nella SERP dove poter trovare informazioni su personaggi, luoghi famosi, città, opere d’arte, film, avvenimenti, eccetera (in funzione della query posta)… il tutto senza esplorarne i risultati.

Il pregio di questa soluzione è di ottenere ‘risultati migliori‘ incrociando informazioni provenienti da diverse fonti con altre da siti autorevoli individuati dal motore di ricerca.

Google Duplex


Recentemente, nel maggio del 2018, durante l’annuale conferenza di casa Google per gli sviluppatori, è stata presentata quella che passerà come una novità assoluta per il settore: “Google Duplex”, applicazione di machine learning deputata  a fare il lavoro.

Analizzando Google Duplex, si possono cogliere alcune peculiarità fondamentali: per la tonalità della voce, la capacità di interagire e di condurre la conversazione, Google Duplex sembra praticamente umano. Si comporta come un automa, cioè dietro al programma non c’è nessuno che suggerisce le risposte. L’assistente vocale è indipendente e risponde in maniera dinamica alle interrogazioni; non ha preregistrata nessuna serie di risposte da utilizzare bensì per ciò si basa sul “web visibile”. Potendo contare su un elevato numero di pagine web fornite dal motore di ricerca, di volta in volta è in grado di passare contenuti rilevanti in base a quella che è la ricerca.

In breve, Google Duplex è stato “allenato” ad utilizzare il linguaggio umano partendo da un elevato numero di conversazioni.

Il concetto di machine learning (in cui rientra come detto Google Duplex, che è strettamente correlato a quello di intelligenza artificiale, tecnologie valide che che si contraddistinguono per il fatto di riuscire a processare una mole enorme di dati in maniera velocemente.

Google Knowledge Graph, uno step oltre la parola chiave

16 Maggio 2012, Google annuncia per la prima volta ufficialmente il lancio di un enorme Knowledge Graph.

Prima ancora che Google nascesse, la ricerca era legata all’utilizzo di parole chiave: infatti, la parte di ricerca faceva uso di un semplice matching di parole chiave. Ma le parole chiave non sempre bastano.

Nel momento in cui sottopongo un termine cioé non è dato sapere con quale accezione (in che contesto) debba essere inteso ! ed è proprio qui che interviene la potenzialità del ‘knowledge graph’.

Cosa vuol dire “Knowledge Graph”

Knowledge Graph cambia le cose. Il “graph” sviluppato da Google, infatti, rende il motore di ricerca un elemento più vicino agli utenti e consente di ricevere risposte su cose, persone, luoghi, celebrità, squadre sportive, città, edifici, personaggi storici, opere d’arte. Tutto direttamente all’interno del motore di ricerca. Vengono annullate le ambiguità. Ora è in grado di riconoscere la differenza tra le diverse accezioni del termine e può proporre da subito le risposte alle possibili query.

Mentre maturava l’idea del “grafo”, un ulteriore passo in avanti lo si è fatto nel 2005 quando è stato introdotto il nuovo algoritmo RankBrain mediante cui a fronte di una ricerca è possibile ottenere i migliori risultati possibili, ciò utilizzando quella che viene definita “Intelligenza Artificiale”. Mediante questa, grossi volumi di info e dati vengono trasformati in entità matematiche (“vettori“) comprensibili all’elaboratore.