Profilazione, Traffico Utenti e Filter Bubble

(giovedì 27 febbraio)

Per profilazione (in contrapposizione alla “privacy”) si intende la raccolta dei dati degli utenti nel momento in cui accedono ai siti per fruire (e ancor prima accedere) dei servizi offerti dagli stessi, la loro successiva elaborazione per la categorizzazione e successiva segmentazione degli utenti in base a vari criteri, inglobando sia dati personali sia dati cosiddetti “sensibili” trattati specificamente dalla normativa europea sulla protezione dei dati personali (GDPR).

Appare dunque come una sorta di automatismo che si presenta ogni volta che carichiamo un sito; la profilazione dei nostri dati, attraverso cui si passa quando accediamo a un qualsiasi sito internet, pare come una normale operazione cui ci troviamo davanti ogni volta che accediamo a un pc. Addirittura, può apparire come una sorta di lucchetto al sito: ‘O clicchi OK o il sito non lo vedi’ (leggi ‘se vuoi guardarmi gratis…‘). E fin qui, ok – direbbero i più, una mera operazione di “raccolta”.

Ma l’acquisizione dei nostri dati non si ferma qui, come potrebbero pensare in diversi, ad una banale operazione di “raccolta”.

Non è facile denotarlo una volta che si accede al browser ma facendo una semplice ricerca da un qualsiasi motore di ricerca – Google piuttosto che Safari – e a prescindere dal tipo di dispositivo che utilizzo – Apple o Android – in primo piano vengono visualizzati dei contenuti diversi, pur effettuando la medesima ricerca. Oggigiorno, qualsiasi motore nasconde diversi artifizi (es. geolocalizzazione, “lettura” delle abitudini) che “hanno il loro perché !” …, permettendo al motore stesso (e conseguentemente al business che ci sta dietro) di raccogliere delle informazioni su di noi – “dati tecnici” e “dati sensibili“, le nostre abitudini, i nostri gusti, ecc. permettendo di crearsi un “identikit” – a creare uno skilling della persona.

L’internauta dunque il più delle volte provvede a rilasciare le informazioni richieste “senza cognizione di causa” quasi, ignaro che dietro la profilazione dei dati si nasconde un’altra “arma” a vantaggio dei magnati proprietari del motore di ricerca: adottando cioè questa strategia il motore è in grado di proporci direttamente informazioni e contenuti secondo i nostri interessi e quindi, invece di andare all’esterno, mettendo a disposizione proprie risorse nelle ricerche effettuate di modo che le persone rimangono all’interno del motore stesso, e ciò aumenta il loro guadagno (leggi “traffico di utenti“).
Non sono solo le inserzioni pubblicitarie ad essere personalizzate sull’utente ma anche i contenuti che vengono proposti (‘ognuno di noi ha il proprio Internet‘): i risultati ottenuti non sono perciò uguali da me a Tizio a Caio: ‘Internet allora non è uguale per tutti !!’. Questa chiusura esercitata nei confronti del cliente che ne consegue favorisce la crescita del motore (‘Filter Bubble‘).

La profilazione si realizza tramite i cookies, mattoncini che raccolgono e tracciano ciò che abbiamo fatto quando eravamo sul sito (nonché i nostri dati), pertanto risultiamo “schedulati” quando si torna.
Questi piccoli pezzi di codice svolgono certamente delle funzioni importanti (cookies tecnici), ma ve ne sono alcuni intrusivi che tracciano dati sensibili mentre noi siamo sui siti internet (cookies di tracciamento) fra cui cookie maligni che cercano di rubare informazioni private dai computer degli ignari navigatori.

Abbiamo motori di ricerca che accolgono la profilazione dei dati – e sapere tutto quello che si fa – (Google, Bing, Yahoo, Virgilio, ecc.) altri come Ecosia, Qwant, DuckDuckGo, StartPage che al contrario permettono una “libera circolazione”: questi non tracciano un profilo da conservare, si rispetta privacy, è possibile una ricerca aperta (senza cioè essere spiati).

Esistono peraltro degli strumenti che permettono di non essere tracciati (ad es. attraverso il comando adsettings.google.com: possibilità di ATTIVARE/DISATTIVARE – ovvero tracciare – GLI ANNUNCI PUBBLICITARI; se digito google.com/locationhistory scopro i miei movimenti tracciati da Google).

https://www.iene.mediaset.it/video/google-motori-di-ricerca-ci-conoscono_698130.shtml

Primati di AI: Chatbot e Assistenti Virtuali

(19 febbraio)

In principio fu il mobile. Un settore che rapidamente ci ha imposto e abituato, con la sua crescita esponenziale, ad avere tempi di risposta sempre più rapidi dagli elaboratori, in un mondo pervaso dalla smanìa del “tutto e subito”, ma anche ad un continuo rincorrersi di artifizi e tecniche che soddisfacessero i nostri bisogni/desideri. Ebbene, anche a ciò l’informatica più avanzata ha saputo rispondere con le applicazioni dell’AI.

In particolare, a queste esigenze vengono incontro i cosiddetti “chatbots“. Si tratta di software piuttosto che dispositivi in grado di interpretare comandi vocali e interagire con le persone, in funzione proprio dell’Intelligenza Artificiale. Ne esistono di due tipi: i “chatbot” e gli ‘assistenti vocali” (o ‘virtuali”).


Un Chatbot è un software programmato che simula una chat: vale a dire, permette di ricreare una sorta di ambiente virtuale – ad es. una chat appunto – in cui un utente può confrontarsi per ottenere delle risposte . Può essere pensato come un programma in grado di ricevere domande e rispondere secondo specifiche; è strutturato come una alberatura domande/risposte che vengono effettuate in successione al fine di arrivare a una risposta. L’Assistente Vocale è invece basato su algoritmi intelligenti, mediante i quali si ottiene la comprensione di concetti precisi. A differenza del primo, entra in relazione con l’utente perché comunica con un “linguaggio naturale“, cioè comprensibile alla macchina; è un chatbot dotato di intelligenza artificiale, capace di rispondere anche a domande non previste.

Due applicazioni software che vengono utilizzati in disparati campi di applicazione – dalla casa al settore sanitario, alle applicazioni sulle automobili, ecc. -, e conseguentemente gli sviluppi che hanno seguito.

“La diversa interazione che si stabilisce con questi due differenti Virtual Assistant determina un diverso approccio alle due tecnologie: il chatbot è un software che può simulare una conversazione strutturata, e trova particolare applicazione nel settore ‘Customer Care‘ sostituendosi all’operatore umano; l’Assistente Vocale come detto altrove è una applicazione risultato di intelligenza artificiale e machine learning in grado di elaborare comandi vocali, che si può definire essenzialmente come un ‘aiuto nella quotidianità‘.

Quella dei chatbot in senso stretto è perciò una soluzione ideale nel campo dell’assistenza clienti dove è sempre più importante la qualità e la velocità del servizio.
Al contrario gli Assistenti Vocali (o Assistenti Virtuali) sono destinati ad un uso in larga parte casalingo, e il successo è apprezzabile nell’uso dispendioso che ne stanno facendo i consumatori i quali ben hanno accolto l’adozione dei comandi vocali, arrivando finanche ad assumere le sembianze di un umano con cui dialogare e addirittura in grado di risolvere possibili problematiche con un approccio empatico !

Diversità oramai latente a ben vedere. Se in passato, il chatbot poteva eseguire solo compiti specifici come una modifica della password o fornire informazioni sul tempo, al contrario dell’assistente virtuale in grado di offrire un ventaglio più ampio di risposte ricorrenti, i progressi che si sono ottenuti con la NLP (Natural Language Processing) e l’apprendimento automatico, hanno accorciato la forbice esistente tra i due: così, ecco che anche il chatbot in senso stretto viene ad essere una applicazione a cui rivolgere domande e ottenere risposte secondo specifiche fornite. “In futuro potremmo forse arrivare a parlare di un unico Assistente Virtuale, capace di integrare al suo interno soluzioni diverse che consentano diversi tipi di interazione, capaci in questo modo di andare incontro alle esigenze e preferenze di un numero maggiore di consumatori.”

La natura stessa dei chatbot delimita le loro capacità. Ogni chatbot è in un certo senso ancorato ad una funzione limitata: sono adatti ad applicazioni singole come il supporto clienti, il customer engagement o gli acquisti automatizzati. Non possono variare il loro vocabolario o acquisire un linguaggio così vasto da poter servire qualsiasi altra funzione, oltre a quella per cui sono stati progettati.
Come visto, vengono tendenzialmente usati per il supporto clienti (di qualsiasi natura, dal meteo fino ai consigli per i film) o per gli acquisti automatizzati (ad esempio per i biglietti del treno). Ancora adesso hanno difficoltà a ricordare le informazioni chiave durante le conversazioni. Viceversa gli assistenti virtuali dimostrano che possono memorizzare ciò che gli si dice, conservando le informazioni per uso futuro, risparmiando all’utente il tempo e la noia di riscriverle ogni volta. Dovessi chiedere info su un ordine o delle informazioni riguardo a modifiche da apportare, non ti chiederebbe di inviarle nuovamente.

“E’ importante che i Virtual Assistant rispecchino i desideri degli utilizzatori finali che, pur sapendo di stare interagendo con una macchina, preferiscono che questa abbia caratteristiche tipicamente umane, come la pazienza e l’empatia.”
“Umanizzare il più possibile l’Assistente e la modalità di interazione è dunque fondamentale per far sì che l’uso di questi software sia sempre più naturale e coinvolgente per gli utenti, elemento fondamentale per una reale diffusione di questa soluzione.” [rif.: www.vidiemme.it]

L’Assistente Virtuale è un’interfaccia di comunicazione che si basa su un motore cognitivo il quale, comprendendo i concetti affrontati, permette di simulare una conversazione vera e propria, uscendo dagli schemi logici preimpostati di domanda/risposta tipici della Chatbot.

Quindi un assistente virtuale è molto diverso da un chatbot. Fin dall’inizio, la tecnologia degli assistenti virtuali ha permesso loro di essere utilizzati per applicazioni sofisticate come pure molto semplici, ad esempio svolgere compiti o fare ricerche e confrontare prodotti, oltre a molte abilità.
Importante è la loro capacità di comprendere il linguaggio naturale, che consente di ricevere comandi vocali complessi in varie lingue e dialetti. I ricercatori dell’Università di Stanford hanno pubblicato un recente articolo sul Natural Language Processing (NLP), spiegando come migliorerà notevolmente la comprensione dei dialetti regionali, dello slang o del modo naturale di parlare.

Quando si parla di Natural Language Processing intendiamo l’elaborazione automatica del linguaggio umano mediante l’analisi delle sue varie componenti (entità): traduzioni, sentiment analysis, generazione automatica di testi e chatbot sono alcune tra le problematiche più comuni nel campo.

Così, i chatbot si sono evoluti rispetto ai primordiali e possono svolgere più funzioni grazie alla loro capacità di comprendere il linguaggio. L’uso di alberi decisionali, ad esempio, rende molto più facile scoprire l’intento preciso che sta dietro le richieste degli utenti, ampliando ulteriormente la sua utilità per il cliente e dunque per l’azienda, che può leggere meglio le richieste della clientela e prendere decisioni per il miglioramento del prodotto o servizio.

Particolare notare come in corrispondenza della rapida diffusione dei social network si è assistito al passaggio dell’utente da semplice fruitore di notizie a “protagonista attivo” e costantemente operativo, sempre più coinvolto nella produzione di contenuti propri come nella modifica di esistenti e in attività relative ad acquisti e vendite di oggetti e servizi – siamo nei primi anni del XXI secolo -, unitamente all’informatizzazione dei processi aziendali.

In questo contesto, l’importanza dell’Intelligenza Artificiale passa per l’applicazione di nuovi approcci, che integrano l’elaborazione del linguaggio naturale con gli algoritmi di apprendimento profondo (deep learning), producendo risultati straordinari in differenti scenari applicativi.
Dal 2011, l’NLP fornisce soluzioni per analizzare la struttura sintattica del testo (es. nome, verbo, aggettivo), identificando entità e classificandole in categorie predefinite, ricostruendo la struttura sintattica e la semantica tramite il significato delle parole, anche relazionato al contesto e alle modalità di utilizzo (ad es. ironia, sarcasmo, sentimento, umore), classificandolo in categorie predefinite (ad es. sport, geografia, medicina) o sintetizzandone il contenuto. Differenti problemi di NLP sono stati affrontati mediante un algoritmo basato sul deep learning , mostrando prestazioni via via migliori rispetto ad altre modalità di approccio; tecniche di NLP basate su deep learning stanno trovando sempre più applicazione riguardo lo sviluppo di sistemi conversazionali in grado di emulare il dialogo umano, di rispondere a domande su diversi argomenti. [cit. www.agendadigitale.eu]

Al primaverile la u14 di Luvinate parte col diesel

(domenica 16 febbraio)

Inizia oggi il “mio” primaverile 2020: eccomi a Casciago per la conduzione dell’incontro ‘u14’ fra la compagine locale guidata da Dal Zotto contro la bustocca Audax di coach Trentin.
“Matricola” CSI Luvinate alla prima esperienza nel campionato under 14 (gran parte del gruppo proviene infatti dal serbatoio under 13) altrettanto giovane il sodalizio Audax.

Nonostante ciò la squadra ospite si presenta determinata e non sente affatto alcun divario contro il sodalizio locale che per contro appare in questi primi scambi disunita e poco incisiva, pagandone le conseguenze poi per il set, inerme di fronte al gioco della variegata e alquanto vivace – sportivamente parlando – delle ospiti (0-4). Le successive rotazioni non mostrano significativi cambi di marcia fra le due contendenti (4-9, 9-13) per il finale 25-27.

Col secondo Luvinate ripropone lo stesso sestetto, ma stavolta seguendo un perfetto modello matematico (7-2). Luvinate rientra in partita (15-7) e stavolta sono le atlete di Audax a sbagliare parecchio favorendo l’allungo di Luvinate (22-15, 23-16; 25-17).

La formazione di casa ha ritrovato la sua forma ?

I successivi set possono essere paragonati a una cartina tornasole dimostrando la vera identità del gruppo locale, fatto salvo che l’allenatore dovrà ben plasmarlo provenendo le ragazze da esperienze diverse, pare ne diano prova, spinte da un buon break realizzato dal capitano con Audax che subisce quasi inerme e con poca determinazione (25-9, 25-15).

Prova d'appello per le ragazze 'u14' di Gaggini … a testa alta

(domenica 9 febbraio)

A due settimane di distanza rieccomi alla palestra del Centro Giovanile San Carlo per dirigere come secondo arbitro la gara regionale di ritorno della compagine ‘u14’ di coach Gaggini opposta a Grossman, in coppia con il collega Gianluca.
Rewind: seconda classificata nel girone provinciale , la under 14 di San Carlo affronta la prima della classe del girone M del campionato PGS milanese Grossman, in cui ha fatto la “voce grossa” assieme a Città di Opera in confronto alla quale per un migliore quoziente set si è guadagnata la prima piazza finale.

Nonostante il perentorio 3-0 subito nella gara di andata il referto parla di una gara abbastanza combattuta (75-65 ai punti) da entrambe, a testimonianza dunque di una gara che il sodalizio varesino ha saputo gestire adeguatamente, aldilà di ogni possibile gap rispetto alle avversarie; e dunque si prospetta un ritorno carico di incertezza che … potrà nascondere delle sorprese “per Milano”(rif. Maurizio).

E in effetti si vede la squadra di casa affatto dimessa, al contrario Grossman verosimilmente sottotono – almeno nella parte iniziale -, dove non si vedono svettare quelle pedine parse fondamentali nella gara d’andata.

La compagine milanese si presenta come un sodalizio relativamente giovane in confronto alle locali, facendo balenare una eloquente diversità dei pesi in gioco. Partita dai ritmi serrati (vedi parziali a referto), per due ore di gioco (addirittura il secondo 30′) !! Da ambo le parti squadre poco fallose, che sviluppano parecchio il gioco su tutti e nove i metri a disposizione piuttosto che in prossimità della rete, con azioni talora “da manuale”, commettendo perciò poche “azioni di disturbo”.

Già il primo set delinea quello che sarà l’andamento della gara con le due squadre a rincorrersi – gap ridottissimi – ; Grossman poi che tenta di dettare legge (2-4, 6-11), sotto l’egida e le indicazioni della panchina, ma verosimilmente – pe quanto si vede – la squadra ospite non brilla per “efficacia” e sul giro di boa, quando si denotano alcune inefficienze delle ragazze in battuta, avverte il fiato di San Carlo (12-14), per poi far registrare il 15 pari. A questo punto, le giocatrici di Grossman peccano in battuta (successivi importanti errori !) favorendo il rientro della squadra di Gaggini (16-16, 19-17, 21-18), che frattanto pare rinfrancata per il finale 25-19.

Stessa determinazione “palpitante” nella frazione successiva con Grossman che tenta ancora di allungare sin da subito (0-3, 3-6). Poi le locali con una buona ricezione e complicità del sestetto mettono la freccia(9-7, 12-10, 13-11). Alla seconda rotazione l’andamento delle parti si inverte rispetto a quanto accaduto nella frazione precedente: è così ora San Carlo a commettere errori a rete e leggerezze della prima fila, mentre la formazione ospite “tiene” (16-18, 17-21). Le ragazze di Gaggini non riescono a mantenere alta la concentrazione favorendo l’affondo delle avversarie per il conclusivo 19-25.

Cresce visibilmente la tensione sulla panchina ospite che non smette a richiamre le giocatrici; San Carlo per contro non molla la spugna (testa a testa , 8-8). “testacoda” di San Carlo per 11-9, inefficacia delle milanesi e pressing della squadra di casa che ora si presenta molto duttile, in particolare efficace sulla rimessa in gioco della palla (14-11, 15-13). Ma “mai dire gatto se …” : Grossman rientra (16-17, 18-20) e va ad amministrare così l’epilogo della frazione (20-25).

La compagine milanese vuole ora chiudere (0-4); adesso i break si fanno un pò pesanti (3-6, 4-8) ma San Carlo si rimette in carreggiata e le avversarie se ne accorgono: 12-13, 14-14. La compagine di casa non molla e tira fuori “anima&core” che valgono il sorpasso: 18-16, poi 22-18 per il conclusivo 19-25. Si va al tie-break mentre Grossman assapora il passaggio al turno successivo. Le ospiti cercano subito un gap rassicurante (0-3), mentre emerge la stanchezza nelle ragazze di Gaggini: 2-6; la formazione ospite risulta ben schierata in campo e a copertura del campo, non concedono spazi e arrivano così al cambio campo con un break importante 5-8. Il gap consente loro di affrontare e amministrare la seconda parte del quinto set con maggiore scioltezza fino al 14-16 finale.
Bella partita tutto sommato, amministrata saggiamente dal collega Gianluca; io da secondo denoto personalmente un miglioramento come “secondo” rispetto al precedente impegno di due settimane fa con una maggiore presenza sulla rete mettendo in secondo piano la visuale e co-presenza sul campo, sulle dinamiche sui 18 metri del campo di gioco.

Nell'era dell'Internet of Things

(martedì 4 gennaio)

E’ di trent’anni fa la nascita di una nuova “dimensione” per l’informatica, il frutto di una stretta sinergia fra sviluppo di applicazioni, elaborazione e comunicazione fra apparati diversi – alla stregua di quanto avviene normalmente fra personal computer, tablet e smartphone -: l’era dell’Internet of Things (IoT o IoC), un settore che seppur agli albori tramite soluzioni mano a mano più specifiche sta interessando sempre più il nostro quotidiano e le nostre abitudini, aprendo così ad un campo di applicazioni che è molto vicino a noi.

Internet of Things estende a “dispositivi robotizzati” la capacità di raccogliere, elaborare e scambiare dati tra di loro azioni tipiche dei computer, permettendo di migliorare monitoraggio, controllo e automazione degli stessi.

L’Internet delle cose beneficia degli sviluppi nei campi dell’elettronica e della comunicazione wireless per abilitare le capacità digitali e di comunicazione di elettrodomestici, telecamere, termostati, sistemi di fabbrica, veicoli, dispositivi wearable, ausili e sanitari.

Anche se non ce ne accorgiamo, perlomeno per chi è al di fuori del settore, l’Intelligenza Artificiale (AI) – in combinazione con il machine learning – sta prendendo sempre più piede anche nella nostra quotidianità.

Così, accanto ad applicazioni sempre più specifiche e complesse, l’AI fra le diverse applicazioni è entrata pure fra le mura domestiche con gli Assistenti Vocali: piccole apparecchiature (‘apparecchiatura elettronica’ la definirebbe un non addetto ai lavori) in realtà dispositivi che, basandosi sui fondamenti dell’Intelligenza Artificiale e del machine learning, permettono alle persone di interagire semplicemente tramite la voce, impartendo comandi, facendo loro compiere specifiche operazioni (chiedere informazioni di vario genere – es. la temperatura di casa, che ora o che giorno è – come la riproduzione di musica).
I più comuni assistenti vocali sono Alexa, l’Assistente Google e Siri.

Tutto questo è possibile grazie all’intelligenza artificiale ed al machine learning mediante i quali progressivamente con la commistione con altri protocolli quali ad esempio le reti wireless si potrà contare su assistenti vocali sempre più precisi; progetto è ancora agli albori e non presumibilmente sbrigativo.

HTML Snippets Powered By : XYZScripts.com