Categories
Uncategorized

Analizzando i flussi di social media usando il pot

TheMummichogblog è un partecipante al Amazon Services LLC Associates programma, un programma di affiliazione pubblicitario progettato per fornire un mezzo per siti per guadagnare tariffe pubblicitarie con la pubblicità e il link al amazon.com. Amazon, il logo di Amazon, AmazonSupply, e il logo AmazonSupply sono marchi di Amazon.com, Inc. o delle sue affiliate.

Analizzando i flussi di social media usando il potere di BI e Logic Apps
2020/05/03 Condividi
Una foto di Phil Beaumont.
PHIL BEAUMONT

Data Solution Architect e AI di Microsoft

--------------------------------------------------------------------------------------------------



Vi esorto dunque, fratelli, per la misericordia di Dio, ad offrire i vostri corpi come sacrificio vivente, santo e gradito a Dio; è questo il vostro culto spirituale.


Subscribe By E-mail:

Enter your email address:

Delivered by FeedBurner



----------------------------------------------------------------------------------------------

TechNet UK
Un esempio di una nuvola fatta di pezzi di un puzzle, con un disegno di bit del Raccoon a destra dell’immagine.

Numerose sono le tecnologie che possono essere utilizzate per lo streaming, analizzare e visualizzare i tweet su Azure, tra cui le tecnologie tradizionali Big Data, come Hadoop, Kafka, Spark, Tempesta, No SQL DB e altro ancora. Tuttavia, ci sono anche una serie di servizi PAAS che possono essere utilizzati per ottenere lo stesso risultato, con molto meno di codifica, configurazione e l’impostazione sforzo e una migliore manutenzione e capacità di HA / DR.

Un modello semplice per l’analisi Twitter è questo:

Un diagramma che mostra un modo di analizzare il potenziale dei social media – utilizzando le applicazioni logiche, database SQL e servizi cognitivi per analizzare Twitter, e visualizzare i risultati in Power BI.

LogicApp viene utilizzato per estrarre i dati da Twitter periodicamente utilizzando il connettore Twitter integrato, l’API di testo Cognitive Services può essere chiamato dall’interno LogicApp ed i dati arricchiti inseriti in SQL DB e alimentazione BI può essere utilizzato per generare gli aggregati / misure / KPI e per visualizzare i dati. Servizi cognitivi fornisce una varietà di servizi di apprendimento delle macchine che sono estremamente utili per l’analisi di social media come sentiment analysis, la moderazione (meno arrossisce se la profanità viene rimosso automaticamente), traduzione e intenti (siano essi di porre una domanda o fare un reclamo).

Logica Applicazioni -> Twitter Connect,
Uno screenshot della schermata Designer Logic Apps, che mostra quali tweet sarà tirato a utilizzare determinati termini di ricerca.

Logica Applicazioni -> Servizi Cognitive,
Uno screenshot che mostra Logic Apps Designer affermando che Text Analytics verrà eseguita per ogni tweet tirato dentro.

Logica Applicazioni -> Database SQL
Una schermata che mostra i risultati di Analisi del testo verrà aggiunto a una riga in una tabella.

Potenza BI -> Database SQL
Uno screenshot che mostra la creazione di un nuovo database SQL Azure.

Questa è un’architettura impressionante per la prototipazione rapida di una soluzione e consente di regole di business / logica di essere cambiato rapidamente. Tuttavia, per la produzione di un’architettura che ha punti deboli:

generazione Aggregate Power BI permette di modificare la regolamentazione rapidi ma non consente tali norme per essere condivise tra più report, che richiedono le regole da ricreato in ogni rapporto. Questo ha evidenti di governance dei dati e la qualità preoccupazioni. Questi calcoli dovrebbe essere fatto nel DB, in modo che un insieme coerente di regole può essere applicato in tutti i rapporti. Un esempio PowerBI cruscotto è mostrato di seguito (questo è disponibile come modello di alimentazione Bi Solution):
Uno screenshot che mostra un esempio cruscotto Potenza BI.

Applicazioni logica è esposto direttamente alla API di Twitter. Mentre è possibile aggiungere logica buffer codice e ritardi in Logic applicazioni per gestire tweets alto volume, altri componenti sono disponibili.
Questo è solo analisi di percorso calde. Non c’è alcuna disposizione per l’analisi a freddo / batch.
Un diagramma aggiornato per Tweet analisi, tra cui flusso Analytics, Blob di archiviazione e un database SQL.

L’architettura può essere migliorata come da sopra, con l’aggiunta di Hub Evento, Stream Analytics e Blob di archiviazione:

Evento Hub disaccoppia la connettività Twitter e agisce come un buffer scalabile per tweets entrata per prevenire il sovraccarico dei componenti a valle. Esso può trasmettere a più uscite quindi potrebbe anche trasmettere un materiale grezzo per Blob bagagli, ma questo avrebbe l’arricchimento dall’analisi sentimento etc.
Analogamente a Logic Apps, Stream Analytics può effettuare chiamate senza scalo a servizi cognitivi per eseguire l’analisi sentimento, moderazione ecc, tuttavia, Stream Analytics può anche eseguire le aggregazioni su più criteri e le finestre temporali e spingere i risultati in SQL DB. Può anche trasmettere un materiale grezzo (con o senza arricchimento) in stoccaggio Blob. I dati possono essere anche in streaming direttamente in energia di BI per fornire reporting in tempo reale, piuttosto che nei pressi di reporting in tempo reale.
In memoria di archiviazione colonnare può essere utilizzato in SQL DB, con i trigger utilizzati per calcolare misure supplementari. Questo riduce al minimo la complessità delle query e il carico di lavoro del Potere BI, riducendo in modo significativo il tempo di aggiornamento dei report che è fondamentale nella segnalazione quasi in tempo reale. Assicura inoltre la coerenza delle regole di business per i KPI in più rapporti come le regole sono memorizzate nel DB e non il rapporto.
Passando i dati in Blob di archiviazione consente ai dati di essere ripresa da altri Azure Data Services per ulteriori elaborazione analitica “percorso a freddo” o on-premise sistemi analitici. Tuttavia usando archiviazione Blob è l’equivalente di pratiche di dumping dei dati in file su una condivisione di file on-premise; Ci sono più sofisticati, servizi di funzionalità più ricchi, come Azure lago di dati o Azure CosmosDB che sarebbe scelte migliori. Archiviazione BLOB, tuttavia, fanno un’ottima area di sosta di transizione prima di lotto spostare i dati in Azure Lago dati. Basta non provare e utilizzare Blob di archiviazione come un “lago di dati” o è molto probabile che finire con una “palude dati” o “Fill dati Terra Digitale”. Una volta nel lago di dati I dati possono essere ulteriormente utilizzato e analizzato da Azure Lago dei dati di analisi, Machine Learning Studio / Banco di lavoro, HDInsight, SQL Data Warehouse, Databricks e Azure Cerca, a seconda del caso d’uso. Ciò è illustrato di seguito:
Un diagramma espanso che mostra il processo con ulteriori aggiunte, tra apprendimento automatico, analisi lago dati e HDInsight.

Ulteriori elaborazione del flusso di lavoro per gli scenari, come rispondere ai reclami dei clienti e le query, individuando e perseguendo porta, modificando le campagne di marketing, migliorando eventi esperienza può gestito mediante:

percorso per lavorazione a caldo utilizzando Logic Apps per elaborare un flusso in tempo reale dal flusso Analytics. Questo permette al flusso di essere pre-elaborato prima passare in Logic applicazioni, minimizzando il carico di lavoro Logic applicazioni. Logic Apps può effettuare chiamate aggiuntive ai servizi cognitivi e altri, nonché fornendo la gestione del flusso di lavoro subordinato e passando il messaggio per l’elaborazione del caso a valle, ad esempio, un gestore di chiamata, hub di notifica, e-mail, un tweet, o migliorare l’interazione bot. Un secondo evento hub dovrebbe essere utilizzato tra Stream Analytics e Logic applicazioni per fornire un cuscinetto tra i due e consentire Logic applicazioni di consumare i messaggi al proprio ritmo.
E / O

percorso a freddo di trasformazione che utilizzano, ad esempio, Azure dati Lake Analytics per analizzare e dei dati di tiro. Uso dei parametri o di apprendimento automatico, i dati possono essere tirato fuori dal negozio di dati freddo e spinti su una coda di messaggi per un’adeguata lavorazione a valle.
Queste opzioni sono illustrate qui di seguito:

Un diagramma aggiornato che mostra ancora più opzioni, come ad esempio l’output di analisi direttamente al bot, specialisti dei clienti o e-mail.

Il punto di decisione sui 2 metodi è giù per il caso d’uso e ciò che il tempo di risposta e analisi finestra per tweets sono. Per esempio, la modifica di un campagna di marketing basata su tweet ricevuti più di una settimana sarebbe un caso d’uso percorso freddo appropriato. In risposta a un reclamo del cliente o di query è un caso d’uso percorso rapida appropriata.

cloudblogs.microsoft.com/industry-blog/en-gb/technetuk/2020/03/05/build-analytics-on-social-media-streams-using-power-bi-and-logic-apps% e2% 80% 8b /? WT.mc_id = AID728411_EML_6982083

Amazon e il logo di Amazon sono marchi di Amazon.com, Inc., o delle sue affiliate.