Skill Factory
Categoria: Formazione e lavoro
Big Data - Cosa sono e cosa cambia (seconda parte)
Gino Visciano |
Skill Factory - 16/03/2019 00:16:42 | in Formazione e lavoro
Tutte le volte che interagiamo con un dispositivo connesso ad Internet, consapevolmente ed a volte anche inconsapevolmente, produciamo dati.
Le aziende lavorano ed analizzano i nostri dati principalmente per ottenere un vantaggio competitivo.
Il mercato dei Big Data è in forte crescita perché le aziende, sempre di più, richiedono l'uso di questo strumento per i seguenti motivi:
- Aumentare il fatturato attraverso la crescita delle vendite;
- Rendere prevedibile lo sviluppo della domanda, basandosi sui comportamenti dei clienti;
- Dare più valore all’account management analizzando le operazioni tra venditori e clienti e prevedere ciò che è meglio fare per un qualsiasi cliente;
- Aprire nuove opportunità di business, per chi voglia allargare il mercato puntando su clienti relativamente nuovi.
Quando ai Big data si uniscono gli analytics è possibile:
- Determinare, quasi in tempo reale, le cause di guasti, avarie o difetti;
- Creare offerte nei punti vendita basate sulle abitudini dei clienti;
- Ricalcolare interi portafogli di rischio in pochi minuti;
- Individuare comportamenti fraudolenti prima che colpiscano la propria organizzazione.
Si usano quattro modelli di analytics:
Descriptive Analytics: strumenti orientati a descrivere la situazione attuale e passata dei processi aziendali e/o aree funzionali. Tali strumenti permettono di accedere ai dati secondo viste logiche flessibili e di visualizzare in modo sintetico e grafico i principali indicatori di prestazione;
Predictive Analytics: strumenti avanzati che effettuano l’analisi dei dati per rispondere a domande relative a cosa potrebbe accadere nel futuro; sono caratterizzati da tecniche matematiche quali regressione, forecasting, modelli predittivi, ecc;
Prescriptive Analytics: applicazioni big data avanzate che, insieme all’analisi dei dati, sono capaci di ottenere soluzioni operative/strategiche sulla base delle analisi svolte;
Automated Analytics: capaci di implementare autonomamente l’azione proposta secondo il risultato delle analisi svolte (Machine Learning).
I Big Data possono essere analizzati in due modalità diverse:
1 - Batch: in questa modalità i dati da analizzare vengono aggiornati ad intervalli periodici, è una modalità tipica del Data warehouse
2 - Streaming: in questa modalità i dati da analizzare vengono aggiornati in tempo reale, modalità tipica dell'IoT.
Per individuare i modelli di utilizzo degli Analytics è necessaria anche definire le tipologie di dati da analizzare che possono essere principalmente di due tipi:
1 - dati strutturati: organizzati in tabelle o modellati in formati tipo XML, JSON, BSON e CSV.
2 - dati destrutturati.
I dati destrutturati sono tipicamente:
- testo;
- immagini;
- video;
- audio;
- elementi di calcolo.
L'immagine seguente descrive l'ecosistema Hadoop, la piattaforma che offre tutti gli strumenti necessari per gestire grandi quantità di dati.
Lo schema mette in relazione tra loro tutti i livelli fondamentali per la lavorazione e l'analisi di Big Data.
I diversi tipi di repositories disponibili, possono essere alimentati da sorgenti di dati differenti attraverso processi di caricamento (ETL/ELT) di tipo batch o streaming.
La grande quantità di dati caricati, attraverso il filesystem distribuito HDFS, può essere immagazzinata sui nodi del cluster Hadoop, rappresentato da un insieme di computer, detti nodi, che condividono i propri dischi, creando un'unica grande memoria di massa.
Utilizzando strumenti come MapReduce, i Big Data possono essere mappati e ridotti, il risultato di questo lavoro potrà essere analizzato dalle diverse applicazioni diponibili oppure potrà essere interessato ad operazioni di Machine Learning.
La potenza di calcolo richiesta per l'esecuzione dei JOB di map reduce e di analasi viene fornita dalle CPU dei computer del cluster Hadoop, attraverso multiprocessi paralleli (MPP) gestiti da YARN di Hadoop.
Attualmente esistono esperienze d'implementazione di progetti di Big Data Analytics in medie e grandi aziende dei seguenti settori:
La figura professionale che in azienda si occupa delle strategie per gestire grandi quantità di dati e della loro interpretazione è il Data Scientist.
Per svolgere questo ruolo bisogna avere competenze in ingegneria, informatica, statistica, economia e matematica, in particolare è richiesta la conoscenza dei seguenti linguaggi di programmazione:
- Java
- Scala
- R
- Python
e la capacità di sviluppare ed implementare algoritmi di Machine Learning.
In Italia un Data Scientist può guadagnare oltre €30.000,00 all'anno, in funzione del livello di seniority raggiunto.
DIFFERENZA TRA DATA ANALYST E DATA SCIENTIST
Il Data Analyst è colui che esplora, analizza e interpreta i dati, con l’obiettivo di estrapolare informazioni utili al processo decisionale, da comunicare attraverso report e visualizzazioni ad hoc.
Il Data Analyst parte dal lavoro svolto dal Data Scientist per trasmettere e interpretare le informazioni al fine di supportare gli utenti con cui collabora.
Questa figura professionale non proviene da un percorso estremamente tecnico, è preferibile anzi che abbia compiuto studi economico-manageriali, in modo da poter parlare lo stesso linguaggio delle figure di business con cui andrà ad interfacciarsi.
Lo stipendio medio di un Data Analyst in Italia è di circa €27.000 all'anno.
PRINCIPALI STRUMENTI PER L'ANALISI DEI DATI
Gli strumenti di analisi dei dati, anche detti di front-end, più richiesti dalle aziende sono: Tableau, Qlik e Power BI, cliccate sui loghi per accedere ai siti ufficiali.
Big Data - Cosa sono e cosa cambia (prima parte)
Gino Visciano |
Skill Factory - 09/02/2019 10:06:22 | in Formazione e lavoro
Le nuove tecnologie, come ci insegna la storia, inevitabilmente impattano sulle nostre abitudini e finiscono per modificare i nostri comportamenti sociali, culturali e commerciali.
Da quando abbiamo iniziato ad utilizzare i Personal Computer, le reti ed Internet, i nostri ritmi di vita sono cambiati radicalmente, soprattutto dopo la diffusione dei dispositivi mobile e dell'IoT (Internet of things - Internet delle cose), sono aumentate le interazioni tra le macchine e le persone e la quantità di dati prodotti.
Questa grossa quantità di dati creati dalla Rete presenta il problema dell'archiviazione e della gestione per ricavarne informazioni utili.
Dagli anni '50 in poi, i supporti di archiviazione dati, sono diventati sempre più capienti. Nel 1956 fece la sua comparsa il primo disco rigido della storia, ideato dalla IBM, conteneva appena 5 megabyte di dati. Negli anni '80, sono nati i CD-ROM che potevano contenere fino a 700 megabyte, sostituiti negli anni '90 dai DVD che avevano una capacità di circa 5 gigabyte e successivamente dalle chiavette USB con una capacità di 125 gigabyte.
L'esigenza di memorizzare sempre maggiori quantità di dati, ha favorito la nascita di servizi Cloud Storage, che offrono la possibilità agli utenti di salvare i propri dati online ed accedervi da qualunque luogo dotato di una connessione al web.
Secondo alcuni calcoli, nel cloud risiederebbero sino a 1 exabyte di dati, più o meno come 500 mila hard disk da 2 terabyte.
DA QUALE LIMITE IN POI SI PUO' INIZIARE A PARALRE DI BIG DATA?
Per Big Data s'intende un'elevatissima quantità di dati non strutturati, provenienti da oggetti differenti che registrano i comportamenti delle persone e delle macchine. Si inizia a parlare di Big Data quando si raggiungo unità di misura dell'ordine di petabyte oppure exabyte.
I Petabyte e gli exabyte sono unità di misura grandissime, che richiedo spazi di archiviazione molto capienti, per questo motivo chi gestisce i Big Data deve utilizzare servizi di Cloud Storage.
Naturalmente di fronte a questi ordini di grandezze, non solo occorrono storage con grosse capacità di archiviazione, ma servono anche sistemi in grado di distribuire i processi di calcolo per gestire ed analizzare le grosse quantità di dati archiviate. L'analisi di questi dati presuppone quindi l'impiego di una piattaforma software che consente di distribuire complessi compiti di computing su una grande quantità di nodi.
I Big Data sono diversi dai normali dataset raccolti nei database tradizionali, perché devono avere caratteristiche particolari che si possono riassumere con "5 V":
1-Volume
Grossa quantità di dati
2-Varietà
Fonti differenti non strutturati
3-Velocità
Tempi brevi di analisi
4-Validazione (Veracità)
I dati devono essere affidabili
5-Valore (Supporto decisionale)
Devono servire per comprendere o analizzare
In quest’ambito Apache Hadoop, un framework che si presenta come la base di molte distribuzioni e applicazioni per i Big Data, rientra tra le soluzioni più conosciute.
DIFFERENZA TRA DATI STRUTTURATI E NON STRUTTURATI
I modelli di dati tradizionali si basano soprattutto sull'organizzazione dei dati in tabelle formate da righe e colonne, relazionate tra loro, che possono essere gestite ed interrogate con il linguaggio SQL, utilizzando i classici RDBMS come MySQL, PostgreSQL, Oracle e SQL Server.
I modelli non strutturati si basano su una rappresentazione di dati schemaless, non definita e possono cambiare nel tempo, quindi non possono essere gestiti con i normali RDBMS ed il linguaggio SQL.
I database NoSQL si differenziano da quelli SQL per il modo in cui immagazzinano i dati e, conseguentemente, come li presentano all’utente.
I tipi più comuni di NoSQL sono sostanzialmente 4:
- Orientati alle colonne (column-oriented)
- Orientati ai documenti (Document Store)
- A coppie chiave-valore (Key Value Store)
- A grafo (Graph)
DATABASE NOSQL ORIENTATI ALLE COLONNE
La differenza tra classici database relazionali, e questo tipo di database è quella che le informazioni sono salvate per colonna.
Prendiamo come esempio la tabella seguente:
PersonaID | Nome | Cognome | Eta |
1 | Mario | Rossi | 30 |
2 | Ugo | Verdi | 35 |
3 | Franco | Bianchi | 40 |
In un classico database relazionale i dati verrebbero serializzati nel modo seguente:
1, Mario, Rossi, 30, 2, Ugo, Verdi, 35, 3, Franco, Bianchi, 40
Nei database orientati alle colonne invece si avrebbe:
1, 2, 3, Mario, Ugo, Franco, Rossi, Verdi, Bianchi
Se i dati sono immagazzinati per colonne, in caso di analisi dei dati (OLAP) l’aumento di performance è notevole.
I Databse NoSQL orientati alle colonne più usati sono i seguenti:
- Apache Cassandra
- Apache HBase
- Google BigTable
DATABASE NOSQL ORIENTATI AI DOCUMENTI
In questa categoria rientrano i database che permettono la manipolazione dei dati semi-strutturati. In genere questi database usano una rappresentazione interna che può variare tra XML, JSON, BSON o YAML e in genere forniscono un accesso tramite REST API.
Volendo fare un confronto con i database relazionali, possiamo affermare che un documento corrisponde ad una riga; tuttavia questo documento, a differenza della riga, può non avere uno schema preciso.
Riprendendo l’esempio precedente, potremmo avere una situazione del genere:
{
id: 1,
nome: "Mario",
cognome: "Rossi",
eta:30,
Laureato: true
},
{
id: 2,
nome: "Ugo",
cognome: "Verdi",
eta:35
}
{
id: 3,
nome: "Franco",
cognome: "Bianchi"
}
I Databse NoSQL orientati ai documenti più usati sono i seguenti:
-BaseX
-MongoDB
-CouchDB
DATABASE NOSQL DI TIPO CHIAVE-VALORE
I database di tipo chiave-valore sono simili a quelli orientati ai documenti, perché non richiedono l’esistenza di uno schema e allo stesso modo, si associa a una data chiave, un determinato valore.
La differenza sostanziale tra i database chiave-valore e quelli orientati ai documenti risiede nel modo in cui le chiavi vengono gestite, infatti si hanno due punti in cui le due soluzioni divergono:
La chiave deve sempre essere specificata
I valori associati ad una chiave non possono essere indicizzati né è possibile interrogarli.
Volendo fare un paragone con le strutture dati tipiche di un qualsiasi linguaggio di programmazione, si potrebbe dire che i database di tipo chiave-valore sono equivalenti ad una Hash Table.
Questi database tendono ad essere in-memory per avere le migliori performance possibili esono in grado di rispondere a decine di migliaia di richieste al secondo.
I Databse NoSQL di tipo chiave-valore più usati sono i seguenti:
-Redis
-Memcached
-Voldemort
DATABASE NOSQL A GRAFO
Nei database a grafo le entità sono rappresentate dai nodi di un grafo, collegati tra loro tramite relazioni. Questi tipi di database trovano piena utilità in quei contesti in cui la relazione tra le entità è il dato importante e porta con sé informazioni, come ad esempio relazioni sociali tra persone, trasporti o topologie di rete.
Questi tipi di database hanno un contesto applicativo piuttosto ristretto e facilmente identificabile in fase di design, non è tuttavia raro che i dati di per sé vengano memorizzati in un database orientato ai documenti, utilizzando il grafo solo per rappresentare le relazioni.
I Databse NoSQL a grafo più usati sono i seguenti:
-Neo4j
-FlockDB
La tabella seguente riassume le caratteristiche dei database NoSQL e ne favorisce la scelta:
Da Febbraio anche se studi o lavori puoi frequentare le nostre Skill Factory, nasce Skill Factory-SEA (Scuola d'Esperienza Aziendale)
Gino Visciano |
Skill Factory - 12/01/2019 17:26:28 | in Formazione e lavoro
Da febbraio, anche se studi o lavori, puoi frequentare le nostre Skill Factory per creare il tuo profilo professionale ed entrare nel mondo del lavoro, nasce Skill Factory SEA, la Scuola d'Esperenza Aziendale che ti permette di acquisire le conoscenze, le abilità e soprattutto l'esperienza che ti serve per svolgere il tuo ruolo professionale.
Skill Factory SEA non è un Academy, ma un modello innovativo di SCUOLA/AZIENDA dove puoi imparare ed applicare come in una vera azienda, in modalità SMART WORKING. Grazie a questa modalità di lavoro, puoi svolgere i laboratori pratici in remoto e frequentare la scuola solo due giorni alla settimana.
Ogni incontro settimanale ha una durata di 4 ore, come mostra lo schema esemplificativo seguente:
Grazie alla nostra piattaforma Skillbook (www.skillbook.it)
quando non sei in aula, puoi continuare a formarti, svolgendo le seguenti attività senza vincoli di spazio e di tempo:
1) approfondire gli argomenti trattati in modalità e-learning;
2) comunicare e collaborare con i tutor, i docenti, gli esperti e gli altri studenti;
3) svolgere le attività di laboratorio in modalità SMART WORKING.
Attraverso lo SMART WORKING (Lavoro Agile) puoi svolgere le attività di laboratorio da remoto, assistito dai tutor e dagli esperti aziendali.
Tutti i profili professionali proposti prevedono l'acquisizione delle seguenti competenze:

Il nostro Modello Didattico è diverso dalle normali Academy, perché ti permette di acquisire tutti i tipi di competenze che servono per creare un profilo professionale, attraverso un processo di crescita graduale, step by step, che prevede il conseguimento di obiettivi formativi a breve, medio e lungo periodo.
Per ridurre il GAP tra domanda ed offerta di lavoro e facilitare il tuo ingresso nel mondo del lavoro, abbiamo inserito nell'offerta formativa della scuola i profili professionali più richiesti dalle aziende.
Consulta il catalogo seguente e scegli la tua Skill Factory, è il modo più semplice per creare il tuo profilo professionale per non arrivare impreparato al primo colloquio di lavoro.
CATALOGO SKILL FACTORY - SEA (SCUOLA D'ESPERIENZA AZIENDALE)
I ragazzi che hanno partecipato alla Skill Factory "Esperto di gestione aziendale", hanno presentato la loro idea imprenditoriale.
Gino Visciano |
Skill Factory - 16/12/2018 01:04:57 | in Formazione e lavoro
Questa settimana i ragazzi che hanno partecipato alla Skill Factory "Esperto di gestione aziendale" hanno presentato la loro idea imprenditoriale, proponendo la Start Up creata durante i laborotori pratici previsti dall'attività formativa.
Durante la presentazione, che è durata circa 30 minuti, i ragazzi hanno descritto la loro Start UP mostrando:
- La Mission e la Vision aziendale;
- L'Organigramma ed il Mansionario delle risorse coinvolete;
- Il Logo ed il Logotipo usati per creare la Corporate Identity;
- La Corporate Identity: biglietto da visita, carta intestata ed home page del sito aziendale;
- L'Analisi dei Costi e dei Ricavi;
- Il Piano Strategico Marketing, prestando particolare attenzione sull'analisi SWOT e le tecniche di vendita utilizzate;
- La Progettazione esecutiva;
L'attività è risultata molto interessane, i ragazzi si sono impegnati tantissimo nel descrvere dettagliatamente e con professionalità tutte le caratteristiche della loro azienda, dimostrando di aver acquisito con successo tutte le competenza trasmesse durante il percorso formativo, facendo ben sperare sul loro futuro imprenditoriale.
Personalmente sono molto soddisfatto di aver progettato questa Skill Factory, perché mi ha permesso di lavorare, insieme agli altri docenti, con ragazzi che con responsabilità e sacrificio si sono impegnati per raggiungere gli obiettivi previsti.
Ritengo che sia stata un'esperienza positiva da ripetere anche il prossimo anno.
Grazie a tutti!
|
|
|
|
La Skill Factory, anche nel 2018, si conferma tra le scuole di "Specializzazione Digitale ed Orientamento al lavoro" di maggiore successo
Gino Visciano |
Skill Factory - 01/11/2018 16:18:48 | in Formazione e lavoro
Dopo un anno di duro lavoro, nonostante la concorrenza di competitor, sponsorizzati da grandi brand stranieri, i risultati ci danno ragione, anche nel 2018 la Skill Factory si conferma tra la scuole di "Specializzazione Digitale ed Orientamento al lavoro" di maggiore successo.
Questo traguardo ci incoraggia a fare ancora meglio l'anno prossimo, arricchendo la nostra offerta formativa con i nuovi profili professionali più richiesti dalle aziende, lo scopo è quello di dare maggiori opportunità di trovare un lavoro ai giovani che decidono di partecipare alle nostre Skill Factory.
Il nostro successo è confermato dai numeri che abbiamo raggiunto nel 2018:
1) in collaborazione con le scuole superiori, abbiamo formato ed orientato al lavoro oltre 500 studenti;
2) alle nostre Skill Factory hanno partecipato oltre 400 giovani laureati e diplomati disoccupati, il 30%, circa 120 ragazzi, hanno trovato lavoro presso un nostro Job Partner;
3) complessivamente abbiamo erogato circa 8000 ore di formazione, di cui il 25% online, attraverso la piattaforma Skillbook;
4) attraverso Skillbook abbiamo gestito oltre 80 aule virtuali con almeno 15 allievi;
5) i nostri tutorials, pubblicati su Skillbook, hanno ricevuto oltre 100.000 visualizazioni;
6) le nostre offerte di lavoro, pubblicate su Skillbook, hanno ricevuto oltre 25.000 visualizazioni.
Seguiteci su Skillbook per conoscere quali saranno le Skill Factory in partenza nel primo trimestre del 2019, per socprire in anteprima quali saranno i nuovi Profili Professionli disponibili.