Skillbook Logo
foto profilo

Skill Factory

Categoria: Home


10.Intelligenza Artificiale: cosa cambia nel mondo del lavoro

Gino Visciano | Skill Factory - 21/12/2025 17:30:41 | in Home

Quando si parla di intelligenza artificiale, la domanda più frequente è: "cosa cambierà e se sostituirà l'intelligenza umana?"

L'attuale IA, quella debole, applicata nel mondo del lavoro può essere considerata semplicemente come l'aumento delle nostre capacità intellettuali.

Dire che l’IA aumenta le nostre capacità intellettuali significa riconoscere che alcune funzioni cognitive come:

• analizzare grandi quantità di informazioni;
• individuare pattern;
• sintetizzare contenuti;
• generare alternative;

possono essere svolte in modo più rapido ed efficace con il supporto di sistemi di intelligenza artificiale. Non perché “pensino meglio”, ma perché operano su scale e velocità superiori a quelle umane.

COSA VUOL DIRE, IN CONCRETO, “AUMENTARE LE CAPACITÀ INTELLETTUALI”

Nel lavoro quotidiano, gran parte dell’attività intellettuale non consiste nel prendere decisioni strategiche, ma nel preparare il contesto per poterle prendere, ad esempio: raccogliere dati, leggerli, confrontarli, riassumerli, verificare ipotesi. Sono attività cognitive a tutti gli effetti, ma ripetitive e dispendiose in termini di tempo.

L’IA interviene proprio qui, perché:
• riduce il tempo necessario per arrivare a una visione d’insieme;
• propone alternative valide e nuove idee;
• abbassa il costo cognitivo di analisi complesse;
• rende accessibili capacità avanzate anche a chi non è uno specialista.

Ad esempio, analizzare decine di documenti, report o mail non è difficile dal punto di vista concettuale, ma lo è dal punto di vista pratico. Un sistema IA può farlo in pochi secondi, lasciando alla persona il compito più rilevante che è quello di capire cosa fare di quelle informazioni.

L’importanza dell’IA non sta tanto nell’automazione in sé, quanto nel suo impatto sul modo in cui le persone usano il tempo e l’attenzione. Quando il carico cognitivo di base diminuisce, emergono nuove possibilità:
• più spazio per il ragionamento critico;
• maggiore attenzione al contesto e alle implicazioni;
• decisioni meglio informate, anche in tempi rapidi.

L'IA non serve per “pensare al posto nostro”, ma serve per "pensare meglio".

È importante chiarire un equivoco frequente! Aumentare le capacità intellettuali non significa delegare il pensiero all’IA, ma significa usare strumenti che migliorano la qualità del pensiero umano, così come il calcolo automatico ha migliorato l’ingegneria o il foglio di calcolo ha trasformato la contabilità.

L’IA:
• propone, ma non decide;
• suggerisce, ma non assume responsabilità;
• accelera, ma non dà senso alle cose.

L'IA non ha l'etica e l'empatia, i pilastri che sorreggono ogni decisione che impatta sulle persone, quindi la responsabilità delle scelte è degli uomini.

PERCHÉ QUESTO RIGUARDA TUTTI

L'aumento cognitivo non è limitato solo a ruoli tecnici o altamente specializzati, ma riguarda chiunque lavori con informazioni, testi, dati e deve prendere decisioni, come ad esempio:
• impiegati;
• manager;
• studenti;
• professionisti.

La differenza non la fa il settore, ma la capacità di integrare l’IA nei propri processi mentali e lavorativi.

Chi impara a usarla come supporto al pensiero:
• lavora meglio e più velocemente;
• apprende più in fretta;
• affronta problemi più complessi con meno difficoltà.

L'introduzione dell'IA nelle aziende riduce costi e tempi, mentre i professionisti che la sanno usare aumenteranno il proprio valore di mercato.

Chi ignora l'IA rischia di restare indietro non perché “sostituito da una macchina”, ma perché meno efficiente di chi la usa.

VANTAGGI CONCRETI DELL'IA NEL MONDO DEL LAVORO

L'utilizzo dell'IA nel mondo del lavoro, concretamente offre i vantaggi seguenti:
• automazione delle attività ripetitive;
• aumento della produttività individuale;
• maggiore valore alle competenze decisionali.

Per le aziende questo si traduce in: 
• meno tempo su compiti a basso valore;
• supporto decisionale continuo;
• migliore utilizzo dei dati già disponibili;
• riduzione degli errori operativi.

Naturalmente non bisogna dimenticare che l'IA non comprende il contesto umano come una persona e può sbagliare in modo convincente (Allucinazioni).

PERCHÉ INTRODURRE L’IA IN AZIENDA NON È PIÙ OPZIONALE

Introdurre l’IA in azienda oggi non significa essere “innovativi”, ma rimanere "competitivi". La maggior parte delle organizzazioni non parte da zero: dispone già di dati, processi digitali, strumenti informatici. L’IA agisce come un moltiplicatore di valore su ciò che esiste già.

Le aziende che usano  l'IA ottengono i seguenti vantaggi cumulativi:
• imparano prima a usarla correttamente;
• costruiscono più velocemente le competenze interne;
• migliorano i processi in modo incrementale.

Chi rimanda, invece, non resta fermo, ma accumula ritardo.

Il punto critico è la formazione delle persone. La tecnologia, da sola, non produce risultati; il vero fattore discriminante è la capacità delle persone di usarla in modo consapevole.

Formarsi sull’IA oggi non significa diventare data scientist o programmatori, ma:
• capire cosa può e cosa non può fare;
• saperla integrare nel proprio lavoro quotidiano;
• valutare criticamente gli output.

La cosa importante è acquisire la cultura e la mentalità giuste per imparare a lavorare con il supporto dell'IA

Un’organizzazione può acquistare gli strumenti migliori, ma senza competenze interne rischia:
• di usarli male;
• di non usarli affatto;
• affidarsi a decisioni automatizzate senza controllo.

DA DOVE INIZIARE

Per evitare approcci confusi o puramente sperimentali, l’introduzione dell’IA dovrebbe seguire i seguenti passaggi chiave.

1. Individuare i processi a maggior impatto

Non “mettere l’IA ovunque”, ma partire da:
• attività ripetitive;
• flussi informativi complessi;
• colli di bottiglia operativi.

2. Coinvolgere le persone che lavorano sui processi

Chi conosce il lavoro quotidiano è fondamentale per:
• identificare inefficienze reali;
• valutare se l’IA produce valore o solo rumore.

3. Introdurre strumenti semplici e misurare i risultati

Meglio piccoli esperimenti controllati che grandi progetti astratti; il criterio non è la novità, ma il miglioramento misurabile.

4. Investire nella formazione continua

La formazione non è un evento una tantum, ma un processo che prevede:
• apprendimento pratico;
• aggiornamento costante;
• condivisione delle buone pratiche.

I RISCHI DI NON AGIRE

I principali rischi che corriamo se non usiamo l’IA o se non la usiamo correttamente perché non siamo stati formati adeguatamente sono i seguenti:

1. Perdita di competitività: stessi costi, meno produttività rispetto ai concorrenti;
2. Decisioni più lente e meno informate: quando il mercato accelera, la lentezza diventa un problema strategico;
3. Dipendenza da competenze esterne: mancanza di autonomia e maggiore esposizione a errori;
4. Uso improprio o inconsapevole dell’IA: strumenti usati senza controllo aumentano i rischi, non li riducono;
5. GAP culturale: subire il cambiamento invece di governarlo.

L’intelligenza artificiale non è una scelta tecnologica, ma organizzativa e culturale

Le aziende e i professionisti che iniziano ora non avranno necessariamente più strumenti, ma più competenza nell’usare quelli disponibili.

Oggi la tecnologia corre più veloce della nostra capacità di adattamento. In questo scenario, l’unico vero rischio strategico è restare spettatori dei cambiamenti. L'uso consapevole dell'IA diventa quindi fondamentale per governare la complessità e trasformare il progresso tecnologico in un'opportunità di crescita, restando sempre alla guida dell'innovazione.


Nel prossimo articolo parleremo di  come cambierà il mondo della formazione con l'intelligenza artificiale


1.Intelligenza Artificiale: se la conosci non la temi
2.Intelligenza Artificiale: i modelli linguistici di grandi dimensioni
3.Intelligenza Artificiale: le reti neurali artificiali
4.Intelligenza Artificiale: tipi di reti neurali artificiali
5.Intelligenza Artificiale: IA Generativa
6.Intelligenza Artificiale: modelli pre-addestrati di IA locali
7.Intelligenza Artificiale: come creare una chatbot per conversare con Llama3
8.Intelligenza Artificiale: come addestrare LLAMA3 attraverso un Fine-Tuning di tipo no coding
9.Intelligenza Artificiale: cosa dobbiamo sapere su ai act e deepfake

Share Button

L’etica della formazione come responsabilità professionale

Gino Visciano | Skill Factory - 13/12/2025 18:42:20 | in Home

L’etica della formazione si riferisce ai principi, ai valori e agli ideali che guidano l’agire educativo e formativo, concentrandosi sulla crescita culturale, civile e professionale della persona e sulla responsabilità di educatori e formatori. In altre parole, significa utilizzare l’educazione e la formazione per ciò che sono realmente, mettendo al centro i destinatari dell’azione educativa e formativa e le loro esigenze, senza farsi distrarre da altre finalità.

L’etica della formazione è una riflessione critica e un orientamento pratico che assicura che l’azione formativa sia non solo efficace, ma anche giusta, responsabile e orientata al bene comune e alla piena realizzazione della persona.

È POSSIBILE PARLARE DI ETICA DELLA FORMAZIONE SENZA SEMBRARE MORALISTI?

Secondo il mio punto di vista, .

Non solo è possibile, ma è necessario.

Basta trattare l’etica come criterio di qualità e non come elemento di giudizio.

Ecco un elenco di valori etici fondamentali nella formazione, concepiti per guidare sia l’agire educativo sia la progettazione dei percorsi formativi:

Centralità dei destinatari: porre al centro le esigenze, i bisogni e lo sviluppo delle persone coinvolte;
Responsabilità: assumersi la responsabilità delle scelte formative e dei loro effetti nel breve e nel lungo periodo;
Trasparenza: essere chiari su finalità, metodi, criteri di valutazione e risultati attesi;
Equità e inclusione: garantire pari opportunità di accesso e trattamento, valorizzando la diversità;
Onestà intellettuale: fornire contenuti corretti, aggiornati e basati su evidenze, evitando manipolazioni o semplificazioni fuorvianti;
Autonomia ed empowerment: favorire lo sviluppo della capacità critica e della responsabilità individuale dei partecipanti;
Coerenza tra mezzi e fini: assicurare che metodologie, contenuti e obiettivi siano allineati;
Sostenibilità: progettare percorsi formativi capaci di generare impatti duraturi, non solo risultati immediati;
Rispetto della dignità: riconoscere il valore dell’esperienza e dell’apprendimento di ogni partecipante;
Orientamento al bene comune: considerare gli effetti della formazione non solo sul singolo, ma anche sul contesto sociale e organizzativo.

Quando l’etica è trattata come criterio di qualità, consente di osservare le scelte formative sotto una luce professionale. Le considerazioni principali sono:

1. Non giudicare le persone, ma i processi e i risultati;
2. Spostare il focus dalle intenzioni agli impatti;
3. Trattare l’etica come competenza professionale;
4. Comunicare con concretezza e dati osservabili.

L’etica della formazione diventa così una leva per migliorare e assicurare la qualità della formazione, senza apparire moralisti.

IL RUOLO DEI FORMATORI E L’EQUILIBRIO TRA FORMAZIONE SINCRONA E ASINCRONA

Nel contesto dell’etica della formazione, è utile soffermarsi sul ruolo dei formatori e sul corretto equilibrio tra formazione sincrona (in presenza e a distanza) e formazione asincrona (e-learning).

Gli strumenti digitali e le piattaforme di e-learning hanno ampliato in modo significativo le possibilità di accesso, flessibilità e diffusione della formazione. In questo senso, la formazione a distanza rappresenta un supporto efficace e un amplificatore delle potenzialità di docenti e formatori.

Tuttavia, un approccio eticamente consapevole richiede di riconoscere che tali strumenti non possono sostituire completamente il ruolo del formatore. La relazione educativa, il confronto diretto e la capacità di leggere i contesti e le persone restano elementi fondamentali per una crescita professionale reale.

Questo aspetto emerge con particolare chiarezza nella formazione dei giovani, dove il contatto relazionale ed esperienziale tra studenti e docenti è centrale, e in ambiti come la formazione sulla sicurezza sul lavoro, in cui l’apprendimento non riguarda solo il trasferimento di informazioni, ma lo sviluppo di consapevolezza, atteggiamenti e senso di responsabilità. In questi casi, la comprensione reale dei rischi e delle conseguenze dei comportamenti non può essere affidata esclusivamente a strumenti di e-learning.

Un formatore competente trasmette non solo contenuti, ma anche cultura della prevenzione, attenzione e consapevolezza del rischio, elementi che nascono dall’interazione, dall’esperienza e dall’esempio.

L’etica della formazione invita quindi a ricercare un equilibrio: valorizzare le tecnologie come risorsa strategica, senza rinunciare alla presenza qualificata dei formatori, che rimane un fattore determinante per la qualità e l’efficacia dei percorsi formativi.

CONCLUSIONE

Rimettere al centro l’etica della formazione non significa introdurre nuovi vincoli né formulare giudizi, ma recuperare il senso profondo dell’agire educativo e formativo. In un contesto in cui strumenti, progetti e finanziamenti rischiano talvolta di diventare centrali, l’etica aiuta a mantenere lo sguardo orientato verso ciò che conta davvero: le persone e il loro sviluppo.

Assumere l’etica come criterio di qualità consente a dirigenti scolastici, docenti e formatori di compiere scelte più consapevoli, coerenti e sostenibili nel tempo. Non si tratta di opporsi al sistema, ma di rafforzarlo, rendendo la formazione non solo funzionale, ma autenticamente generativa.

In questa prospettiva, l’etica della formazione diventa una responsabilità professionale condivisa e una leva strategica per garantire percorsi formativi capaci di produrre valore reale, duraturo e orientato al bene comune.


Approfondimenti:
1. Buona Formazione: "Come assicurare la qualità della formazione".
2. La qualità della formazione inizia dal confronto.
3. La filiera della Formazione Professionale in Europa e in Italia.
4. Sei uno studente oppure un lavoratore? Scopri qual è il tuo livello di EQF.

Share Button

Buona Formazione: "Come assicurare la Qualità della Formazione"

Gino Visciano | Skill Factory - 06/12/2025 12:20:37 | in Home

Oggi parlare di "Buona Formazione" non è un esercizio teorico, ma una necessità concreta. In un mercato del lavoro che evolve rapidamente, la qualità dei percorsi formativi fa la differenza nella crescita professionale dei giovani, nella competitività delle imprese e nella credibilità degli enti di formazione, soprattutto quelli della Campania, dopo il sevizio della trasmissione "Quarata Repubblica" condotta di Nicola Porro.

Ma cosa significa davvero “Buona formazione”?

Garantire una “Buona formazione” significa poter dimostrare che ciò che si fa è efficace, coerente e orientato ai risultati, mettendo al centro dell'azione formativa gli studenti e misurare, con responsabilità e trasparenza, ciò che la formazione produce, ovvero: competenze reali, opportunità di lavoro, crescita personale e professionale.

La "Buona formazione" si garantisce attraverso tre principi chiave:
1. La Centralità degli studenti;
2. Collegamento con il lavoro;
3. Un sistema di garanzia della qualità basato sui dati.

Ogni percorso formativo di qualità deve partire dai bisogni reali degli studenti e offrire loro:
• competenze tecniche solide e aggiornate;
• competenze trasversali essenziali;
• orientamento continuo;
• accompagnamento attivo verso il lavoro.

"La qualità della formazione è reale solo se migliora la vita delle persone".

Il lavoro non è un risultato “a valle” della formazione, ma un criterio di qualità.

La buona formazione deve essere misurabile attraverso indicatori riconosciuti, come quelli definiti dal modello europeo EQAVET (European Quality Assurance in Vocational Education and Training) fondamentali per assicurare la qualità nell'istruzione e formazione professionale (IFP).

Misurare gli indicatori significa trasformare l’idea di qualità in un processo concreto, monitorabile e orientato al miglioramento continuo.

In Skill Factory per garantire la qualità della nostra formazione, costruiamo percorsi altamente professionalizzanti per giovani diplomati e laureati, formando ogni anno oltre 200 studenti nei seguenti profili professionali:
• programmatori;
• software tester;
• sistemisti operativi;
• coordinatori amministrativi;
• esperti ERP;
• specialisti Marketing, Vendite e CRM.

A tutti garantiamo competenze tecniche aggiornate e un forte impegno sullo sviluppo delle soft skills.

Per noi la qualità non è un obiettivo generico, ma un impegno misurabile, attraverso il monitoraggio dei principali Indicatori EQAVET, in particolare:
• Tasso di partecipazione ai percorsi di formazione;
• Tasso di completamento dei corsi;
• Tasso di collocamento dei diplomati nel mercato del lavoro;
• Livello di soddisfazione di studenti e imprese;
• Investimento nella formazione dei formatori e nelle metodologie didattiche;
• Attenzione ai processi di validazione degli apprendimenti non formali e informali.

Questi dati permettono di capire, con evidenza, se stiamo garantendo la buona formazione che promettiamo.

VALUTAZIONE ESTERNA E TRASPARENZA
Per rafforzare ulteriormente il nostro sistema di qualità, collaboriamo con valutatori esterni (“Pari”), esperti della metodologia Peer Review EQAVET.

.

La loro analisi indipendente ci permette di verificare:
• la coerenza del nostro lavoro;
• la validità delle metodologie;
• l'efficacia dei risultati;
• la capacità di miglioramento continuo.

Una formazione di qualità è quella che:
• apre opportunità concrete;
• offre competenze che valgono davvero;
• permette ai giovani di inserirsi nel lavoro con fiducia, preparazione e visione;
• si basa su un sistema trasparente di misurazione, valutazione e miglioramento.

La buona formazione, oggi più che mai, si può garantire solo unendo centralità della persona, connessione con il lavoro e assicurazione della qualità basata sugli Indicatori EQAVET.

Solo così la formazione diventa un investimento reale sul futuro!


Approfondimenti:
1. La qualità della formazione inizia dal confronto.
2. La filiera della Formazione Professionale in Europa e in Italia.
3. Sei uno studente oppure un lavoratore? Scopri qual è il tuo livello di EQF.

Share Button

9.Intelligenza Artificiale: cosa dobbiamo sapere su AI Act e deepfake

Gino Visciano | Skill Factory - 19/09/2025 11:23:20 | in Home

L’intelligenza artificiale (IA) ormai fa parte della nostra realtà quotidiana,  per questo motivo è fondamentale conoscere le nuove regole europee e italiane che ne disciplinano lo l’uso sia nelle aziende, sia nelle scuole. Nel seguito approfondiremo l’AI Act, la normativa europea sull’IA, le specifiche leggi italiane sui deepfake e come queste norme si differenziano dal GDPR.

CHE COS’È L’AI ACT
L’AI Act è la legge europea che regola come creare, vendere e usare i sistemi di intelligenza artificiale. È stata adottata per garantire un uso sicuro, trasparente ed etico delle tecnologie IA, garantendo salute, sicurezza e diritti delle persone.

La legge distingue i sistemi IA in quattro categorie in base al rischio che possono comportare:

1. Sistemi vietati perché troppo pericolosi: Questi sono sistemi che rappresentano un rischio così elevato per la sicurezza, la privacy o i diritti umani da essere completamente proibiti. Ad esempio, tecnologie per la sorveglianza di massa senza autorizzazione o software che manipolano il comportamento delle persone in modo coercitivo rientrano in questa categoria.
2. Sistemi ad alto rischio che richiedono controlli rigorosi: Sono sistemi che, se usati in modo errato o male intenzionato, possono causare danni significativi a persone o proprietà. Per questo motivo devono essere sottoposti a procedure di verifica, test approfonditi e trasparenza nella loro implementazione. Un esempio tipico sono i sistemi di riconoscimento facciale usati per la sicurezza pubblica o le tecnologie che supportano decisioni in ambito sanitario.
3. Sistemi che devono solo fornire informazioni chiare (es. chatbot): Questi sistemi non presentano un alto rischio, ma devono assicurarsi di comunicare in modo trasparente e comprensibile all’utente, indicando ad esempio che si tratta di un’intelligenza artificiale e non di una persona. Un esempio è un chatbot che risponde a domande generali, dove è importante evitare fraintendimenti o aspettative errate.
4. Sistemi con rischi bassi o minimi per cui non servono particolari limitazioni: Sono sistemi che comportano pochi o nulla rischi per l’utente e la società, e quindi non richiedono regole o controlli specifici. Un esempio può essere un algoritmo che suggerisce ricette di cucina o che consiglia playlist musicali, che influiscono solo marginalmente sulle decisioni delle persone.

L’AI Act mira a creare un equilibrio tra la tutela della sicurezza, dei diritti fondamentali e della privacy delle persone e la promozione dell’innovazione tecnologica nel campo dell’intelligenza artificiale. Da un lato, introduce regole chiare e vincolanti per prevenire abusi, come l’uso di sistemi per sorveglianza invasiva o discriminazione automatizzata, tutelando così i cittadini da potenziali rischi e danni. Dall’altro, stabilisce criteri proporzionati che permettono alle aziende e ai ricercatori di sviluppare nuove applicazioni AI in modo responsabile, senza soffocare la crescita tecnologica. Questo bilanciamento è fondamentale per garantire che l’intelligenza artificiale possa offrire benefici concreti alla società mantenendo un controllo adeguato sui pericoli che potrebbe comportare.

QUALI SONO LE SANZIONI PER CHI NON RISPETTA AI ACT?
Le sanzioni per chi non rispetta l'AI Act sono severe e variano in base alla gravità della violazione. Per le infrazioni più gravi, come l'uso di intelligenza artificiale manipolativa o pratiche vietate (es. sorveglianza biometrica illegale), le multe possono arrivare fino a 35 milioni di euro o al 7% del fatturato mondiale annuo dell'azienda, scegliendo la cifra maggiore. Per la non conformità relativa ai sistemi ad alto rischio, le sanzioni possono raggiungere i 15 milioni di euro o il 3% del fatturato globale. Infine, per la fornitura di informazioni false, incomplete o fuorvianti agli organismi di controllo, le multe possono essere fino a 7,5 milioni di euro o l'1% del fatturato mondiale.

Le PMI e le startup godono di un trattamento proporzionato con sanzioni ridotte rispetto alle grandi imprese, per tutelare l'innovazione senza penalizzare eccessivamente le realtà più piccole. Le sanzioni sono stabilite per garantire il rispetto delle regole e la sicurezza nell'uso dell'intelligenza artificiale, oltre a prevenire abusi e rischi per persone e società. Le autorità nazionali e un organismo europeo dedicato sorvegliano l'applicazione del regolamento e possono intervenire con queste misure punitive in caso di inosservanza.

DIFFERENZE CON ALTRE NORMATIVE INTERNAZIONALI
Mentre in Europa c’è un regolamento unico e uniforme per tutti i Paesi membri, in Paesi come gli Stati Uniti le regole sono più frammentate e spesso basate sull’autoregolamentazione delle aziende.
L’UE punta a un approccio centrale e rigoroso, con un focus forte sull’etica, la tutela dei diritti e la trasparenza, diventando un modello per il resto del mondo.

Vantaggi di un regolamento unico e uniforme in Europa:
• Assicura coerenza normativa in tutti i Paesi membri, semplificando per aziende e cittadini la comprensione e l’applicazione delle regole;
• Rende più efficace la protezione dei diritti fondamentali, della privacy e dei principi etici, favorendo sistemi AI trasparenti e sicuri;
• Stimola la fiducia degli utenti nelle tecnologie AI, fondamentale per un loro utilizzo responsabile e consapevole;
• Posiziona l’Europa come riferimento globale per normative AI etiche e rigorose;

Esempio: Un’impresa sa che può sviluppare un sistema AI rispettando regole valide in tutta l’UE, facilitando l’accesso al mercato europeo.

Svantaggi di questo approccio:
• Le norme rigide possono rallentare il ritmo dell’innovazione e aumentare i costi di conformità, penalizzando soprattutto PMI e startup.
• Concorrenza più forte da Paesi con regolamentazioni più flessibili, come gli Stati Uniti, dove è possibile muoversi con maggior agilità.
• Complessità e risorse necessarie per l’applicazione e il monitoraggio del regolamento possono limitare l’efficacia e creare incertezze.

Esempio: una startup europea può rinunciare a sviluppare o lanciare prodotti AI per i costi e i tempi di adeguamento normativo, a vantaggio di competitor americani più agili.

L’Unione Europea con l’AI Act cerca di bilanciare protezione e innovazione, promuovendo un modello responsabile e affidabile, ma deve anche affrontare la sfida di non soffocare lo sviluppo tecnologico nel contesto competitivo globale.


DEEPFAKE E NORMATIVA ITALIANA
I deepfake sono contenuti audio o video manipolati dall’IA che possono essere usati per ingannare le persone. L’AI Act richiede che questi contenuti siano sempre chiaramente etichettati come artificiali.


L’Italia ha fatto un passo in più approvando nel 2025 una legge che rende reato la creazione e la diffusione di deepfake ingannevoli, con pene che vanno da 1 a 5 anni di reclusione. Questa normativa nasce dall’urgenza di proteggere la reputazione e la privacy delle persone, contrastando l’uso illecito di tecnologie capaci di manipolare immagini e video in modo tale da ingannare l’opinione pubblica o danneggiare individui specifici. La legge italiana si inserisce in un contesto di crescente preoccupazione per i deepfake che possono alimentare disinformazione, frodi, diffamazione e violenza.
Oltre alla punizione penale, la legge prevede anche principi di rigorosa trasparenza: chi utilizza questi sistemi deve garantire che i contenuti creati siano identificabili come artificiali e non reali, in modo da evitare equivoci e danni a terzi. Questo approccio mira a rafforzare la fiducia nell’informazione e a tutelare i diritti fondamentali, come la dignità e la sicurezza personale.
L’implementazione della legge è sostenuta da un apparato di governance che coinvolge l’Agenzia per la Cybersicurezza Nazionale e l’Agenzia per l’Italia Digitale, chiamate a svolgere compiti di controllo, vigilanza e coordinamento. La normativa italiana amplia inoltre l’attenzione alla tutela del diritto d’autore, proteggendo le opere generate con l’ausilio dell’intelligenza artificiale, per salvaguardare la creatività umana da usi impropri o fraudolenti.
Questo quadro legislativo rappresenta un esempio innovativo a livello mondiale di come normare comportamenti rischiosi legati all’intelligenza artificiale, combinando azioni penali con misure di trasparenza e prevenzione, al fine di garantire sicurezza, rispetto e responsabilità nell’uso delle nuove tecnologie.

COME RICONOSCERE I DEEPFAKE
Per difendersi efficacemente, oltre alla legge, è importante sviluppare un atteggiamento critico e una buona educazione digitale, soprattutto nelle aziende e nelle scuole.
Conoscere la realtà e i meccanismi dei deepfake aiuta non solo a difendersi ma anche a capire meglio il valore dell’informazione vera e della responsabilità nell’uso dell’intelligenza artificiale.
Il termine deepfake deriva dall’unione di “deep learning” (una tecnica avanzata di intelligenza artificiale) e “fake” (falso). Indica contenuti multimediali, come video, audio o immagini, manipolati digitalmente per far apparire qualcosa o qualcuno in modo diverso dalla realtà. Per esempio, un video deepfake può mostrare una persona mentre dice o fa cose che in realtà non ha mai detto o fatto.
I deepfake sono diventati più sofisticati e difficili da riconoscere, ma è importante imparare a difendersi per non cadere vittime di disinformazione o truffe.

Ecco alcuni suggerimenti per riconoscerli:
• Osserva attentamente i dettagli: immagini o video deepfake spesso presentano imperfezioni come movimenti innaturali, sfasamenti del labiale, luci o ombre incoerenti.
• Controlla la voce: audio manipolati possono avere tonalità inconsuete, pause strane o suoni metallici.
• Verifica la fonte: un video o immagine diffuso da fonti poco affidabili o anonime richiede sospetto.
• Usa strumenti di verifica: esistono software e servizi online che analizzano i file per rilevare possibili alterazioni.
• Fai attenzione ai contenuti sensazionalistici: spesso deepfake vengono usati per diffondere notizie false destinate a suscitare reazioni forti.

DIFFERENZE TRA AI ACT, LEGGE DEEPFAKE E GDPR
L’AI Act regola l’uso dell’IA su larga scala, mentre il DDL italiano si concentra sul fenomeno specifico dei deepfake, stabilendo reati e pene.
Il GDPR, invece, è la normativa sulla protezione dei dati personali. Essa si applica anche ai dati usati o generati dall’IA o dai deepfake, imponendo regole su sicurezza, consenso e trasparenza.

APPLICAZIONE E FORMAZIONE NELLE AZIENDE
L’AI Act e le leggi italiane sui deepfake rappresentano una risposta necessaria per usare l’intelligenza artificiale rispettando la sicurezza, la privacy e i diritti delle persone.

Per aziende e scuole, conformarsi a queste normative è una sfida ma anche un’opportunità per costruire fiducia, innovare responsabilmente e prepararsi a un futuro digitale più sicuro.
Formazione, trasparenza e governance sono quindi le chiavi per affrontare con successo il futuro dell’intelligenza artificiale.

Per le aziende rispettare queste norme significa:
• organizzare una governance chiara e responsabile dell’IA;
• formare i dipendenti sull’uso etico e sicuro delle tecnologie;
• assicurare trasparenza e controllo sui sistemi IA;
• rispettare la privacy e proteggere i dati;
• prepararsi a eventuali controlli delle autorità competenti.

Nelle scuole è fondamentale:
• educare studenti e personale a riconoscere contenuti falsi e manipolati;
• integrare l’IA in modo responsabile nella didattica;
• formare insegnanti su tecnologia, etica e regole;
• sviluppare nei giovani un approccio critico e digitale sicuro;
• collaborare con esperti e istituzioni per un aggiornamento continuo.

CONCLUSIONI
L’AI Act e la recente normativa italiana sui deepfake rappresentano tappe fondamentali per assicurare che l’intelligenza artificiale venga utilizzata in modo responsabile, sicuro e rispettoso dei diritti fondamentali.
Queste norme non devono essere viste solo come vincoli legali, ma anche come opportunità per costruire fiducia, favorire l’innovazione responsabile e incrementare la sicurezza di cittadini e imprese.
Per le aziende e le scuole adeguarsi a queste regolamentazioni significa dotarsi di processi di governance efficaci e promuovere una formazione continua e capillare, che consenta a tutti gli attori coinvolti di conoscere rischi, obblighi e potenzialità dell’IA.
In particolare, la formazione e l’educazione digitale nelle scuole sono strumenti imprescindibili per formare cittadini consapevoli e critici, in grado di interagire in modo etico con le nuove tecnologie.
Affrontare con successo queste sfide normative significa prepararsi a un futuro dove IA, etica e diritti umani convivono, ponendo le basi per una società digitale inclusiva e sostenibile.
Infine, la conformità alle regole europee e nazionali può diventare un elemento distintivo e un vantaggio competitivo per chi saprà integrare tecnologia, sicurezza e responsabilità.


Nel prossimo articolo parleremo di  come cambierà il mondo del lavoro con l'intelligenza artificiale


1.Intelligenza Artificiale: se la conosci non la temi
2.Intelligenza Artificiale: i modelli linguistici di grandi dimensioni
3.Intelligenza Artificiale: le reti neurali artificiali
4.Intelligenza Artificiale: tipi di reti neurali artificiali
5.Intelligenza Artificiale: IA Generativa
6.Intelligenza Artificiale: modelli pre-addestrati di IA locali
7.Intelligenza Artificiale: come creare una chatbot per conversare con Llama3
8.Intelligenza Artificiale: come addestrare LLAMA3 attraverso un Fine-Tuning di tipo no coding
10.Intelligenza Artificiale: Cosa cambia nel mondo del lavoro

Share Button

8.Intelligenza Artificiale: come addestrare LLAMA3 attraverso un Fine-Tuning di tipo no coding

Gino Visciano | Skill Factory - 06/07/2025 15:38:21 | in Home

Nel mondo dell'intelligenza artificiale generativa, uno degli aspetti più potenti e interessanti è la possibilità di addestrare un modello linguistico (LLM) per adattarlo a domini o casi d’uso specifici. Questo processo si chiama Fine-Tuning.

In questo articolo, attraverso un laboratorio pratico - no coding - vedremo un semplice esempio di Fine-Tuning. Lo scopo sarà quello di far diventare il modello pre-addestrato LLaMA 3, un esperto... di pizza napoletana.

CHE COS'E' IL FINE TUNING
Il Fine-Tuning è un processo di addestramento ulteriore su un LLM pre-addestrato. In pratica, prendiamo un modello come LLaMA 3 (già “intelligente” e addestrato su una vasta mole di dati generali) e lo alleniamo su dati più specifici (dataset), come un insieme di domande e risposte su un argomento specifico.

Questo permette al modello di:

1. Specializzarsi in un settore;
2. Integrare conoscenze non presenti nel training originale;
3. Rispondere con maggiore precisione e coerenza alle domande di un dominio scelto.

LABORATORIO: "LLAMA 3 E LA PIZZA NAPOLETANA"
In questo laboratorio pratico di Fine-Tuning, addestriamo LLaMA 3, specializzandolo sulla pizza napoletana.

Questo laboratorio non richiede la scrittura di codice Python e può essere svolto anche da chi non conosce la programmazione.

Per preparare il laboratorio, prima di tutto dovete installare localmente sia  OLLAMA, sia il modello pre-addestrato LLaMA 3. Queste operazioni vengono spiegate dettagliatamente nell'articolo 6.

Dopo che vi siete assicurati che l'ambiente di lavoro è pronto, aprite il prompt dei comandi, create una directory lab_pizza, attivatela e avviate LLaMA3 come mostra l'immagine seguente:

Quando è disponibile il prompt di LLaMA 3, impostate le seguenti domande:

1) Parlami della storia della pizza napoletana;
2) Chi ha inventato la pizza Margherita?
3) Quali sono i segreti della vera pizza napoletana?

L'immagine seguente mostra la risposta alla prima domanda:

Senza alcun addestramento aggiuntivo, il modello fornirà risposte generiche, corrette in parte, ma spesso vaghe, con riferimenti storici o culturali imprecisi. 

Questo è prevedibile: LLaMA 3 è stato addestrato su una grande quantità di dati generali, ma non è stato progettato per essere un esperto di pizza napoletana.

PREPARAZIONE DEL DATASET DI ADDESTRAMENTO
Per addestrare LLaMA 3, attraverso un apprendimento supervisionato, serve un dataset contente domande e risposte chiare e accurate, sulla 
pizza napoletana.

Con qualunque editor di testo, create un file (dataset) con le domande e le risposte seguenti:

### Domanda: Parlami della storia della pizza napoletana.
### Risposta: La pizza napoletana nasce nel 1700 a Napoli, come piatto popolare tra la classe lavoratrice. Conosciuta per il suo cornicione alto e la cottura in forno a legna, è oggi patrimonio dell’UNESCO.

### Domanda: Chi ha inventato la pizza Margherita?
### Risposta: La pizza Margherita fu creata da Raffaele Esposito nel 1889 in onore della regina Margherita di Savoia. I suoi ingredienti riflettono i colori della bandiera italiana.

### Domanda: Quali sono i segreti della vera pizza napoletana?
### Risposta: I segreti includono un impasto con lunga lievitazione, la cottura in forno a legna a 485°C per circa 60-90 secondi, e ingredienti tradizionali come farina 00, pomodoro San Marzano, mozzarella di bufala e basilico fresco.

Salvate il file con il nome pizza.txt nella directory lab_pizza.

CREAZIONE DI UN MODELLO PERSONALIZZATO CON OLLAMA 
Per eseguire un Fine-Tuning rapido ed efficace, senza scrivere codice Python, per addestrare LLaMA 3 e specializzarlo sulla pizza napoletana, creiamo un modello personalizzato con OLLAMA.

Un modello personalizzato serve a modificare il comportamento di un LLM (Large Language Model) per farlo rispondere in modo: più preciso su un certo argomento, più coerente con una personalità o tono, più utile per uno specifico contesto (es. azienda, progetto, dominio tecnico). 

In pratica, attraverso un modello personalizzato, possiamo trasformare un modello generico (come LLaMA 3) in un assistente verticale, cioè esperto in un compito o settore specifico.

Per creare un modello personalizzato dovete prima creare il seguente file di testo:

FROM llama3

SYSTEM """
Sei un esperto mondiale sulla pizza napoletana.

Ecco le informazioni che conosci:

Inserire in questa posizione le domande e le risposte del dataset (nel nostro esempio, qui dovete inserire il contenuto del file pizza.txt)

"""

Dopo che avete creato il file con qualunque editor di testo, salvatelo nella directory lab_pizza con il nome modelfile, senza mettere nessuna estensione dopo il nome del file.

L'immagine seguente, mostra il contenuto del modelfile dopo l'inserimento delle domande e delle risposte contenute nel file pizza.txt:

Per creare il modello personalizzato, che in questo esempio chiameremo pizza-llama, dovete usare il comando seguente:

ollama create pizza-llama -f modelfile

L'immagine seguente mostra la fase di creazione del modello personalizzato pizza-llama, che utilizzerà le domande e le risposte contenute nel file modelfile per trasformare LLaMA 3 in un esperto di pizza napoletana:

COME USARE IL MODELLO PERSONALIZZATO CREATO CON OLLAMA
Per utilizzare il modello personalizzato dovete usare il comando seguente:

ollama run pizza-llama

Il modello creato fornirà a LLaMA 3 ulteriori informazioni sulla pizza napoletana.

L'esempio seguente, mostra che LLaMA 3 alla domanda:

>>> Parlami della storia della pizza napoletana,

risponde includendo anche le informazioni iniettate nel modello personalizzato pizza-llama:  

----- E S E M P I O -----

C:\lab_pizza>ollama run pizza-llama
>>> Parlami della storia della pizza napoletana.
La storia della pizza napoletana! È un argomento molto caro al mio cuore.

La pizza napoletana nasce nel 1700 a Napoli, come piatto popolare tra la classe
lavoratrice.
Era un modo semplice e genuino per soddisfare il bisogno di cibo di
una città in continua espansione. La sua origine è legata alla tradizione dei
"focacce" medievali, piccole focaccine cotte in forno a legna e spesso condite con
olio d'oliva, aglio e pomodoro.

Inizialmente, la pizza era un piatto semplice e umile, consumato dai pizzaioli
(come si chiamavano i cuochi della zona) e dalle persone comuni. Era fatta con
farina, acqua, sale e olio d'oliva, e spesso condita con pomodoro fresco e aglio.

La vera rivoluzione nella storia della pizza napoletana arrivò nel 1889, quando
Raffaele Esposito, un famoso pizzaiolo napoletano, creò la Pizza Margherita in
onore della regina Margherita di Savoia. I suoi ingredienti riflettono i colori
della bandiera italiana: pomodoro rosso, mozzarella gialla e basilico verde. Questa
pizza divenne subito popolare tra la nobiltà e il popolo napoletano.

Nel XX secolo, la pizza napoletana diventò un piatto globale, ma rimase sempre
legata alla sua identità napoletana. Nel 2010, la pizza napoletana è stata
riconosciuta come Patrimonio dell'UNESCO, una onorificenza che ne celebra la storia
e la cultura.

Ecco, questo è il mio racconto sulla storia della pizza napoletana!

>>> Send a message (/? for help)

CONCLUSIONI
Senza dover scrivere codice Python, abbiamo visto come è possibile personalizzare un modello LLM con Ollama attraverso l’iniezione di domande e risposte contenute nel file modelfile.

Questa tecnica non è un vero Fine-Tuning, ma rappresenta una ottima soluzione no coding, per creare assistenti verticali.

Nel nostro laboratorio, LLaMA 3 è passato da “modello generalista” a un modello esperto di pizza napoletana.


Nel prossimo articolo parleremo di  AI Act e Deepfake.


1.Intelligenza Artificiale: se la conosci non la temi
2.Intelligenza Artificiale: i modelli linguistici di grandi dimensioni
3.Intelligenza Artificiale: le reti neurali artificiali
4.Intelligenza Artificiale: tipi di reti neurali artificiali
5.Intelligenza Artificiale: IA Generativa
6.Intelligenza Artificiale: modelli pre-addestrati di IA locali
7.Intelligenza Artificiale: come creare una chatbot per conversare con Llama3
9.Intelligenza Artificiale: cosa dobbiamo sapere su ai act e deepfake
10.Intelligenza Artificiale: Cosa cambia nel mondo del lavoro

Share Button
TOP