La GenAI da sola non basta
18 Gen 2026 - Huffington Post, Ultime dai media
Analisi scritta insieme a Andrea Viliotti, consulente strategico AI, pubblicata su HuffPost Italia del 20 gennaio 2026.
“La Generative AI è ormai entrata nel lavoro quotidiano: riassume documenti, prepara bozze, traduce testi, “suggerisce” risposte. La promessa è chiara: liberare tempo. Ma il tempo risparmiato non si trasforma automaticamente in benessere né in qualità del lavoro. La tecnologia può alleggerire alcune fatiche, ma non sostituisce l’organizzazione, né la relazione umana.
Lo conferma una ricerca pubblicata online sul Journal of Innovation & Knowledge (Filippelli et al., 2025) su circa 130 knowledge worker, per lo più in lavoro ibrido. Lo studio evidenzia che un atteggiamento positivo verso la GenAI ne favorisce l’adozione ed emerge un’associazione chiara soprattutto con il benessere emotivo e sociale: meno stress da compiti ripetitivi e maggiore facilità nella collaborazione. Sebbene il disegno cross-sectional non provi un rapporto di causalità, offre un indicatore prezioso su dove dirigere lo sguardo. Il passaggio decisivo, tuttavia, riguarda il benessere cognitivo. Nello studio non emerge un miglioramento “automatico” conseguente all’uso della Gen AI: nel modello, l’associazione passa in larga parte dalla coesione del team. Se la GenAI diventa una scorciatoia individuale, infatti, cresce il rischio di debito cognitivo: meno pensiero critico, meno apprendimento, più dipendenza dall’output e nelle organizzazioni questo può indebolire anche la filiera formativa: se spariscono i compiti di ingresso, svaniscono con loro il tutoraggio e le comunità di pratica che trasmettono competenza e cultura del lavoro ai più giovani. Due esempi. In un’azienda, un responsabile HR usa un “copilota” per sintetizzare decine di candidature: velocità altissima, ma il rischio è “normalizzare” bias cognitivi, criteri impliciti e decisioni poco spiegabili. Allo stesso modo, nella Pubblica Amministrazione, un ufficio usa la GenAI per predisporre bozze di risposta ai cittadini: tempo risparmiato, ma basta un’informazione imprecisa o un tono inadeguato per erodere la fiducia nelle istituzioni. In entrambi i casi, il tema non è solo tecnologico: è di processo, responsabilità e governance.
Da qui una regola fondamentale, valida per imprese e pubbliche amministrazioni: non basta “dare il tool”, serve progettare il contesto in cui viene usato. Tra le mosse concrete che possono essere messe in campo, quella di portare la GenAI dentro i rituali di squadra, trasformare l’uso in governance e proteggere competenze e pipeline. Nel primo caso, si consiglia l’uso di prompt e template condivisi, revisione tra pari, librerie di casi d’uso e momenti di confronto su errori e “allucinazioni”. In questo modo, l’uso passa da solitario a cooperativo e rafforza la coesione che, secondo la ricerca, sblocca anche la dimensione cognitiva. Nel secondo caso, il consiglio è quello di mappare dove la GenAI è già usata (anche in modalità “shadow”), distinguere i casi a rischio, definire chi valida cosa e quando, e con quali indicatori di qualità (non solo velocità). In azienda significa evitare che decisioni su clienti, compliance o persone nascano da un copia-incolla non tracciato. Nella PA significa alzare l’asticella su atti, comunicazioni al cittadino, valutazioni: l’IA può assistere, ma la responsabilità resta umana e deve essere visibile. Qui contrattazione collettiva, regole interne e policy etiche diventano infrastruttura: trasparenza su dati, log e criteri, limiti a forme di sorveglianza algoritmica, diritto alla disconnessione anche cognitiva. Infine, proteggere competenze e pipeline significa fare formazione non solo sul “prompting”, ma anche sulla direzione attiva del processo: chiedere, verificare, contestualizzare. Per i junior, serve un “EntryLevel 2.0”: farne i primi validatori dell’output (con affiancamento senior e reverse mentoring), invece di tagliarli fuori dai processi. Per la PA serve un investimento strutturale e continuo: una sorta di “Erasmus della PA” tra amministrazioni, per far circolare pratiche, linguaggi e standard. E misurare l’impatto in modo adulto: decisioni più spiegabili, conoscenza riusata nei team, meno “rework” e meno errori che ricadono su cittadini o clienti.
Il quadro normativo europeo va nella stessa direzione: quando l’IA entra in processi di selezione, valutazione e gestione del personale, aumentano gli obblighi di supervisione umana e accountability. La scelta di campo è chiara: usare i guadagni di produttività per aumentare pressione e controllo, oppure per ridurre tecnostress e migliorare il servizio. La GenAI può essere leva di benessere, ma solo se inserita in un ecosistema fatto di coesione, regole e leadership. Governarla, oggi, è molto più produttivo che inseguirla.”
Articolo integrale al seguente link:
https://www.huffingtonpost.it/blog/2026/01/20/news/la_genai_da_sola_non_basta_la_variabile_decisiva_e_la_coesione_del_team-21000471/



