L’intelligenza artificiale (IA) è entrata nella vita quotidiana degli italiani quasi in sordina: prima nei motori di ricerca, poi nei social, oggi nei chatbot generativi e nei servizi online di ogni tipo. Ma come viene percepita davvero? È vista più come opportunità o come minaccia?
Negli ultimi anni, ricerche di istituti come Censis, Istat e l’Osservatorio Artificial Intelligence del Politecnico di Milano mostrano un quadro sfaccettato: entusiasmo per i benefici, timore per lavoro, privacy e qualità dell’informazione, e una forte richiesta di regole chiare.
Un Paese che investe (ancora poco), ma in forte accelerazione
Dal lato economico, l’IA in Italia non è più una nicchia: nel 2024 il mercato nazionale dell’intelligenza artificiale ha raggiunto circa 1,2 miliardi di euro, con una crescita annua di circa il 58% rispetto al 2023. Una parte rilevante di questa crescita è legata alla cosiddetta Generative AI, che vale ormai oltre il 40% del mercato complessivo.
Nonostante il boom, l’IA resta concentrata nelle imprese più strutturate. Istat segnala che nel 2024 solo l’8,2% delle imprese italiane con almeno 10 addetti utilizza almeno una tecnologia di IA, contro una media europea del 13,5%. Per le grandi imprese (almeno 250 addetti) la quota sale al 32,5%, mentre le piccole rimangono più indietro.
Il ritardo si inserisce in un quadro più ampio: l’Italia investe in ricerca e sviluppo circa l’1,33% del PIL, a fronte di una media europea del 2,33%. Non stupisce quindi che l’IA venga percepita anche come un banco di prova della capacità del Paese di innovare davvero.
Cosa pensano gli italiani: speranze alte, timori ancora di più
Le rilevazioni del Censis raccontano un rapporto “emotivo” con l’IA. Da un lato, una parte significativa della popolazione riconosce i potenziali benefici: oltre la metà degli italiani si aspetta, ad esempio, un miglioramento delle cure mediche grazie all’IA e vede nello sviluppo di queste tecnologie un aiuto per la ricerca scientifica e la sanità, sia a livello diagnostico sia terapeutico.
Dall’altro lato, prevale la richiesta di controllo: circa l’82% degli italiani ritiene necessario porre limiti precisi alle applicazioni dell’IA attraverso una regolamentazione dedicata. È un dato che si inserisce in un clima europeo in cui poco più della metà dei cittadini vede nell’IA un impatto potenzialmente positivo sulla propria vita nei prossimi vent’anni, mentre un terzo teme conseguenze negative, soprattutto sul lavoro e sui diritti.
Proprio il lavoro è uno dei punti più sensibili: una rilevazione del Censis evidenzia che circa i due terzi degli italiani temono che l’IA possa avere un impatto “devastante” sull’occupazione, sostituendo le persone con computer e chatbot. La paura non riguarda solo i lavori manuali: anche professioni qualificate si percepiscono esposte all’automazione.
Informazione, fake news e fiducia: l’IA come moltiplicatore di incertezza
Un altro nodo è la qualità dell’informazione. Secondo le analisi disponibili, quasi il 70% degli utenti italiani è convinto che con l’IA aumenteranno le notizie non verificabili e che sarà sempre più difficile distinguere il vero dal falso, con rischi importanti per le democrazie.
La diffusione di deepfake, testi generati automaticamente e contenuti manipolati alimenta un sentimento di “ansia da realtà”: ci si chiede se ciò che si vede online sia autentico o prodotto da un algoritmo. Questa diffidenza non blocca però l’uso degli strumenti: gli stessi studi indicano che già una quota non trascurabile di italiani utilizza software di generazione di immagini (circa l’8,4%) e di testi (circa l’8,2%) basati su IA generativa, come chatbot e sistemi di scrittura assistita.
Il paradosso è evidente: utilizzo crescente, fiducia limitata. L’IA viene percepita come comoda e utile, ma anche potenzialmente ingannevole. La richiesta implicita è di trasparenza sugli algoritmi, sui dati utilizzati e su chi è responsabile dei risultati che producono.
Il grande divario delle competenze digitali
La lentezza nell’adozione dell’IA non è solo questione di investimenti, ma anche di competenze. I dati indicano che meno della metà degli italiani tra i 16 e i 74 anni possiede competenze digitali almeno di base, con un forte divario rispetto agli obiettivi europei e punte particolarmente critiche nelle regioni del Mezzogiorno, dove le persone con competenze digitali minime scendono a poco più di un terzo.
In questo contesto, l’IA rischia di diventare una tecnologia “per pochi”: compresa, governata e sfruttata dalle imprese e dai cittadini più istruiti e connessi, mentre altri restano semplici utenti passivi, esposti alle decisioni automatizzate senza comprenderle.
IA nella vita quotidiana: sanità, servizi pubblici, intrattenimento
Nella percezione comune, l’IA resta qualcosa di astratto, ma in realtà è già presente in molti ambiti concreti:
- Sanità: sistemi di supporto alla diagnosi, analisi automatica di referti e immagini mediche, strumenti predittivi per la gestione dei ricoveri.
- Servizi pubblici e PA: sperimentazioni di chatbot per rispondere ai cittadini, analisi dei dati per migliorare trasporti, welfare e gestione urbana.
- Commercio e finanza: sistemi antifrode, motori di raccomandazione, assistenti virtuali, scoring automatizzati del rischio.
- Intrattenimento e piattaforme online: suggerimenti di film, musica, contenuti social e anche personalizzazione dell’esperienza su portali di gioco regolamentati, dove l’IA viene utilizzata per la sicurezza delle transazioni, il rilevamento di comportamenti anomali e la tutela dei profili più vulnerabili. In questo ecosistema rientrano, ad esempio, siti come NetBet, che integrano algoritmi di IA per migliorare i sistemi di controllo e la qualità del servizio digitale, non solo per la parte ludica ma anche per l’esperienza utente in termini di affidabilità e protezione dei dati.
In molti casi, l’utente italiano non è pienamente consapevole che dietro queste funzioni ci sono modelli di IA: l’esperienza è percepita come “più comoda” o “più veloce”, ma la tecnologia sottostante resta invisibile. Questo invisibile, però, influisce sulla fiducia: quando qualcosa va storto (un contenuto inappropriato raccomandato, un errore di classificazione, un blocco ingiustificato) la colpa viene spesso attribuita al “sistema” in modo generico, alimentando diffidenza.
Regole, etica e partecipazione: cosa chiede la società italiana
La spinta regolatoria che arriva dall’Unione europea con l’AI Act trova in Italia un terreno particolarmente favorevole: l’ampia maggioranza dei cittadini chiede che l’IA sia disciplinata da norme chiare, con limiti precisi soprattutto per gli usi più sensibili (controllo sociale, sorveglianza, decisioni che incidono su lavoro, credito, accesso ai servizi). Allo stesso tempo, cresce l’idea che l’IA non vada subita, ma “governata” anche culturalmente:
- con programmi di formazione digitale accessibili non solo ai giovani ma anche agli adulti e ai lavoratori in riqualificazione;
- con iniziative di alfabetizzazione sull’IA nelle scuole e nelle università, per passare dall’uso inconsapevole alla comprensione critica;
- con maggiore trasparenza da parte di aziende e istituzioni su quali sistemi vengono impiegati, con quali finalità e con quali tutele.
