Conversational AI e sicurezza museale: dal supporto informativo alla decisione responsabile

Nel dibattito contemporaneo sull’adozione dell’AI nei musei, l’attenzione si è finora concentrata prevalentemente sul miglioramento dell’esperienza del visitatore: chatbot informativi, assistenti digitali e strumenti di mediazione culturale. Si tratta di soluzioni ormai consolidate, ampiamente sperimentate e tecnologicamente mature.
Resta invece ancora poco esplorato l’impiego dell’AI a supporto delle funzioni interne più critiche, in particolare nell’ambito della sicurezza, dove la complessità operativa, la frammentazione dei sistemi e l’elevata responsabilità decisionale rendono il contesto radicalmente diverso da quello dei servizi al pubblico.
In questo scenario si inserisce il progetto MuseGuard AI, un lavoro di sperimentazione concettuale sviluppato presso l’Università di Trento nell’ambito Innovation and Entrepreneurship Studies, un programma che si distingue per il suo carattere internazionale e multidisciplinare, coinvolgendo studenti provenienti da diversi percorsi accademici e ambiti di specializzazione.
L’iniziativa si è sviluppata sotto la mentorship accademica del professor Maurizio Marchese, Associate Professor of Computer Science, e del dottor Stefano Turrini, Research Fellowship Holder, ed è stata affiancata da una mentorship aziendale a cura di Davide Piazza, CEO di Afliant, tech company nell’ambito della system integration, dell’AI e dello sviluppo di infrastrutture digitali complesse, e a cura di Luca Melchionna, CEO di Machineria, studio specializzato nella progettazione di esperienze e contenuti per il settore culturale e museale. In questo contesto, entrambe le realtà hanno svolto un ruolo di indirizzo progettuale, contribuendo a portare nel lavoro accademico vincoli, complessità e scenari operativi reali.
Il progetto MuseGuard AI
MuseGuard AI nasce da una domanda esplorativa precisa: dove la Conversational AI può generare il maggiore valore nel contesto museale, nei servizi rivolti ai visitatori o nei flussi interni di staff e sicurezza?
Il progetto, configurato fin dall’origine come concept sperimentale e lavoro di ricerca applicata, ha avuto l’obiettivo di indagare, attraverso un approccio strutturato, se e come i sistemi conversazionali possano supportare contesti operativi ad alta complessità e responsabilità, come quelli legati alla sicurezza museale.
MuseGuard AI è stato sviluppato da un team internazionale composto da:
- Jordi Agudo i Munteis, Computer Vision Engineer e Studente del Master in Autonomous Systems and Intelligent Robotics presso European Institute of Innovation and Technology (EIT) Digital Master School,
- Fran Iriso Wicijowski, Embedded Systems Engineer e Studente Master in Autonomous Systems and Intelligent Robotics presso European Institute of Innovation and Technology (EIT) Digital Master School
- Jia Kaixin, Studente Master in Autonomous Systems and Intelligent Robotics, presso European Institute of Innovation and Technology (EIT) Digital Master School
- Andrea Ballarini, Backend Developer e studente del Master in FinTech (Finance Technology) presso l’Università degli studi di Trento,
- Syed Ajmal Shah, Cyber Security Analyst e Studente del Master in Cybersecurity presso European Institute of Innovation and Technology (EIT) Digital Master School.
Il lavoro ha integrato desk research, benchmarking con settori adiacenti ad alta criticità operativa e interviste qualitative a professionisti museali, con l’obiettivo di comprendere i reali punti di frizione nei processi quotidiani. Da questa analisi è emerso come l’ambito della sicurezza e delle operazioni interne rappresenti un’area ad alto potenziale di impatto, ma ancora poco presidiata da soluzioni conversazionali mature e progettate per l’uso professionale.
La proposta che ne deriva è quella di una Conversational AI pensata come layer operativo di supporto, integrato ai sistemi di sicurezza esistenti, orientato alla sintesi informativa, alla riduzione del carico cognitivo e al supporto decisionale umano.
L’obiettivo della soluzione, attraverso l’elaborazione del linguaggio naturale (NLP),è l’ottimizzazione dell’accessibilità ai dati complessi ed eterogenei, permettendo così l’accesso a sintesi di informazioni operative chiare, una riduzione dei tempi di risposta e, infine, grazie alla pronta individuazione dei dati rilevanti, un aumento della situational awareness in situazioni critiche.
L’intervista all’Art Security Manager
Per approfondire gli approcci, le criticità e le soluzioni operative nel settore, ecco l’intervista a Carlotta Predosin, Art Security Manager, professionista della sicurezza museale con formazione storico-artistica e una consolidata esperienza nella governance della sicurezza, nella gestione dei servizi al pubblico e nel coordinamento dei flussi operativi in contesti museali complessi e ad alta affluenza. Predosin ha ricoperto incarichi di responsabilità in primarie istituzioni culturali italiane ed è membro ICOM e ASIS International.

Perché la sicurezza rappresenta un ambito strutturalmente più adatto all’applicazione della Conversational AI rispetto ai servizi al visitatore?
Perché la sicurezza è un ambito in cui la qualità dell’informazione, la tempestività di accesso ai dati e la capacità di sintesi incidono direttamente sull’esito degli eventi. Nei servizi al visitatore l’Intelligenza Artificiale produce generalmente un miglioramento incrementale; nella sicurezza, invece, può incidere in modo sostanziale sulla prevenzione del danno, sulla mitigazione del rischio e sulla tutela del patrimonio, ma con le dovute cautele.
Il museo è un sistema ad alta complessità: flussi di pubblico, opere di valore inestimabile, vincoli architettonici, obblighi normativi e una forte esposizione reputazionale. In questo contesto, strumenti in grado di supportare il personale nella lettura rapida e contestualizzata di dati eterogenei non rappresentano un elemento accessorio, ma un fattore abilitante per una gestione efficace del rischio.
Il progetto evidenzia un forte carico cognitivo per il personale di sicurezza. Quanto questo aspetto incide sulla gestione reale del rischio?
Incide in modo determinante. I sistemi di sicurezza museale sono spesso tecnologicamente avanzati, ma distribuiti su piattaforme differenti e non sempre pienamente integrate. Il personale è chiamato a integrare e correlare flussi informativi eterogenei provenienti da differenti canali (sistemi radio, apparati di videosorveglianza, sensori tecnologici, procedure operative codificate e osservazione diretta sul campo), operando spesso in contesti caratterizzati da elevata pressione decisionale e vincoli temporali stringenti.
Questa frammentazione informativa aumenta il rischio di perdere segnali deboli, di rallentare il processo decisionale o di adottare risposte non ottimali. Ridurre il carico cognitivo non significa semplificare la complessità del contesto, ma rendere l’informazione realmente fruibile e utilizzabile nel momento in cui è necessaria.

Qual è oggi il principale limite dei sistemi di sicurezza museale dal punto di vista dell’interazione uomo–sistema?
Il limite principale non è di natura tecnologica, bensì cognitiva ed ergonomica. Molti sistemi sono progettati per essere completi e conformi, ma non sempre risultano efficaci quando devono essere interrogati rapidamente in situazioni critiche. Una Conversational AI correttamente progettata può fungere da livello di intermediazione operativa, consentendo un accesso più diretto, sintetico e contestualizzato alle informazioni rilevanti, senza sostituire i sistemi esistenti né alterare le catene di comando.
Dove si colloca il confine tra supporto decisionale dell’AI e responsabilità umana?
Il confine deve essere chiaro, esplicito e non negoziabile. L’AI può supportare l’analisi, la correlazione dei dati e l’individuazione delle anomalie, ma la decisione resta sempre in capo all’essere umano.
Nel contesto museale, ogni decisione in ambito security genera impatti sistemici di natura operativa, giuridica, etica e reputazionale e deve pertanto essere inquadrata all’interno di un processo strutturato di risk governance. In coerenza con i principi della ISO 31000, tali decisioni richiedono una valutazione esplicita del rischio, la definizione di criteri di accettabilità e la chiara attribuzione delle responsabilità decisionali.
Parallelamente, in linea con la ISO 22301, la security contribuisce in modo diretto alla resilienza organizzativa e alla continuità operativa del museo, rendendo imprescindibile il presidio umano nei momenti decisionali critici.
In questo quadro, la delega implicita del processo decisionale a sistemi automatici determinerebbe una perdita di controllo sul rischio, indebolendo la tracciabilità delle scelte, l’accountability del management e la capacità dell’organizzazione di dimostrare, in ottica di Enterprise Risk Management, la corretta gestione e accettazione del rischio residuo.
Il tema dei near miss emerge come centrale. Quale valore aggiunto può portare l’AI in questo ambito?
Il tema dei near miss riveste un ruolo strategico nella gestione della sicurezza museale, in quanto costituisce una fonte primaria di informazione preventiva. Tali eventi, pur non avendo generato un danno, offrono evidenze concrete sulle vulnerabilità latenti dei sistemi organizzativi e operativi.
In questo ambito, un sistema di AI conversazionale può apportare un valore aggiunto significativo, facilitando la raccolta strutturata, standardizzata e continua delle segnalazioni di near miss, riducendo le barriere alla comunicazione e favorendo una maggiore partecipazione del personale.
La successiva analisi di questi dati consente di trasformare episodi isolati in conoscenza operativa consolidata, rafforzando i processi di learning organization e supportando un approccio alla sicurezza realmente proattivo e orientato alla prevenzione del rischio.

(Palazzo Hofburg, Vienna)
Quali sono i rischi principali di un’adozione non governata dell’AI in ambito security?
In coerenza con il Security Risk Management Guideline di ASIS International, il rischio principale di un’adozione non governata dell’AI in ambito security risiede nell’over-reliance tecnologica, ovvero nella sostituzione del processo decisionale basato sul giudizio professionale con output automatizzati non pienamente verificabili o contestualizzati. Tale dinamica può alterare la corretta valutazione di threat, vulnerability e consequence, pilastri del modello di Security Risk Management promosso da ASIS.
A ciò si aggiungono criticità strutturali legate alla protezione delle informazioni, alla gestione degli accessi privilegiati, alla segregation of duties e alla tracciabilità e auditabilità delle interrogazioni, elementi essenziali per garantire controllo, responsabilità e trasparenza nei sistemi di security complessi.
In assenza di un framework di governance formalizzato – che definisca ruoli, responsabilità, limiti operativi, controlli e meccanismi di supervisione continua – l’AI rischia di introdurre nuove vulnerabilità sistemiche, compromettendo l’efficacia complessiva del security risk management e riducendo la capacità dell’organizzazione di dimostrare una gestione consapevole e documentata del rischio residuo. Per questo il processo esige cautela.
Ovviamente esistono anche gli aspetti positivi. In linea di principio l’AI può essere un fattore abilitante del Security Risk Management se inserita all’interno di un quadro di governance strutturato. Il suo valore risiede nella capacità di supportare il processo decisionale umano, migliorando la situational awareness attraverso l’analisi di dati eterogenei, l’individuazione di patterns ricorrenti e la valorizzazione di informazioni spesso sottoutilizzate, come i near miss.
In coerenza con il modello ASIS Threat–Vulnerability–Consequence, l’AI può contribuire alla valutazione del rischio, alla prevenzione e alla standardizzazione dei processi, rafforzando tracciabilità, auditabilità e documentazione delle decisioni. Tuttavia, la responsabilità finale resta in capo al professionista della sicurezza: per ASIS, l’AI non sostituisce il giudizio umano, ma ne aumenta la qualità, consentendo alla funzione security di operare come abilitatore strategico e non come semplice presidio reattivo.
Che tipo di museo è oggi realmente pronto ad adottare soluzioni come MuseGuard AI?
I musei realmente pronti ad adottare soluzioni come MuseGuard AI sono quelli che hanno già riconosciuto la sicurezza come una funzione strategica di governance, e non come un mero presidio esecutivo o tecnologico. In tali contesti, l’adozione di strumenti avanzati avviene all’interno di un modello organizzativo maturo, in cui ruoli, responsabilità, processi decisionali e criteri di accettazione del rischio sono chiaramente definiti.
La tecnologia, infatti, esprime un valore concreto solo laddove esista una cultura della sicurezza diffusa e condivisa, capace di integrare competenze umane, procedure e strumenti digitali. In assenza di questo presupposto, anche le soluzioni più evolute rischiano di rimanere inefficaci o di introdurre nuove vulnerabilità, anziché rafforzare il sistema complessivo di sicurezza.
Conclusioni
Alla luce dell’esperienza professionale maturata, una soluzione come MuseGuard AI può essere considerata un abilitatore operativo e informativo per la sicurezza museale, a condizione che la sua adozione sia inserita in un sistema di governance della sicurezza strutturato, coerente con i principi di Security Risk Management promossi da ASIS International e con i valori di responsabilità, tutela e servizio pubblico richiamati da ICOM. In tale quadro, l’Intelligenza Artificiale non sostituisce il processo decisionale umano, ma ne rafforza l’efficacia e la consapevolezza, supportando l’analisi del rischio in contesti complessi.
In questa prospettiva, la validazione di MuseGuard AI ha confermato come la produzione di reporting sintetico e alerts differenziati sia fondamentale per incrementare l’efficienza operativa e la disponibilità tempestiva delle informazioni necessarie, requisiti che si rivelano determinanti in un ecosistema complesso come quello della sicurezza museale. Il sistema si pone come obiettivo di tradurre la complessità tecnologica in conoscenza direttamente fruibile, basando la propria efficacia sulla gestione degli accessi privilegiati: questo assicura che la diffusione delle informazioni sensibili sia circoscritta al dominio di responsabilità del singolo operatore, prevenendo saturazioni cognitive e vulnerabilità procedurali. In linea con le criticità evidenziate nell’intervista, tale controllo granulare non rappresenta solo un requisito tecnico ma un pilastro di governance necessario per mantenere il controllo umano sul rischio residuo e assicurare l’effettiva accountability dei processi decisionali. L’AI rappresenta oggi uno strumento ad elevato potenziale, che richiede tuttavia di essere chiaramente perimetrato, regolamentato e sottoposto a controllo. Responsabilità decisionale, tracciabilità delle scelte, auditabilità dei processi e legittimità operativa costituiscono elementi imprescindibili, in linea sia con i modelli ASIS di accountability e risk ownership, sia con le indicazioni ICOM in materia di etica, protezione del patrimonio e rispetto dei diritti individuali.
Una diffusione progressiva e consapevole di soluzioni di questo tipo, accompagnata da solide strutture di governance, da un presidio manageriale chiaro e da una formale assunzione di responsabilità, può contribuire in modo significativo all’evoluzione della sicurezza museale, rafforzandone il ruolo come funzione strategica integrata nella missione culturale e istituzionale del museo, a tutela delle collezioni, delle persone e della fiducia del pubblico.












