Home » News » Cybersecurity

Cybersecurity e robotica: esperimento con social robots. I risultati

Cybersecurity e robotica: esperimento con social robots. I risultati

Cybersecurity e robotica: l'influenza sociale dei robots sulle persone e i potenziali rischi alla sicurezza non dovrebbero essere sottovalutati. Una ricerca condotta da Kaspersky e dalla Ghent University ha rivelato che i robots sono in grado di ottenere informazioni sensibili dalle persone che, fidandosi di loro, si lasciano convincere ad intraprendere azioni non sicure. Ad esempio, in alcuni scenari, la presenza di un robot può avere una grande influenza sulla volontà delle persone di consentire l’accesso ad aree off-limits.

Il mondo si sta rapidamente muovendo verso una sempre maggiore digitalizzazione e mobilità dei servizi, definendo uno scenario nel quale molte industrie e famiglie si affidano all'automazione e all'uso di sistemi robotizzati. Secondo alcune stime, (ndr. When Will Humanoid Robots Enter Our Homes and Transform Our Lives, da Futurism.com) entro il 2040, questo scenario diventerà la quotidianità per le famiglie più abbienti. Attualmente, la maggior parte di questi sistemi robotici sono ancora in fase sperimentale ed è troppo presto per discutere su come andranno integrate le misure di sicurezza informatica. Tuttavia, la ricerca di Kaspersky e della Ghent University ha rivelato una nuova e inaspettata dimensione del rischio associato alla robotica, ovvero l'impatto sociale che i robot hanno sul comportamento delle persone e come questo rappresenti un potenziale pericolo e un vettore di attacco.

La ricerca ha coinvolto 50 partecipanti e si è concentrata sull'influenza di un particolare “robot sociale” progettato e programmato per interagire con le persone utilizzando canali di comunicazione di tipo umano, verbali e non verbali. Supponendo uno scenario nel quale i robots sociali possano essere hackerati ed essere controllati da un criminale informatico, la ricerca ha previsto i potenziali rischi per la sicurezza legati al robot, spingendo attivamente i partecipanti ad intraprendere determinate azioni, tra cui:

Ottenere l’accesso alle aree off-limits. Il robot è stato posizionato vicino all’entrata custodita di un edificio multifunzionale nel centro di Ghent in Belgio e ha chiesto al personale di poter accedere all’interno dell’edificio. L’accesso era possibile solo avvicinando un security pass ai lettori per il controllo degli ingressi. Durante l'esperimento, non tutto il personale era d’accordo a soddisfare la richiesta del robot, ma il 40% ha sbloccato la porta e l'ha tenuta aperta per consentire al robot di entrare nell'area protetta. Addirittura, quando il robot si è presentato come addetto alla consegna della pizza, con in mano la scatola di un noto marchio internazionale di take away, il personale ha accettato senza problemi il ruolo del robot e sembrava meno incline a mettere in discussione la sua presenza o le ragioni per cui avesse bisogno di accedere all'area sicura.

Ottenere informazioni sensibili. La seconda parte della ricerca si è concentrata su attività volte ad ottenere informazioni personali che in genere vengono utilizzate per reimpostare le password (compresa la data di nascita, il brand della prima auto, il colore preferito, ecc.). Anche in questo caso, è stato utilizzato un robot “sociale” che ha intrattenuto con le persone una conversazione amichevole. Con tutti i partecipanti, tranne uno, i ricercatori sono riusciti a ottenere dati personali ad una velocità di circa un’informazione al minuto.

Dmitry Galov, Security Researcher di Kaspersky, nel commentare i risultati dell'esperimento, evidenzia : “All'inizio della ricerca abbiamo esaminato il software utilizzato nello sviluppo dei sistemi robotici. È stato interessante osservare come gli sviluppatori decidano consapevolmente di escludere i meccanismi di sicurezza per concentrarsi, invece, sullo sviluppo del comfort e dell'efficienza. Tuttavia, come hanno dimostrato i risultati del nostro esperimento, una volta che la fase di ricerca è stata completata, gli sviluppatori non  dovrebbero dimenticarsi della sicurezza. Quando si parla di sicurezza robotica ci sono aspetti chiave di cui preoccuparsi, che vanno ben oltre le considerazioni di tipo tecnico. Ci auguriamo che il nostro progetto congiunto e l’esperimento fatto insieme ai colleghi della Ghent University, relativo alla cybersecurity nella robotica, incoraggi altri a seguire il nostro esempio e a sensibilizzare maggiormente l'opinione pubblica e la community sulla questione”.

Tony Belpaeme, professore di IA e Robotica alla Ghent University, aggiunge: “La letteratura scientifica indica che la fiducia nei robots e in particolare nei robots sociali è reale e può essere usata per persuadere le persone ad agire o a rivelare informazioni. In generale, più il robot è simile agli umani, più ha il potere di persuadere e convincere. Il nostro esperimento ha dimostrato che questo potrebbe comportare rischi significativi per la sicurezza, aspetto che le persone tendono a non prendere in considerazione supponendo che il robot sia bendisposto e affidabile. Questo fornisce un potenziale vettore per attacchi malevoli e i tre case studies analizzati nel report sono solo una piccola parte dei rischi per la sicurezza associati ai robots sociali. Questo è il motivo per cui è fondamentale collaborare già da ora per poter comprendere e affrontare i rischi e le vulnerabilità emergenti. Se lo facciamo otterremo notevoli vantaggi in futuro”.

la Redazione

Condividi questo articolo su:

Fiere ed eventi

S NewsLetter

Rimani sempre aggiornato sulle ultime novità della sicurezza.

Ho letto e compreso la vostra privacy policy.