Una tecnologia dirompente come l’AI impatta sull’intera società, in quanto i cittadini che la utilizzano sono anche lavoratori, e viceversa. All’AI è però legato il grande tema dell’uso etico e sicuro dei dati e solo la consapevolezza su privacy e sicurezza degli stessi può aiutare a costruire più fiducia nelle tecnologie di AI.
“Nel Consumer Privacy Survey 2024, lo studio annuale di Cisco su percezione e comportamenti dei consumatori in relazione alla privacy dei dati emerge che sono quasi raddoppiati coloro che utilizzando regolarmente l’AI generativa, passando dal 12% al 23% a livello globale, e l’Italia è in linea con il 22%.
“L’esplosione dell’AI generativa tra i consumatori ha fatto conoscere l’AI, una tecnologia non nuova e già da tempo utilizzata nelle organizzazioni più tecnologiche”, evidenzia Fabio Florio di Cisco.
“Oggi, le aziende la stanno introducendo nell’area business e allo stesso tempo buona parte di queste realtà sta creando una piattaforma interna di GenAI dedicata, per tutelare privacy e sicurezza dei dati. Si pensi che il 30% degli intervistati a livello gobale ha dichiarato di inserire informazioni personali e confidenziali all’interno delle piattaforme di GenAI".
Gli highlight dello studio sulla privacy e sicurezza dei dati
Dalla survey emerge che il 69% dei consumatori afferma di essere a conoscenza delle leggi sulla privacy, mentre l’89% si sente più sicuro sapendo che i loro dati sono protetti in modo adeguato.
I giovani però sembrano esser molto più attenti al problema e ben il 49% dei consumatori tra i 25 e i 34 anni ha cambiato azienda o fornitore a causa delle politiche sui dati o delle pratiche di condivisione dei dati, rispetto invece al 18% tra quelli con più di 75 anni.
Lo studio ha evidenziato anche i rischi legati alla GenAI più avvertiti da parte degli utenti, tra i quali emergono:
- output della piattaforma di AI non corretto
- timore che i dati possano essere resi pubblici
- rivoluzione nell’ambito dei ruoli lavorativi.
Relativamente a questo ultimo punto, Cisco ha promosso il consorzio AI-Enabled ICT Workforce Consortium con aziende leader nell’ICT - settore dove pare che il 92% dei profili evolverà con l’avanzamento dell’AI - per formare le persone per i nuovi ruoli che si creeranno; in particolare Cisco entro il 2032 formerà 25 milioni di sulla cybersecurity e sui digital skill.
L’AI sicura in tre step, secondo Cisco
Le tecnologie di AI sono sempre più utilizzate nelle aziende e l’impegno di Cisco è promuovere un uso sicuro dell’AI, basato su una precisa linea di azione:
- Utilizzo sicuro dell’AI, proteggere cioè il modo in cui l’AI viene utilizzata
- Utilizzo di sicurezza AI nativa per data center di nuova generazione. Hypershield ne è un esempio: l’AI rileva automaticamente i comportamenti anomali e reagisce per bloccare le minacce dovute, per esempio, a vulnerabilità o a traffico malevolo.
- Utilizzo di AI nelle attività di cybersecurity per aumentare l’efficacia e sgravare l’attività umana nella fase di analisi.
“L’utilizzo dell’AI nei Soc consente di automatizzare diversi task colmando il gap di figure professionali skillate oggi molto carenti”, spiega Renzo Ghizzoni di Cisco. “L’AI è inoltre indispensabile per analizzare quantità enormi di dati di elevata complessità”.
Un altro aspetto di sicurezza dell’AI da non sottovalutare è rendere sicuro il dataset da cui l’AI pesca i dati. Grazie alla recente acquisizione di Robust Intelligenge, Cisco offre una tecnologia che permette alle aziende di implementare in sicurezza le applicazioni AI, rendendo sicuro il mondo con cui l’AI accede ai dati.