Clarke Rodgers (00:10):
Durante le riunioni private con i CEO dei nostri clienti, che di fatto sono tuoi colleghi, quali sono le domande che ti vengono poste più spesso? Quali sono le tematiche relative alla sicurezza, alla privacy, alla conformità e al quadro normativo che più frequentemente vengono toccate? Potresti fornirci qualche dettaglio in merito?
Adam Selipsky (00:28):
Sono conversazioni di enorme rilevanza, a cui numerosi amministratori delegati attribuiscono grande importanza, e le tematiche affrontate trovano eco in molti di loro, come è giusto che sia. Direi che ci sono alcuni temi particolarmente caldi, uno dei quali, naturalmente, è l'IA generativa, che occupa i pensieri di tutti. Riceviamo numerose domande su come affrontare la sicurezza nel contesto dell'IA generativa, sulla rapidità dei cambiamenti in atto, sui tipi di applicazioni o tecnologie da adottare e su come garantire la loro sicurezza, nonché sul modo di assicurare la sicurezza all'interno di un'azienda. E la prima parte della risposta è:
“Dall'IA generativa dovresti pretendere lo stesso livello di sicurezza che ti aspetti da qualsiasi altro servizio che utilizzi”.
Si è verificata una sorta di scissione: da un lato si discuteva di sicurezza aziendale per ogni sorta di servizio, e poi, quasi all'improvviso, l'attenzione si è spostata sull'IA generativa. Mi ha colpito particolarmente il fatto che alcuni dei primi chatbot e assistenti virtuali basati sull'IA generativa e destinati al consumo di massa venissero rilasciati senza adeguati modelli di sicurezza incorporati. I dati si sono diffusi su Internet e ogni miglioramento apportato ai modelli è stato immediatamente condiviso da tutti coloro che li utilizzavano. Ecco perché così tanti CIO, CISO e CEO hanno letteralmente bandito alcuni di questi assistenti dalla propria azienda per un lungo periodo di tempo.
► Ascolta il podcast: Data Trust: The Most Essential Ingredient for AI Innovation
È sorprendente perché se mi rivolgessi a CEO, CIO o CISO attenti alla sicurezza dicendo: "Ehi, ho un nuovo servizio di database che è davvero incredibile. Non ha eguali. Ti piacerà moltissimo. Penso davvero che dovresti adottarlo. A proposito, non è dotato di un modello di sicurezza integrato, ma non ti preoccupare, perché con l'introduzione della versione 2 diventerà sicuro”. Mi prenderebbero per uno scellerato!
Clarke Rodgers (02:20):
Certo.
Adam Selipsky (02:21)
Almeno lo spero, perché me lo meriterei. Quindi, penso che in questo ambito, per motivi a me ignoti, alcune aziende stiano adottando un approccio diverso alla sicurezza e in qualche modo la considerino meno importante. Al contrario, la nostra coerenza qui è palpabile. I nostri servizi di IA generativa, come Amazon Bedrock, un servizio gestito per lavorare con i modelli di fondazione, mantengono lo stesso livello di sicurezza di qualsiasi altro servizio offerto da AWS, né più né meno.
Dunque, questa è la prima riflessione sull'IA generativa. Poi si affrontano altri aspetti; una domanda frequente ad esempio è: “Come posso instaurare una cultura della sicurezza all'interno della mia azienda?” E qui ritengo che si debba tornare al discorso della cultura aziendale. Bisogna riprendere alcuni dei concetti che abbiamo esplorato oggi riguardo la leadership top-down e l'importanza dei segnali inviati dai vertici aziendali in merito alla loro rilevanza. Gli standard sono fissati a livelli straordinariamente elevati. Spesso raccomando ai miei colleghi di mantenere fermamente gli standard di sicurezza più alti possibili, poiché è fondamentale che le persone si rendano conto di quanto sono elevati e la nostra totale intolleranza verso tutto ciò che non li rispetti.