Connect with us

Leader di pensiero

Considera i Rischi Prima di Salire a Bordo con le Estensioni AI di Bard

mm

Google ha recentemente annunciato il lancio su larga scala di Bard Extensions, integrando lo strumento di intelligenza artificiale generativa conversazionale (GenAI) nei suoi altri servizi. Bard può ora sfruttare i dati personali degli utenti per eseguire una miriade di attività – organizzare email, prenotare voli, pianificare viaggi, creare risposte ai messaggi e molto altro.

Con i servizi di Google già profondamente intrecciati nella nostra vita quotidiana, questa integrazione segna un vero passo avanti per le applicazioni pratiche quotidiane di GenAI, creando modi più efficienti e produttivi per gestire attività e flussi di lavoro personali. Di conseguenza, poiché Google rilascia strumenti AI più convenienti, altre funzionalità AI basate sul web stanno spuntando per soddisfare la domanda degli utenti che cercano estensioni di produttività basate sul browser.

Gli utenti, tuttavia, devono anche essere cauti e responsabili. Sebbene le estensioni di Bard e strumenti simili possano essere utili e produttivi, aprono nuove porte a potenziali vulnerabilità di sicurezza che possono compromettere i dati personali degli utenti, tra altri rischi ancora non scoperti. Gli utenti che desiderano sfruttare Bard o altri strumenti di produttività GenAI farebbero bene a imparare le migliori pratiche e a cercare soluzioni di sicurezza complete prima di consegnare ciecamente le loro informazioni sensibili.

Revisione dei Dati Personali

Google afferma esplicitamente che il personale della società potrebbe esaminare le conversazioni degli utenti con Bard – che potrebbero contenere informazioni private, dalle fatture ai dettagli bancari alle note d’amore. Gli utenti sono avvertiti di non immettere informazioni confidenziali o dati che non vorrebbero che i dipendenti di Google vedessero o utilizzassero per informare prodotti, servizi e tecnologie di apprendimento automatico.

Google e altri fornitori di strumenti GenAI probabilmente utilizzeranno anche i dati personali degli utenti per riaddestrare i loro modelli di apprendimento automatico – un aspetto necessario dei miglioramenti di GenAI. La potenza dell’AI risiede nella sua capacità di insegnare a se stessa e di apprendere da nuove informazioni, ma quando queste nuove informazioni provengono dagli utenti che hanno affidato i loro dati personali a un’estensione GenAI, c’è il rischio di integrare informazioni come password, informazioni bancarie o dettagli di contatto nei servizi pubblicamente disponibili di Bard.

Preoccupazioni di Sicurezza Indeterminate

Mentre Bard diventa uno strumento più ampiamente integrato all’interno di Google, esperti e utenti stanno ancora lavorando per comprendere la portata della sua funzionalità. Ma come ogni attore di spicco nel campo dell’AI, Google continua a rilasciare prodotti senza sapere esattamente come verranno utilizzate le informazioni degli utenti e i dati. Ad esempio, è stato recentemente rivelato che se condividi una conversazione di Bard con un amico tramite il pulsante Condividi, l’intera conversazione potrebbe apparire nei risultati di ricerca standard di Google per chiunque la veda.

Sebbene sia una soluzione allettante per migliorare i flussi di lavoro e l’efficienza, concedere a Bard o a qualsiasi altra estensione alimentata da AI il permesso di eseguire attività quotidiane utili per conto dell’utente può portare a conseguenze indesiderate sotto forma di allucinazioni AI – output falsi o inaccurati che GenAI è noto creare a volte.

Per gli utenti di Google, ciò potrebbe significare prenotare un volo errato, pagare in modo inaccurato una fattura o condividere documenti con la persona sbagliata. Esporre dati personali alla persona sbagliata o a un attore malintenzionato o inviare i dati sbagliati alla persona giusta può portare a conseguenze indesiderate – dall’furto d’identità e dalla perdita di privacy digitale a potenziali perdite finanziarie o esposizione di corrispondenza imbarazzante.

Estensione della Sicurezza

Per l’utente medio di AI, la migliore pratica è semplicemente non condividere alcuna informazione personale con assistenti AI ancora imprevedibili. Ma ciò non garantisce da solo la sicurezza completa.

Il passaggio a SaaS e applicazioni basate sul web ha già reso il browser un obiettivo principale per gli attaccanti. E poiché le persone iniziano ad adottare più strumenti AI basati sul web, la finestra di opportunità per rubare dati sensibili si apre un po’ di più. Mentre più estensioni del browser cercano di approfittare del successo di GenAI – allettando gli utenti con nuove funzionalità efficienti – le persone devono essere consapevoli del fatto che molte di queste estensioni finiranno per rubare informazioni o le chiavi API di OpenAI, nel caso di strumenti correlati a ChatGPT.

Fortunatamente, le soluzioni di sicurezza per estensioni del browser esistono già per prevenire il furto di dati. Implementando un’estensione del browser con controlli DLP, gli utenti possono mitigare il rischio di invitare altre estensioni del browser, basate su AI o meno, a malutilizzare o condividere dati personali. Queste estensioni di sicurezza possono ispezionare l’attività del browser e applicare politiche di sicurezza, prevenendo il rischio che le app basate sul web rubino informazioni sensibili.

Proteggi Bard

Mentre Bard e altre estensioni simili promettono una maggiore produttività e convenienza, portano rischi di sicurezza sostanziali. Ogni volta che sono coinvolti dati personali, ci sono sempre preoccupazioni di sicurezza sottostanti di cui gli utenti devono essere consapevoli – ancora di più nelle nuove acque inesplorate dell’Intelligenza Artificiale Generativa.

Mentre gli utenti consentono a Bard e ad altri strumenti basati su AI e web di agire in modo indipendente con dati personali sensibili, sono sicuramente in serbo conseguenze più gravi per gli utenti incauti che si lasciano vulnerabili senza estensioni di sicurezza del browser o controlli DLP. Dopo tutto, un aumento della produttività sarà molto meno produttivo se aumenta la possibilità di esporre informazioni, e gli individui devono mettere in atto salvaguardie per l’AI prima che i dati vengano gestiti a loro spese.

Tal è il Chief Technology Officer di Perception Point. In precedenza fondatore e CTO di Hysolate, Tal Zamir è un leader del settore software con 20 anni di esperienza e un curriculum di risoluzione di sfide aziendali urgenti attraverso la riimmaginazione di come funziona la tecnologia.

Ha sviluppato numerosi prodotti innovativi di sicurezza informatica e virtualizzazione. Tal ha incubato prodotti di calcolo di prossima generazione per utenti finali mentre era nel ruolo di CTO in VMware.