ChatGPT è stato il primo chatbot AI a ottenere un riconoscimento globale. Dal suo lancio sono emersi molti altri chatbot dotati di intelligenza artificiale, che offrono una gamma più ampia di opzioni per soddisfare le tue esigenze specifiche. I chatbot con intelligenza artificiale sono diventati strumenti estremamente popolari e utili per ottenere informazioni, consigli e assistenza su vari argomenti. Puoi usarli per creare un business plan, pianificare il tuo giardino, scrivere articoli o codici, comporre e-mail, generare arte, immagini, video e praticamente qualsiasi cosa tu possa immaginare.
Tuttavia, più questi assistenti di intelligenza artificiale diventano avanzati e integrati nelle nostre vite, più dobbiamo essere cauti nel condividere informazioni personali con loro. Perché? Perché non ci si può fidare di loro con dati sensibili.
Dietro l’amichevole chatbot
Per comprendere i rischi per la privacy associati ai chatbot basati sull’intelligenza artificiale, è importante sapere come funzionano. Questi chatbot raccolgono e archiviano le trascrizioni complete delle conversazioni che hanno luogo quando interagisci con loro. Ciò include tutte le domande, i suggerimenti, i messaggi che invii al chatbot e le risposte del chatbot. Le aziende dietro questi assistenti AI analizzano ed elaborano questi dati di conversazione per addestrare e migliorare i loro grandi modelli linguistici.
Pensa al chatbot come a uno studente che prende appunti durante la lezione. Il chatbot scrive tutto ciò che dici parola per parola, in modo da catturare l’intero contesto e i dettagli. L’azienda di intelligenza artificiale quindi esamina queste “note” per aiutare il chatbot ad apprendere, proprio come uno studente studierebbe gli appunti di classe per aumentare le proprie conoscenze. Sebbene l’intento sia quello di migliorare la comprensione del linguaggio e le capacità di dialogo dell’IA, significa che i tuoi dati grezzi di conversazione – che potrebbero potenzialmente includere informazioni personali, opinioni e dettagli sensibili che divulghi – vengono raccolti, archiviati e studiati dalle società di intelligenza artificiale, almeno temporaneamente.
Se sei su Internet, i tuoi dati personali sono già ovunque. Vuoi vedere dov’è? Utilizza la Protezione dell’identità digitale di Bitdefender per individuare e gestire le tue informazioni personali online.
I rischi dell’eccessiva condivisione
Quando condividi informazioni personali o sensibili con un chatbot AI, perdi il controllo su dove vanno a finire tali dati o su come potrebbero essere utilizzati. I chatbot IA archiviano i dati sui server, che possono diventare vulnerabili a tentativi di hacking o violazioni. Questi server contengono una grande quantità di informazioni che i criminali informatici possono sfruttare in vari modi. Possono infiltrarsi nei server, rubare i dati e venderli sui mercati del dark web. Inoltre, gli hacker possono utilizzare questi dati per violare le password e ottenere l’accesso non autorizzato ai tuoi dispositivi.
Tutti i dati forniti potrebbero essere potenzialmente esposti, violati o utilizzati in modo improprio, portando a furti di identità, frodi finanziarie o alla divulgazione pubblica di informazioni intime che preferiresti mantenere private. Proteggere la tua privacy significa essere selettivo riguardo ai dettagli che fornisci ai chatbot AI.
Cosa non dire a un chatbot
Per proteggere la tua privacy e le tue informazioni personali, sii selettivo su ciò che condividi con i chatbot AI.
Prestare estrema attenzione con questi tipi di dati:
1. Informazioni di identificazione personale: evitare di condividere informazioni chiave di identificazione personale come nome completo, indirizzo di casa, numero di telefono, data di nascita, numero di previdenza sociale o altri numeri di identificazione governativa. Ognuno di questi può essere sfruttato per impersonare te, portando a furto di identità, frode finanziaria o altro uso improprio criminale dei tuoi dati personali.
2. Nomi utente e password: non condividere mai password, PIN, codici di autenticazione o altre credenziali di accesso con i chatbot AI. Anche fornire suggerimenti sulle tue credenziali potrebbe aiutare gli hacker ad accedere ai tuoi account.
3. Le tue informazioni finanziarie: non dovresti mai condividere informazioni sul conto finanziario, numeri di carta di credito o dettagli sul reddito con i chatbot AI.
Puoi chiedere loro suggerimenti e consigli finanziari generali, domande generali per aiutarti a gestire il budget o anche indicazioni fiscali, ma mantieni private le tue informazioni finanziarie sensibili, poiché potrebbero facilmente compromettere i tuoi conti finanziari e le tue risorse.
4. Pensieri privati e intimi: sebbene i chatbot con intelligenza artificiale possano fungere da orecchio comprensivo, dovresti evitare di rivelare pensieri, esperienze o opinioni profondamente personali che non ti sentiresti a tuo agio nel condividere pubblicamente. Qualsiasi cosa, dalle opinioni politiche o religiose ai problemi relazionali o alle lotte emotive, potrebbe essere esposta se i registri delle conversazioni vengono violati o gestiti in modo improprio.
5. Informazioni riservate relative al lavoro: se lavori con informazioni proprietarie, segreti commerciali, conoscenze privilegiate o dati riservati sul posto di lavoro di qualsiasi tipo, non discuterne con i chatbot pubblici di intelligenza artificiale. Evita di utilizzare chatbot con intelligenza artificiale per riassumere i verbali delle riunioni o automatizzare attività ripetitive, poiché ciò comporta il rischio di esporre involontariamente dati sensibili o violare accordi di riservatezza e protezione della proprietà intellettuale del tuo datore di lavoro.
Un rapporto di Bloomberg ha evidenziato un caso in cui i dipendenti Samsung hanno utilizzato ChatGPT per scopi di codifica e hanno caricato accidentalmente codice sensibile sulla piattaforma di intelligenza artificiale generativa. Questo incidente ha comportato la divulgazione di informazioni riservate su Samsung, spingendo l’azienda a imporre un divieto sull’utilizzo di chatbot con intelligenza artificiale.
Le principali aziende tecnologiche come Apple, Samsung, JPMorgan e Google hanno persino implementato politiche per vietare ai propri dipendenti di utilizzare chatbot AI per lavoro.
6. Il tuo lavoro creativo originale: non condividere mai le tue idee originali con i chatbot a meno che tu non sia felice di averle potenzialmente condivise con tutti gli altri utenti.
7. Informazioni relative alla salute:
Un sondaggio condotto dalla società di tecnologia sanitaria Tebra ha rivelato che:
- 1 americano su 4 ha maggiori probabilità di parlare con un chatbot dotato di intelligenza artificiale invece di frequentare la terapia.
- Oltre il 5% degli americani si è rivolto a Chat GPT per una diagnosi medica e ha seguito i suoi consigli.
Proteggere i propri dati sanitari significa proteggere il proprio accesso a cure mediche adeguate, mantenere la riservatezza e salvaguardarsi da potenziali violazioni della privacy o uso improprio di informazioni mediche sensibili. Pertanto, non rivelare mai le tue condizioni mediche, diagnosi, dettagli del trattamento o regimi terapeutici ai chatbot con intelligenza artificiale. Discuti invece con operatori sanitari qualificati in un ambiente sicuro e privato.
Come utilizzare i chatbot in modo sicuro
Ecco 3 cose che puoi fare per utilizzare in sicurezza i chatbot e proteggere la tua privacy.
1. Sii cauto riguardo alle informazioni fornite.
2. Leggi le politiche sulla privacy e cerca le impostazioni sulla privacy di chatbot.
3. Utilizza l’opzione per disattivare l’utilizzo dei tuoi dati per la formazione di modelli linguistici quando disponibili.
In generale, l’utilizzo delle modalità di navigazione in incognito/privata, la cancellazione della cronologia delle conversazioni e la regolazione delle impostazioni dei dati sono i modi principali per limitare la raccolta di dati da parte dei chatbot AI. La maggior parte dei principali fornitori di chatbot AI offre queste opzioni.
Ecco alcuni esempi:
OpenAI (ChatGPT, GPT-3):
– Utilizza la modalità di navigazione in incognito/privata
– Abilita “Non salvare la cronologia” nelle impostazioni
– Cancella regolarmente la cronologia delle conversazioni
Antropico (Claude):
– Abilita l’impostazione “Filtro privacy” per impedire la raccolta dei dati
– Utilizza la funzione “Modalità di navigazione in incognito”.
Google (Bard, LaMDA):
– Utilizza la modalità ospite o la modalità di navigazione in incognito
– Controlla e modifica le impostazioni dei dati di Google
Livello successivo: fai in modo che l’intelligenza artificiale ti mantenga al sicuro
Anche se essere prudenti è saggio, cosa accadrebbe se potessi proteggere la privacy ancora di più sfruttando un assistente AI progettato esplicitamente per salvaguardarti?
Scamio è il nostro chatbot di nuova generazione basato sull’intelligenza artificiale, progettato per rilevare truffe e attività fraudolente. Puoi inviare a Scamio il testo complicato, l’e-mail, il messaggio istantaneo, il collegamento o anche il codice QR che hai ricevuto e fornirà un’analisi istantanea per determinare se si tratta di un tentativo di truffa.
Fonte: https://www.bitdefender.com/blog/hotforsecurity/what-not-to-share-with-ai-chatbots/