Un articolo molto interessante sui nuovi rischi aziendali dovuti al ricorso alle IA: i dipendenti danno in pasto alle IA dati personali e segreti industriali (codice proprietario) per velocizzare controlli e revisioni, oppure per svolgere lavori ripetitivi, senza la dovuta attenzione. L'articolo parla di controlli Data Loss Prevention, coaching e di analisi del rischio specifica per questo contesto. L'IA è una bacchetta magica che potenzia le attitudini di chi la utilizza, si devono illustrare alle persone rischi e potenzialità. Le aziende devono gestire questo percorso di consapevolezza, i dipendenti già utilizzano questi strumenti spesso senza un'adeguata preparazione metodologica. È un tema troppo innovativo, pervasivo e disruptive per lasciare che trovi da solo il suo posto nei processi aziendali. Un'altra considerazione, banale ma non scontata: se si trattano dati personali con l'IA, NON si possono utilizzare versioni free. Le versioni gratuite utilizzano i dati caricati per l'apprendimento delle IA, inoltre in questo modo si comunicano dati personali ad un altro titolare (extraeuropeo) senza alcuna base legale o vincolo contrattuale che lo regolamenti. Con buona pace dall'AI Act e soprattutto del GDPR. #IA #DLP #coaching #riskanalysis https://lnkd.in/dt-e44bz
Post di Aldo Lupi
Altri post rilevanti
-
Mentre aspetto un amaro dopo cena, sto chiedendo a Claude-3.5-Sonnet a cosa dovrebbe pensare (e quindi porre attenzione) un'azienda per consentire un uso sicuro di un LLM ai dipendenti. l'AI ha sempre una risposta pronta, anche di sabato sera 😀 Lo schema di gioco non è difficile, senza necessariamente scomodare linee guida o normative speciali. La vera risposta che è necessaria nelle nostre aziende è quella che vuole indirizzare, prima di tutto, cosa sia consentito. Proibire l'intelligenza artificiale ai dipendenti per principi di sicurezza e privacy è anacronistico e sbagliato. Oltre che inutile. ‐‐---------- 1. Policy Aziendali Dettagliate - Definire quali LLM sono autorizzati - Stabilire categorie di dati che non possono essere inseriti - Creare procedure per la segnalazione di incidenti - Documentare linee guida per i casi d'uso permessi 2. Formazione del Personale - Programmi di training obbligatori - Esempi pratici di scenari rischiosi - Aggiornamenti periodici sulle nuove minacce - Test di verifica delle competenze acquisite 3. Monitoraggio e Controllo - Implementare sistemi di logging delle interazioni - Analizzare periodicamente i pattern di utilizzo - Verificare compliance con le policy - Stabilire alert per comportamenti anomali 4. Soluzioni Enterprise - Valutare piattaforme con funzionalità di audit - Considerare LLM dedicati su infrastruttura privata - Implementare sistemi di autenticazione forte - Utilizzare API enterprise con SLA garantiti 5. Gestione del Rischio - Valutare impatto sulla sicurezza dei dati - Definire piani di risposta agli incidenti - Stabilire livelli di autorizzazione - Effettuare assessment periodici
Per visualizzare o aggiungere un commento, accedi
-
-
“SHADOW AI” IN AZIENDA: RISCHI PER LA SICUREZZA E SFIDE CULTURALI L’uso non autorizzato dell’Intelligenza Artificiale da parte dei dipendenti aumenta i pericoli di violazioni dei dati e richiede nuove strategie di formazione e regolamentazione Diritto dell'Informazione #dirittodellinformazione #ShadowAI #azienda
“SHADOW AI” IN AZIENDA: RISCHI PER LA SICUREZZA E SFIDE CULTURALI
https://dirittodellinformazione.it
Per visualizzare o aggiungere un commento, accedi
-
Sei un ricercatore? Un autore? Un medico? O lavoratore della conoscenza? Utilizzi #chatgpt e/o altri strumenti di #intelligenzaartificiale? Nel contesto delle tue attività di #ricerca hai ricevuto delle linee guida dall'organizzazione per la quale lavori? Ti preoccupa la tua #privacy e la #cybersecurity? Sei sicuro di rispettare il #copyright e di non incorrere in potenziali sanzioni? Hai preso in considerazione i rischi reputazionali individuali e per l'azienda per la quale lavori, anche in merito alla proprietà intellettuale? Vorresti il supporto di un esperto per mitigare i rischi e comprendere come operare? Seguimi e a breve ne saprai di piu'! Stat tuned!
Forbes Top 100 Italian Lawyers | Of Counsel RP Legal & Tax | Law and New Tech Ph.D | TEDx Speaker | Legal Design Hub
Da questa ricerca sembra emergere come, i dati regolamentati (che le organizzazioni hanno il dovere legale di proteggere) costituiscano più di 1/3 dei dati sensibili condivisi con applicazioni di intelligenza artificiale generativa (#AI generativa, genAI), rappresentando un potenziale rischio per le aziende di costose violazioni dei dati...e non solo!!!
Per visualizzare o aggiungere un commento, accedi
-
Diverse novità significative per la gestione dei rischi legati alla privacy nei processi basati sull’intelligenza artificiale #AI Esso evidenzia un approccio basato sul rischio che mira a bilanciare lo sviluppo tecnologico con la protezione dei dati personali. Tra i punti principali emergono le linee guida per la raccolta e l’uso legittimo dei dati personali nei modelli di apprendimento automatico, sottolineando la necessità di garantire la trasparenza e il rispetto delle normative sulla protezione dei dati. Inoltre, vengono proposti sistemi di valutazione dei rischi e misure tecniche e organizzative per mitigarli, come la pseudonimizzazione e la limitazione degli accessi. Il paper promuove una gestione strutturata dei rischi attraverso l’intera filiera dell’IA, dall’ideazione alla distribuzione, e include raccomandazioni per la collaborazione tra i partecipanti alla catena del valore. Sono previsti approcci specifici per tipi diversi di IA, come i modelli generativi o discriminativi, con un’attenzione particolare ai rischi derivanti da bias, profiling e memorizzazione dei dati di addestramento. Un altro aspetto cruciale riguarda la gestione dei rischi emergenti, come la possibilità di inferire informazioni sensibili o di identificare individui tramite combinazioni di dati apparentemente innocui. Il documento riconosce anche l’importanza di adattare continuamente le strategie di mitigazione in base all’evoluzione delle tecnologie e delle normative, ponendo le basi per una gestione della privacy più efficace e dinamica.
Per visualizzare o aggiungere un commento, accedi
-
Uso della GenAI: come mitigare i rischi di esposizione di dati sensibili aziendali
Per visualizzare o aggiungere un commento, accedi
-
Per evitare i rischi occorre implementare soluzioni AI che mantengono i dati all'interno senza inviarli all'esterno per elaborarli. segui #AIpassion
Per visualizzare o aggiungere un commento, accedi
-
👍🏼Migliori pratiche per la conformità alla protezione dei dati nei sistemi di intelligenza artificiale Ecco alcune raccomandazioni per le organizzazioni che utilizzano sistemi di intelligenza artificiale per assicurarsi che rispettino gli obblighi in materia di protezione dei dati. 🤖Una sfida chiave è la giustificazione dei risultati prodotti dai sistemi di intelligenza artificiale. Ciò è essenziale affinché i titolari del trattamento possano adempiere ai propri obblighi nei confronti degli interessati nonché rispettare i principi di liceità, correttezza e trasparenza. 🔎 Identificazione Innanzitutto, le organizzazioni dovrebbero identificare se e quali sistemi di intelligenza artificiale vengono utilizzati per prendere decisioni o previsioni sugli individui. È necessario chiarire se vengono trattati dati personali e se vengono trattate categorie particolari di dati personali, le finalità del trattamento e individuarne la base legale che ne legittima il trattamento. ⚠️Valutazione del rischio Laddove i dati personali siano in gioco nel sistema di intelligenza artificiale, le organizzazioni dovranno condurre una DPIA, che si concentri sui potenziali rischi per i diritti e le libertà delle persone interessate. Ciò consentirà di identificare i rischi e le possibilità di mitigarli. Ti è piaciuto questo contenuto? Scrivilo nei commenti ✍🏼 Rimaniamo in contatto 👉🏼Nadia De Franceschi Attiva la 🔔 per non perderti i nuovi post. #nadiadefranceschi #privacy #GDPR #AI
Per visualizzare o aggiungere un commento, accedi
-
-
AI Act: come riconoscere e gestire le attività ad alto rischio? Con l'imminente entrata in vigore dell'AI Act, le aziende devono avere quali attività rientrano nella categoria "ad alto rischio". Ma cosa si intende esattamente per attività ad alto rischio nell'ambito dell'intelligenza artificiale? Le principali attività considerate ad alto rischio includono: - Sistemi che influenzano l'accesso all'occupazione o ai servizi educativi ovvero, tecnologie di IA utilizzate nei processi di selezione del personale, come screening automatizzato dei CV o test di valutazione, che possono causare discriminazioni se non sono progettate correttamente. - Tecnologie per la gestione delle infrastrutture critiche ovvero, in sanità o nei trasporti, l'IA può essere impiegata per diagnosi o gestione delle risorse. Un errore in questi sistemi può avere conseguenze rilevanti per la sicurezza pubblica. - Sistemi di monitoraggio biometrico ovvero, le tecnologie come il riconoscimento facciale sono particolarmente sensibili perché possono invadere la privacy e compromettere i diritti fondamentali degli individui se non regolamentati. Per chi opera in questi settori, garantire conformità significa adottare standard rigorosi di trasparenza, sicurezza e non discriminazione. Le imprese devono anche implementare valutazioni del rischio continuare e documentare attentamente i processi interni per evitare sanzioni e rischi reputazionali. La tua azienda ha già identificato le attività ad alto rischio? La conformità non è solo una necessità normativa: rappresenta anche un'opportunità per innovare in modo sicuro e responsabile. #AIAct #conformità #DPO
Per visualizzare o aggiungere un commento, accedi
-
-
National Institute of Standards and Technology (NIST) affronta il tema della gestione dei rischi derivanti dai #contenuti #sintetici generati da tecnologie di intelligenza artificiale #AI. Questi contenuti, come #immagini, #testi, #audio e #video, possono offrire opportunità innovative ma comportano anche rischi significativi per la #trasparenza, la #sicurezza e la #fiducia nel panorama digitale. Il rapporto si concentra sull'importanza della trasparenza dei contenuti digitali, intesa come il processo di #documentazione e accesso alle informazioni sulle #origini e sulla #storia dei #contenuti. La trasparenza può aiutare a mitigare i rischi, anche se non li elimina completamente, e si basa su strumenti come #filigrane #digitali, #metadati, tecniche di #rilevamento e #tracciamento della provenienza dei contenuti. Tuttavia, il documento sottolinea che nessuna tecnica è sufficiente da sola: l'efficacia dipende dal contesto e dalla loro implementazione. Le principali tecniche descritte includono il #watermarking digitale (filigrane), la registrazione di metadati, il rilevamento automatizzato di contenuti sintetici e l'intervento umano nella rilevazione. Ognuna di queste presenta vantaggi e limiti. Ad esempio, le filigrane possono essere #visibili o #nascoste, ma spesso non sono #immuni a #rimozioni o #alterazioni. I metadati possono fornire informazioni dettagliate sulla creazione e sulle modifiche del contenuto, ma sono vulnerabili a manipolazioni o eliminazioni. Il documento discute anche i rischi specifici associati ai contenuti sintetici, come la diffusione di #disinformazione, #frodi, #attacchi alla sicurezza informatica e la creazione di contenuti dannosi come materiale pedopornografico generato dall'IA. In risposta, si propongono tecniche come il filtraggio dei dati di addestramento e di input e l'utilizzo di hash per tracciare i contenuti illeciti. Nella conclusione, il rapporto evidenzia che, pur non esistendo soluzioni perfette per affrontare i rischi e i danni legati ai contenuti sintetici, lo sviluppo di #standard #scientifici, #approcci #educativi e #normative può sostenere l'adozione di tecnologie più affidabili. L'obiettivo è promuovere la fiducia tra i produttori di contenuti, i distributori e il pubblico, migliorando la gestione dei rischi nell'ecosistema digitale.
Per visualizzare o aggiungere un commento, accedi
-
L'Intelligenza Artificiale è una tecnologia rivoluzionaria ma presenta rischi significativi per la sicurezza, dalla #protezione dei dati sensibili all'affidabilità dei sistemi critici: garantirne la sicurezza è essenziale per prevenire abusi, proteggere la #privacy e mantenere la fiducia degli utenti. L'importanza della sicurezza legata all'IA non può essere sottovalutata. È essenziale sviluppare e implementare strategie di sicurezza robuste, promuovere una cultura della consapevolezza e della responsabilità e stabilire regolamentazioni efficaci per garantire che l'IA possa essere utilizzata in modo etico e benefico per la società. 🔐🤖 #AI #SicurezzaInformatica #Digitalizzazione
Per visualizzare o aggiungere un commento, accedi