E’ un'analisi approfondita sull'"#Explainability" (spiegabilità) nei Modelli Linguistici di Grandi Dimensioni (LLMs), un tema centrale nel campo della ricerca attuale sull'intelligenza artificiale (IA). Ecco una panoramica dei punti principali con enfasi sugli sviluppi recenti e le direzioni future della ricerca: Con l'aumento dell'applicazione dei LLM in vari campi, cresce l'importanza della trasparenza per affrontare preoccupazioni etiche e di fiducia. Lo studio sottolinea la "natura black-box" di questi modelli, che può portare a risultati inattesi e rischiosi come contenuti dannosi o "allucinazioni" del modello Analisi locale e globale: - Analisi #locale: Comprende tecniche di attribuzione delle caratteristiche (come SHAP e LIME) e analisi dei blocchi interni del Trasformatore. Questo approccio si concentra su come i modelli giungono a predizioni specifiche. - Analisi #globale: si propone di comprendere le conoscenze e le proprietà linguistiche codificate negli stati nascosti del modello, spesso tramite metodi di probing e interpretabilità meccanicistica Le tecniche di #spiegabilità aiutano a individuare e correggere errori specifici nei modelli, migliorando così l'affidabilità dei LLM. Esempi recenti includono editori di conoscenza tramite iper-reti e metodi "Locate-Then-Edit" per aggiornamenti mirati La spiegabilità ha favorito il miglioramento delle capacità dei modelli, come nella gestione di testi lunghi e nell'apprendimento contestuale (In-Context Learning, #ICL). Per esempio, StreamingLLM permette ai modelli di trattare testi estesi senza bisogno di riaddestramento Il documento suggerisce metodi specifici per valutare l'efficacia delle spiegazioni fornite dai modelli. Alcuni esempi includono la misurazione dell'accuratezza dell'editing dei modelli e la valutazione della veridicità tramite benchmark come #TruthfulQA Questa panoramica riflette il rapido sviluppo della spiegabilità nei LLM e il potenziale di queste tecniche per rendere i modelli di IA più trasparenti https://lnkd.in/dbbfY_Y4
ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®
Organizzazioni senza scopo di lucro
Milan, Lombardy 19.565 follower
Only humans will shape the future
Chi siamo
We want our research to bring value to civil society, supporting companies, universities and organizations to encourage the growth of awareness throughout the country regarding the great opportunities offered by artificial intelligence, but also the complex economic, social and ethical challenges with which we must confront
- Sito Web
-
https://enia.ai
Link esterno per ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®
- Settore
- Organizzazioni senza scopo di lucro
- Dimensioni dell’azienda
- 2-10 dipendenti
- Sede principale
- Milan, Lombardy
- Tipo
- Non profit
Località
-
Principale
Via Giuseppe Revere, 16
Milan, Lombardy 20123, IT
Dipendenti presso ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®
-
Giovanni Giamminola
DG di UNICO, distributore farma da 1,1 miliardi di euro e retailer | Membro del CDA di Dafne, consorzio healthcare da 44 miliardi di euro
-
Cristiano Redona
Aiuto PMI a superare le inefficienze attraverso Social Selling, Automazione e AI | Coordinatore Strategico per lo Sviluppo dei Servizi ai Soci di…
-
Roberto Magnani
I help organizations unlock the potential of responsible Artificial Intelligence (AI). Additionally, I guide them on the exciting journey of…
-
Luciano Tarantino
Chairman - Certified Tax Adviser (CTA&CPA) presso STP CORPORATE FINANCE | Secretary General ENTE per la TRANSIZIONE ENERGETICA
Aggiornamenti
-
Angolo delle neuroscienze 🧠 Una ricerca che esplora come le conversazioni influenzino le percezioni che le persone hanno di sé stesse, portandole a somigliarsi di più dopo un’interazione piacevole. I risultati mostrano che i partner di conversazione tendono a modificare i propri giudizi su sé stessi, rendendoli più simili a quelli dell'altro, e che questo allineamento è associato a un maggiore gradimento dell'interazione e al desiderio di incontrarsi di nuovo. La tendenza delle persone a connettersi con chi ha caratteristiche simili è una delle principali dinamiche nei rapporti sociali, nota come omofilia. I ricercatori hanno utilizzato una metodologia di conversazione in formato "#round-#robin" in gruppi di #quattro persone, monitorando come le percezioni di sé cambiano attraverso le interazioni. Prima e dopo le conversazioni, i partecipanti hanno valutato sé stessi su diverse caratteristiche, permettendo di analizzare l'allineamento (inter-self alignment) tra i partner di conversazione. La ricerca introduce il concetto di "#inter-#self #alignment", ovvero l’allineamento delle percezioni di sé tra partner di conversazione. Questo fenomeno suggerisce che l'interazione sociale possa modellare attivamente come le persone vedono sé stesse, anziché limitarsi a riflettere una similarità preesistente. Gli autori propongono che il modo in cui vediamo noi stessi possa essere co-autoriale, cioè definito attraverso il dialogo e l’interazione. In altre parole, le percezioni di sé si sviluppano non solo in base a opinioni e giudizi personali, ma anche in risposta agli scambi con gli altri. La ricerca ha scoperto che maggiore è l’allineamento delle autopercezioni tra i partner di conversazione, maggiore è il gradimento reciproco e l’intenzione di ripetere l’interazione. Questo indica che l’allineamento delle percezioni di sé non solo facilita la connessione, ma anche il rafforzamento del legame tra le persone. Uno studio che offre spunti rilevanti per l'AI, specialmente nelle aree di interazione uomo-macchina e modellazione del comportamento sociale: 1. Un chatbot che imita l'effetto di "inter-self alignment" potrebbe generare risposte che non solo comprendono ma rispecchiano delicatamente le emozioni e le autopercezioni dell'utente, creando interazioni più coinvolgenti. 2. Algoritmi di machine learning potrebbero essere addestrati a riconoscere segnali che facilitano la costruzione di rapporti, replicando così meccanismi che rendono le interazioni umane piacevoli e significative. 3. algoritmi di raccomandazione per personalizzare meglio i contenuti, rendendo le interazioni con l'IA più personalizzate e in sintonia con le preferenze e le percezioni dell'utente. 4. L'IA potrebbe essere programmata per imitare l'allineamento delle autopercezioni per simulare interazioni più realistiche. https://lnkd.in/d3rRtXUZ
-
Interessa una guida davvero utile "Cyber Risk Resources for Practitioners"? In un mondo sempre più digitale, il rischio cibernetico rappresenta una delle maggiori sfide per le aziende e le istituzioni. La guida sviluppata dall'Institute of Risk Management è una risorsa preziosa che offre strategie pratiche e consigli su misura per professionisti del rischio. 🌐 Nella guida troverete: - Una panoramica delle principali minacce e vulnerabilità cibernetiche. - Suggerimenti su come integrare la gestione del rischio cyber nei processi aziendali. - Strumenti per migliorare la resilienza e proteggere i dati aziendali. 💡 L'intelligenza artificiale può essere un'arma a doppio taglio: potente ma anche vulnerabile. La guida approfondisce come gestire questi rischi, favorendo un approccio proattivo e responsabile.
-
E’ una call for input lanciata dall’Autorità olandese per la protezione dei dati (#AP), una richiesta di contributi rivolta a stakeholder, esperti, organizzazioni e cittadini. Lo scopo è raccogliere opinioni, esperienze e preoccupazioni sul tema del riconoscimento delle emozioni tramite IA nei luoghi di lavoro e nelle istituzioni educative, per valutare meglio le implicazioni etiche e sociali e, potenzialmente, per orientare future La call sensibilizza sul divieto di utilizzo di sistemi di IA per il riconoscimento delle emozioni nei contesti di lavoro e nelle istituzioni educative. La motivazione è che queste tecnologie possono violare la dignità e i diritti fondamentali, soprattutto se imposte in ambienti in cui le persone sono obbligate a partecipare, come scuole o luoghi di lavoro. La consultazione evidenzia come tali sistemi possano portare a un ambiente di sorveglianza non giustificato, in contrasto con il rispetto della libertà individuale e del controllo sui dati personali. Per partecipare: https://lnkd.in/ding-Csw
-
I #grafi di #conoscenza (#KG) sono strumenti essenziali per compiti basati sulla conoscenza, ma i modelli attuali #faticano a generalizzare tra KG diversi e a trasferire conoscenze in #contesti #variabili. Lo studio presenta KG-ICL, un modello fondazionale per il ragionamento universale sui KG, basato su un approccio di apprendimento contestuale ("in-context learning"). KG-ICL introduce un grafico di #prompt che integra un #fatto #esemplificativo per il contesto della #query e utilizza una #tokenizzazione #unificata per mappare entità e relazioni in grafi differenti. Con l'impiego di reti neurali per la #propagazione dei #messaggi, il modello riesce a eseguire un ragionamento coerente e generalizzabile su 43 diversi KG, ottenendo prestazioni superiori rispetto ai modelli tradizionali. Il ragionamento sui grafi di conoscenza implica l’#inferenza di nuove relazioni a partire da #fatti #esistenti, ma le tecniche esistenti non riescono a gestire entità e relazioni #sconosciute o trasferire conoscenze tra diversi KG. L’innovazione principale di KG-ICL è l’uso dell’#apprendimento #contestuale per adattarsi a nuovi grafi e fornire risposte accurate in base a pochi esempi senza aggiornare i parametri del modello. A differenza dei modelli tradizionali, KG-ICL può operare su una gamma diversificata di grafi senza dover essere specificamente pre-addestrato su ciascuno. Come accennato, il modello utilizza un "grafico di prompt" che include contesti pertinenti all’esempio e alle entità vicine, migliorando così la capacità di ragionamento contestuale. Questo grafico di prompt non solo fornisce informazioni specifiche della query ma collega entità e relazioni per una rappresentazione coerente attraverso grafi diversi. La tokenizzazione unificata è un’#innovazione chiave: tutte le entità e le relazioni sono mappate su token #predefiniti, permettendo al modello di gestire entità sconosciute senza dipendere da embedding specifici del grafo. Ciò consente una generalizzazione significativa e una maggiore capacità di trasferimento di conoscenze tra diversi KG. Il modello impiega #due reti neurali per la propagazione dei messaggi: una per l’#encoding del grafico di prompt e una per il #ragionamento sul KG. Questo approccio assicura che le informazioni rilevanti del prompt influenzino direttamente il processo di ragionamento, migliorando l’accuratezza del modello. Sono stati condotti esperimenti su 43 KG in diversi contesti, tra cui impostazioni transduttive e induttive. I risultati mostrano che KG-ICL #supera i modelli basati su supervisione e pre-addestramento, dimostrando sia robustezza sia efficienza. Per la lettura completa della ricerca: https://lnkd.in/dYbShWdA
-
Un studio da “ IL RE E’ NUDO” 😎 L’ AIAct europea rappresenta una pietra miliare verso uno sviluppo responsabile dell'Intelligenza Artificiale, ma #soffre della #mancanza di un'#interpretazione tecnica #chiara che ne renda #effettivamente applicabili i #requisiti normativi. Lo studio presenta #COMPLAI, un #framework innovativo che fornisce (i) la prima interpretazione tecnica dell'AI Act, traducendone i requisiti normativi in criteri tecnici misurabili, con particolare focus sui modelli linguistici di grandi dimensioni (#LLM), e (ii) una #suite di #benchmarking #opensource incentrata sulla norma. Lo studio evidenzia carenze significative nei modelli attuali in aree chiave come la #robustezza, la #sicurezza, la #diversità e l’#equità, sottolineando la necessità di orientare lo sviluppo degli LLM verso queste aree critiche e incoraggiando benchmark più completi e allineati alle normative. COMPL-AI è, effettivamente, il primo framework a fornire un’interpretazione tecnica dell’AI Act, rendendo operativi i requisiti etici e normativi dell’atto 🙌. Introduce, a tal fine, una suite di benchmarking open-source basata su una revisione e implementazione dei benchmark più avanzati per valutare le performance degli LLM in relazione ai requisiti del AI Act. La ricerca include la valutazione di 12 modelli linguistici di rilievo, che vengono confrontati rispetto ai criteri tecnici stabiliti dallo studio. L'analisi ha rivelato che molti dei modelli attuali mostrano lacune significative in aree critiche, in particolare nella robustezza (capacità di resistere ad attacchi o errori), nella diversità (riduzione di bias e pregiudizi) e nell'equità. Dunque, mira a incoraggiare uno sviluppo più equilibrato dei modelli IA, sottolineando la necessità di allineare la progettazione degli LLM non solo all’efficienza e alla capacità di risposta, ma anche alla sicurezza, all’equità e alla responsabilità sociale. Il framework propone un primo passo verso la definizione di linee guida concrete per i fornitori di modelli IA, offrendo raccomandazioni tecniche e parametri di misurazione che rispecchiano le esigenze normative dell’AI Act. Questo strumento supporta anche gli sforzi dell’UE nella creazione di un Codice di Condotta per l’IA Generativa (GPAI). Per leggere lo studio completo: https://lnkd.in/dtKu9KCk
-
Ecco il progetto di ricerca estivo del 1956 sull'intelligenza artificiale, considerato una pietra miliare per l’AI. In estrema sintesi: 1️⃣ la proposta suggeriva che, se una macchina era in grado di svolgere un compito, allora un calcolatore automatico poteva essere programmato per simularlo. 2️⃣ gli autori ipotizzavano che una parte significativa del pensiero umano consistesse nel manipolare parole secondo regole di ragionamento. 3️⃣ veniva discusso il tema delle reti di neuroni ipotetiche per formare concetti. 4️⃣ l'importanza di sviluppare metodi per misurare l'efficienza dei calcoli, in modo da distinguere i calcoli più efficienti da quelli meno efficaci. 5️⃣ una macchina veramente intelligente dovesse essere capace di migliorarsi da sola. 6️⃣ classificare vari tipi di astrazione e di descrivere metodi per consentire alle macchine di formare astrazioni. 7️⃣ il pensiero creativo differisce dal pensiero competente e ordinato grazie all'iniezione di un certo grado di casualità, controllata dall'intuizione. Rispetto alla proposta originale del 1956, l’AI di oggi: #Capacità di #Calcolo - Allora: i computer avevano capacità di memoria e velocità molto limitate. - Oggi: supercomputer, cloud computing e GPU potenti, consentono di processare grandi quantità di dati in pochissimo tempo. #Algoritmi e #Architetture - Allora: modelli teorici, come le reti neurali semplificate e i calcolatori automatici. - Oggi: architetture avanzate come le reti neurali profonde (deep learning), le reti convoluzionali (CNN) per il riconoscimento di immagini e le reti neurali ricorrenti (RNN) per il trattamento del linguaggio naturale. #LinguaggioNaturale e Apprendimento Automatico - Allora: come far “comprendere” e usare il linguaggio alle macchine, ma si trattava di teorie con pochi risultati pratici. - Oggi: modelli come GPT, BERT e altri sistemi di NLP (Natural Language Processing) Auto-miglioramento e #Addestramento: - Allora: auto-miglioramento era visto come un obiettivo importante, ma difficile realizzarlo. - Oggi: algoritmi possono migliorarsi autonomamente attraverso il feedback continuo e l'apprendimento su dati nuovi. Abilità di #Astrazione e #Generalizzazione: - Allora: capire come le macchine potessero formare astrazioni e generalizzazioni, concetti alla base dell'intelligenza. - Oggi: reti neurali e algoritmi moderni riescono a generalizzare bene su compiti specifici, ma la capacità di generalizzare in modo "umano" è ancora un obiettivo aperto. #Creatività e Casuale #Intuitiva: - Allora: creatività poteva essere modellata con elementi di casualità. - Oggi: algoritmi generativi come GAN e modelli di trasformazione possono produrre immagini, musica e testi originali, dimostrando un certo livello di creatività. #Impatto #Sociale ed #Etico: - Allora: l'intelligenza artificiale era un campo sperimentale. - Oggi: l’AI è onnipresente, con un impatto significativo sulla società e sull'economia.
-
La Open Source Initiative (OSI)ha recentemente pubblicato la versione 1.0 della "open-source #AI definition", stabilendo criteri chiari per definire un modello di intelligenza artificiale come #opensource. Questa definizione è il risultato di una collaborazione con il mondo accademico e l'industria dell'IA, mirata a promuovere trasparenza e libertà d'uso nei modelli di intelligenza artificiale. Secondo Stefano Maffulli vicepresidente esecutivo dell'#OSI, un'#AI open source deve permettere una comprensione completa del suo processo di costruzione, offrendo accesso a tutti i componenti, dal codice utilizzato per l'addestramento ai metodi di filtraggio dei dati. Questa iniziativa mira a garantire che gli sviluppatori e gli utenti possano utilizzare, studiare, modificare e condividere liberamente i modelli di IA, promuovendo un ecosistema più aperto e collaborativo. La definizione di IA open source si basa su quattro pilastri fondamentali: 1. Trasparenza e informazioni dettagliate: gli sviluppatori devono garantire che tutte le informazioni relative alla progettazione e al funzionamento del modello siano accessibili. Ciò include l’accesso completo al codice sorgente usato per l’addestramento e ai processi di filtraggio dei dati. 2. Libertà di modifica e itilizzo: gli utenti devono avere la libertà di utilizzare il modello per qualsiasi scopo e di modificarlo senza bisogno di autorizzazioni. Questo requisito intende assicurare che l’IA open source sia accessibile e adattabile per molteplici contesti applicativi. 3. Comprensione del processo di costruzione: Un vero modello open source deve permettere la comprensione completa del proprio processo di creazione, rendendo evidente ogni componente che ne influenza il comportamento. 4. Allineamento tra sviluppatori e politici: Stefano Maffulli, vicepresidente dell’OSI, ha sottolineato l’importanza di allineare il settore tecnologico con il mondo politico. La Commissione Europea, infatti, sta già considerando la possibilità di riconoscere ufficialmente le soluzioni IA open source, favorendo così lo sviluppo di tecnologie trasparenti e aperte. Per ulteriori dettagli, è possibile consultare il comunicato ufficiale dell'OSI sulla definizione dell'IA open source. https://lnkd.in/d-KPhgZT
-
Vi vorremmo raccontare l'emozione della Direttrice di NEXT GENIA® Veronica M. Pruinelli nel licenziare questa favola!! Uno staff di professionisti per un progetto voluto fortemente dalla Presidente di ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®, Valeria Lazzaroli. 🌟 E quindi inizia oggi un viaggio speciale per educare i bambini sui rischi del digitale e sull'importanza dell'Intelligenza Artificiale #AI come strumento di difesa quando in buone mani! 🌟 Con grande entusiasmo, presentiamo il primo episodio della serie "Lady Privacy", una favola moderna dedicata ai piccoli esploratori del mondo digitale. In un paese incantato, #LadyPrivacy e i suoi figli #Info e #Dato lavorano per garantire libertà, uguaglianza e sicurezza a tutti. Ma non sono soli: il #DottorHacker, trasformato in #MisterMalware, cerca di minare questa serenità, sfruttando la disinformazione e l’innocenza dei bambini e degli anziani. 👧👦 Attraverso queste storie, l'obiettivo di rendere i bambini consapevoli dei pericoli, ma anche mostrar loro come l'IA, quando utilizzata correttamente, possa essere un'alleata preziosa. Con l’aiuto di personaggi come il saggio #NonnoCuore e la potente "#Artificia", impariamo che la #protezione e il rispetto della #privacy sono valori che possiamo custodire insieme. Questa è solo la prima di tante avventure! Seguiteci per scoprire come educare alla sicurezza digitale in modo semplice e coinvolgente. #IntelligenzaArtificiale #SicurezzaDigitale #EducazioneDigitale #LadyPrivacy #IA #NextGen
-
Del "Club dei 27" ne parla persino The New York Times Un gruppo esclusivo di appassionati di Giuseppe Verdi con sede a Parma, Italia. Fondato nel 1958, il club è composto da 27 membri, ciascuno dei quali rappresenta una delle opere del compositore. L'adesione è a vita, e un nuovo membro viene ammesso solo in caso di decesso di uno degli attuali. I membri si riuniscono regolarmente per discutere delle opere di Verdi, promuovere la sua musica e organizzare eventi culturali. Il club svolge un ruolo significativo nel mantenere viva la tradizione verdiana a Parma, contribuendo a preservare e diffondere l'eredità del compositore. In punta di piedi e con il plauso a questa magnifica tradizione perpetuata nel tempo da parte del “Club dei 27" , la riflessione su come la tecnologia possa supportare meritevoli iniziative di questo genere per diventare, insieme, custodi di un patrimonio culturale e di conoscenza, impegnati a preservare, elaborare e diffondere saperi in modi unici e specializzati. Nel "Club dei 27," ogni membro rappresenta una singola opera di Verdi, contribuendo collettivamente alla custodia e alla celebrazione della sua opera. Analogamente, l’AI può svolgere un’attività di “custode" virtuale del sapere collettivo, che raccoglie, connette e interpreta miliardi di informazioni e conoscenze, diventato un grandissimo club di "membri" invisibili, ciascuno dedicato a un pezzo di conoscenza, pronto a richiamarlo e rielaborarlo per scopi plurimi. https://lnkd.in/d43XXXDY