Foto di copertina di ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®
ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®

ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®

Organizzazioni senza scopo di lucro

Milan, Lombardy 36.033 follower

Only humans will shape the future

Chi siamo

We want our research to bring value to civil society, supporting companies, universities and organizations to encourage the growth of awareness throughout the country regarding the great opportunities offered by artificial intelligence, but also the complex economic, social and ethical challenges with which we must confront

Sito Web
https://enia.ai
Settore
Organizzazioni senza scopo di lucro
Dimensioni dell’azienda
201-500 dipendenti
Sede principale
Milan, Lombardy
Tipo
Non profit
Data di fondazione
2023

Località

Dipendenti presso ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®

Aggiornamenti

  • Cosa #NON #siamo: - Non amiamo fare lobby. Concorriamo per il sapere, cerchiamo e produciamo conoscenza; - Non siamo unici, siamo complementari al sistema associativo, al mondo istituzionale pubblico e privato; - Non siamo una scuola di formazione, siamo un Ente di ricerca, creiamo il "tessuto connettivale" necessario per incrociare trasferimento tecnologico, open innovation e scale-up; - Non siamo un Ente pubblico, crediamo nella forza del TERZO SETTORE come sentinella del #BeneComune e faro per la crescita economica ed il benessere sociale; Cosa #facciamo: - Ricerca scientifica per rilanciare l'#industria italiana, la creazione di nuove economie, supporto alla formazione ed al Sistema Sociale, anche grazie all'AI e tutte le branche della #DeepTech e #Robotica disponibili; - Il baricentro del nostro pensiero strategico è incardinato nelle logiche del Project e Risk Management, si procede non trascurando nessun ambito connesso al contesto; - "l'uomo non è al centro" ma libero nelle proprie scelte, l'#AI il mezzo per abilitare e migliorare la qualità della vita; - Esiste solo l'etica umana, unico volano per contaminare ogni dove, compreso quello tecnologico e del market system. Chi #cerchiamo: - Cultori della vita, amanti del sapere, critici del pensiero, rizomatici e poliedrici, il presupposto di base. Studi in discipline scientifiche, umanistiche, economiche e giuridiche sono gradite. Si può entrare in ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.® in qualsiasi momento. Nelle prossime settimane, l'avvio delle attività dei Dipartimenti, ricchissimi di competenze e propositi; esserci sin dai primi giorni consentirà di poter costruire insieme le fondamenta di una ricerca che non rimane fine a ste stessa ma presupposto per avviare tavoli negoziali con gli stakeholder pubblici e privati per concorrere insieme alle Istituzioni nel supporto al nostro Paese per garantire benessere economico e sociale nel tempo. Se sei interessata/o o vuoi approfondire, scrivi a enia.ai@enia.ai

    • Nessuna descrizione alternativa per questa immagine
  • L’intelligenza artificiale che restituisce la voce. Grazie a una straordinaria interfaccia cervello-computer, una donna con paralisi è tornata a comunicare con la sua voce — la stessa voce che aveva prima dell’incidente, ricostruita grazie all’intelligenza artificiale. Non si tratta di un esperimento futuristico, ma di una realtà pubblicata su Nature Neuroscience il 31 marzo 2025. Una tecnologia che non solo traduce i segnali neurali in parole udibili quasi in tempo reale, ma lo fa con empatia, fedeltà, dignità. Non è solo progresso tecnologico. È un atto di restituzione. È l’AI che incontra l’umano, per ridare potere alla relazione.

    Visualizza la pagina dell’organizzazione MINDWATCH by E.N.I.A.®

    477 follower

    Un recente studio pubblicato su Nature Neuroscience il 31 marzo 2025 ha introdotto un’interfaccia cervello-computer (BCI) avanzata che traduce i segnali neurali in parole udibili quasi in tempo reale. Questa tecnologia ha permesso a una donna con paralisi di comunicare attraverso una voce sintetica personalizzata, basata su registrazioni della sua voce prima dell’infortunio. A differenza di precedenti dispositivi, che richiedevano la formulazione completa di una frase prima della traduzione, questa BCI è in grado di decodificare e vocalizzare le parole mentre vengono pensate, con un ritardo di soli tre secondi. Questo progresso rappresenta un passo significativo verso interfacce che facilitano conversazioni più naturali per persone con gravi disabilità motorie. https://lnkd.in/dgf9rvnS

    • Nessuna descrizione alternativa per questa immagine
  • Verso un’Europa Digitale: il nuovo programma 2025–2027 Con l’adozione del Work Programme 2025–2027, il Digital Europe Programme entra nella sua fase finale, consolidando i progetti già avviati e rafforzando le capacità strategiche dell’Unione Europea nelle tecnologie digitali. Questo programma rappresenta un #tassello_fondamentale per raggiungere gli obiettivi del Decennio Digitale 2030, affermando la sovranità tecnologica europea in ambiti chiave come #intelligenza_artificiale, #cybersicurezza, #semiconduttori e #competenze_digitali\avanzate. Uno degli assi portanti del programma è l’implementazione della #Apply_AI_Strategy, mirata a diffondere l’adozione dell’IA – in particolare quella generativa – in settori pubblici e privati. L’Europa ambisce a diventare un #continente_dell_AI, investendo in #AI_Factories, modelli fondamentali, applicazioni sanitarie (come i #Gemelli_Virtuali_Umani) e #testbed per mondi virtuali in ambito industriale ed educativo. Parallelamente, si rafforza la rete degli #European_Digital_Innovation_Hubs veri centri di competenza diffusi nei territori, in grado di supportare PMI e pubbliche amministrazioni nella transizione digitale e verde. Oltre 136 hub offriranno servizi legati all’IA generativa, all’interoperabilità e alla digitalizzazione dei servizi pubblici. Sul fronte della cybersicurezza, il programma prevede la creazione della #Cybersecurity_Reserve e di una piattaforma unica per la segnalazione delle vulnerabilità, in linea con il Cyber Resilience Act. Queste misure rispondono alla crescente esposizione dell’UE a minacce informatiche, anche alla luce delle tensioni geopolitiche globali. Un’altra priorità è colmare il divario nelle competenze digitali avanzate: nasceranno quattro nuove accademie in settori chiave (quantistica, IA, semiconduttori e mondi virtuali), mentre si investirà in programmi di istruzione superiore d’eccellenza e iniziative per rafforzare la presenza femminile nel settore ICT. Il programma dedica ampio spazio anche all’infrastruttura digitale: il completamento dell’identità digitale europea, l’interoperabilità tra servizi pubblici, la promozione del Digital Twin della Terra (#Destination_Earth) e lo sviluppo di semiconduttori attraverso il Chips Fund sono azioni strategiche volte a rendere l’Europa più resiliente, verde e tecnologicamente autonoma. Con un budget totale di 3,2 miliardi di euro, il Digital Europe Programme non solo finanzierà progetti transnazionali e innovativi, ma attiverà sinergie con altri strumenti UE – come Horizon Europe, InvestEU e i fondi di coesione – per rafforzare l’impatto sistemico della transizione digitale. L’Europa digitale si costruisce oggi, investendo in #infrastrutture, #competenze, #sicurezza e #innovazione per garantire una società più connessa, equa e sostenibile. 🙌

  • Etica e responsabilità nell’Intelligenza Artificiale: il modello di #Hong_Kong Nel panorama globale della regolamentazione dell’intelligenza artificiale, l’Office of the Privacy Commissioner for Personal Data di Hong Kong ha sviluppato un approccio etico distintivo e pragmatico. Le linee guida pubblicate mirano a supportare imprese e istituzioni nell’adozione responsabile dell’#AI, tutelando la privacy e rafforzando la fiducia del pubblico nei sistemi intelligenti. Al centro del framework vi è il principio di #responsabilità_umana, che sottolinea la necessità di un #controllo_attivo da parte degli operatori umani durante l’intero ciclo di vita dei sistemi IA. Le decisioni automatizzate non possono essere lasciate interamente alla macchina: deve sempre esserci una supervisione umana in grado di intervenire, correggere e spiegare. Altro pilastro è la #trasparenza. Il PCPD raccomanda che gli utenti siano chiaramente informati quando interagiscono con un sistema IA e che comprendano i criteri generali su cui si basa il suo funzionamento. Questo principio si lega a quello dell’“interpretabilità”: le decisioni devono poter essere comprese, spiegate e contestate. Per evitare la cosiddetta “scatola nera”, le organizzazioni devono scegliere tecnologie che permettano una tracciabilità dei processi decisionali. Fondamentale anche la #prevenzione_dei_rischi. Le linee guida invitano a effettuare valutazioni d’impatto sulla privacy e sull’equità prima dell’adozione di sistemi IA, soprattutto quando questi influenzano diritti fondamentali, come l’accesso a un lavoro o a un servizio pubblico. La valutazione non deve essere una formalità, ma uno strumento vivo di analisi, aggiornato regolarmente. Il rispetto della privacy dei dati personali resta un cardine del modello etico di Hong Kong. Le imprese devono garantire che l’uso dei dati sia limitato allo scopo per cui sono stati raccolti, applicando il principio di minimizzazione. In più, devono essere adottate misure di sicurezza avanzate per prevenire accessi non autorizzati o fughe di dati. Infine, il PCPD pone l’accento sull’ #inclusività”. I sistemi IA devono essere progettati e testati per evitare discriminazioni, tenendo conto della diversità sociale, culturale e linguistica. Ciò implica anche la partecipazione attiva dei cittadini nella definizione delle finalità e delle regole di utilizzo dell’IA. L’approccio di Hong Kong mostra come sia possibile conciliare #innovazione e tutela dei #diritti, adottando una visione dell’etica come leva di qualità, piuttosto che come ostacolo. Il nostro è un mondo in cui l’IA entra sempre più nelle nostre vite e costruire fiducia attraverso regole chiare e orientate al bene comune è un investimento per il futuro.

  • 🎯 SAVE THE DATE 📅 26 maggio 2025 📍 Regione Lombardia – Milano 🕘 Dalle 09:00 alle 18:00 1° Congresso dell’ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.® Tema: “L’Economia dell’AI: valore, infrastrutture e futuro” Una giornata per capire cosa produrrà davvero l’Intelligenza Artificiale. Porterà vera ricchezza? Cambierà i criteri con cui valutiamo il valore delle imprese, oggi sempre più basate su asset intangibili? Potrà fermare la desertificazione industriale e demografica grazie a infrastrutture pubbliche intelligenti, diffuse e resilienti? Discuteremo di: 🗣️ Interoperabilità dei dati tra sanità, scuola, impresa 🗣️ Nuovi modelli economici e di occupabilità 🗣️ Sovranità digitale e sicurezza infrastrutturale 🗣️ Globalizzazione e rilocalizzazione strategica 🗣️ Ecosistemi territoriali rigenerativi 🎙️ Ospiti e keynote speaker di Istituzioni Pubbliche e Private 🧭 6 panel tematici curati dai Dipartimenti ENIA e dai partner dell’ O.I.A. Osservatorio Italiano per l'Intelligenza Artificiale. 🏆 Concluderemo con gli AI AWARD ITALY 2025: storie di innovazione che fanno bene al Paese. 👉 Presto il programma completo. Intanto, segnate la data in agenda: il 26 maggio disegniamo insieme l’economia dell’AI, e il futuro dell’Italia. #ENIA #AIeconomy #IntelligenzaArtificiale #InnovazioneEtica #RegioneLombardia #AIforGood #SaveTheDate

    • Nessuna descrizione alternativa per questa immagine
  • Giuseppe Fischetti è un’analista aziendale. Ha lavorato dal 1986 per aziende multinazionali nel settore del food, sia in ambito produttivo che distributivo, ricoprendo incarichi dirigenziali. Dal 2004 svolge l’attività di libero professionista occupandosi di organizzazione aziendale, segreto commerciale (ex segreto industriale) valorizzazione di Know-how. E’ stato dirigente per le associazioni provinciali di Taranto di Confcommercio-Imprese per l’Italia e di Unimpresa - Unione Nazionale di Imprese. Per alcune società ha ricoperto i ruoli di presidente del CdA e Amministratore delegato. Nel 2013 ha realizzato il “Teorema di Ress”, una rivoluzionaria formula economica in grado di prevenire i fenomeni negativi della crisi d’impresa. Appena entrato in ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.® è stato propositore ed estensore di progetti di legge. "Anthropological Economics" è il titolo del suo ultimo libro. Dal 2021 è direttore generale della Centrale del Latte Puglia di Taranto e dal 2024 ricopre il ruolo di vice presidente di #Unionservizi di CONFAPI Taranto.

    • Nessuna descrizione alternativa per questa immagine
  • Laura Pagani è una ricercatrice, docente e web designer con una forte passione per l'innovazione e la tecnologia applicata alla nautica. Attualmente, è dottoranda presso l'Università degli Studi di Genova, dove si occupa di ricerca nel campo della progettazione nautica e dell'integrazione delle nuove tecnologie per la valorizzazione del patrimonio nautico. Il suo lavoro esplora l'uso dell'intelligenza artificiale, della realtà aumentata e delle interfacce digitali per migliorare l'esperienza della navigazione da diporto e supportare i progettisti nella fase di design e restauro delle imbarcazioni. Parallelamente alla ricerca accademica, è stata per diversi anni docente a contratto in Web Design presso l'Università di Genova e insegna anche nelle scuole superiori da pià di 20 anni.  Uno dei suoi progetti attuali include la realizzazione di un configuratore 3D interattivo per imbarcazioni, che consente ai clienti di personalizzare ogni dettaglio della barca in tempo reale. Inoltre, sta sviluppando un'esperienza in realtà aumentata, permettendo ai visitatori di esplorare modelli di imbarcazioni in scala reale e accedere a informazioni contestuali immersive. Appassionata di innovazione e divulgazione, è impegnata nella didattica dell'intelligenza artificiale, rendendo accessibili concetti complessi a studenti universitari e delle scuole superiori. Sempre alla ricerca di nuove soluzioni per coniugare tradizione e tecnologia, è appena entrata in ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®per continuare ad esplorare come l'AI e la realtà aumentata possano rivoluzionare il settore nautico, dalla progettazione al restauro, fino alla valorizzazione del patrimonio storico.

    • Nessuna descrizione alternativa per questa immagine
  • 2025: L’anno in cui la tecnologia diventa invisibile (e umana) Secondo il recente report “2025 Tech Trends” di Globant, il mondo sta entrando in una fase in cui la tecnologia non sarà solo più intelligente, ma anche più empatica, invisibile e umanamente riconoscibile. Cinque tendenze stanno guidando questa trasformazione. Eccole, in sintesi. 1. Il #Quantum_Computing rompe gli schemi della logica classica Dimenticate i bit: il futuro è nei qubit. La potenza del calcolo quantistico promette di rivoluzionare settori come l’aerospaziale, la medicina personalizzata e l’intelligenza artificiale. Colossi come IBM e Google stanno già dimostrando come gli algoritmi quantistici possano superare i limiti dell’elaborazione tradizionale, offrendo nuove possibilità nella simulazione, nell’ottimizzazione e nella crittografia. 2. L’#AI diventa #agente Benvenuti nell’epoca dell’Agentic AI: sistemi capaci di operare in autonomia, collaborando tra loro come farebbe un team umano. Non più risposte statiche, ma un dialogo dinamico e iterativo, capace di risolvere problemi complessi e adattarsi al contesto. Dalla gestione dei rimborsi alla progettazione software, questa AI multi-agente cambia il paradigma dell’automazione intelligente. 3. I #robot non sono più fantascienza, ma compagni di lavoro Nel 2025, i robot usciranno dalle fabbriche per entrare nei cantieri, negli ospedali, nelle città. Alimentati da AI generativa e sistemi di controllo avanzati, saranno più autonomi, agili e intelligenti. Grazie all’Internet of Robotics e a nuove piattaforme come InOrbit RobOps Copilot, potremo coordinarli su larga scala come un’orchestra tecnologica. 4. Gli #Umani_Sintetici ridefiniscono la relazione uomo-macchina Non parliamo più di avatar o chatbot, ma di Synthetic Humans: assistenti digitali capaci di espressioni facciali, memoria emotiva e linguaggio naturale. Dalla sanità all’educazione, dal marketing al customer care, queste presenze digitali promettono di migliorare l’empatia nelle interazioni e rendere la tecnologia più “umana” che mai. 5. Le #Esperienze_Invisibili sono il futuro dell’interazione Smart glasses, wearable AI, traduzioni in tempo reale, suggerimenti empatici: la tecnologia diventa invisibile, ma onnipresente. L’interazione con l’intelligenza artificiale diventa intuitiva, personalizzata e continua, grazie alla combinazione di edge computing, AI emotiva e realtà aumentata. È la fine dell’interfaccia: la tecnologia ci ascolta, ci osserva, ci comprende. Il filo conduttore? La tecnologia che si umanizza e si fonde con il quotidiano, diventando parte della nostra identità. Globant ci invita a un futuro dove il progresso non è solo una questione di potenza computazionale, ma di intelligenza relazionale, di connessione profonda tra sistemi e persone. ‼️Il 2025 non sarà l’anno in cui ci avviciniamo al futuro. Sarà l’anno in cui ci entriamo dentro‼️

  • Navigare la compliance dell’IA – Parte 2: Strategie per evitare i fallimenti del futuro Dopo aver esplorato i fallimenti storici analizzati nella prima parte del report “Navigating AI Compliance”, oggi entriamo nel vivo della seconda parte, dedicata alle strategie di mitigazione del rischio per costruire sistemi di intelligenza artificiale più sicuri, affidabili e sostenibili. Il documento, firmato da Mariami Tkeshelashvili e Tiffany Saade per l’Institute for Security and Technology (IST), presenta un quadro d’azione concreto: 39 strategie – suddivise tra tecniche e organizzative – per aiutare costruttori e utilizzatori di IA ad anticipare, evitare o limitare i fallimenti istituzionali, procedurali e prestazionali. Prevenire è meglio che correggere Uno dei messaggi centrali è che la compliance non è un ostacolo all’innovazione, ma un acceleratore. Le organizzazioni che adottano pratiche robuste in materia di trasparenza, protezione dei dati, governance e sicurezza: • riducono i rischi regolatori e legali; • conquistano fiducia da parte di utenti e investitori; • migliorano la loro reputazione sul mercato; • attraggono e trattengono talenti motivati da principi etici. In un’epoca in cui l’IA è sempre più diffusa e autonoma, i fallimenti non riguardano solo il codice: riguardano decisioni strategiche, strutture organizzative, formazione delle persone, qualità dei dati e relazioni con gli utenti. 9 raccomandazioni chiave Tra le 39 strategie, il report evidenzia 9 raccomandazioni ad alto impatto: 1. Misure di compliance proporzionate ai rischi dell’applicazione AI. 2. Gestione esplicita dei rischi accettabili, distinguendo tra fallimenti e conseguenze impreviste. 3. Protezione dei dati e privacy per rafforzare la fiducia. 4. Controlli di cybersicurezza per prevenire attacchi e garantire affidabilità. 5. Valutazioni di sicurezza e rischio lungo tutto il ciclo di vita. 6. Formazione obbligatoria per chi sviluppa e usa l’IA. 7. Meccanismi di trasparenza, come model e data cards. 8. Spiegabilità e disclosure per comprendere e controllare i comportamenti dell’IA. 9. Strategie anti-discriminazione integrate in tutte le fasi. Il report propone un approccio basato sul ciclo di vita dell’IA, offrendo indicazioni operative per ogni fase: raccolta dati, architettura, training, deployment, interazione con l’utente e manutenzione continua. È una guida preziosa per chi vuole integrare la compliance non solo per evitare multe o scandali, ma per costruire un rapporto sano e duraturo tra l’IA e la società. Il futuro dell’IA non è scritto. Ma può essere orientato. Questo secondo report non è una lista di regole, bensì una bussola per chi vuole innovare con responsabilità, costruendo sistemi che meritano la fiducia che chiedono. Scarica ora “Navigating AI Compliance – Part 2: Risk Mitigation Strategies for Safeguarding Against Future Failures”

  • Navigare nella compliance dell’IA: imparare dagli errori del passato per costruire un futuro più sicuro - PARTE 1 Nel vorticoso scenario dell’intelligenza artificiale, comprendere dove e perché i sistemi falliscono è fondamentale per sviluppare tecnologie sicure e affidabili. A questo scopo, l’Institute for Security and Technology (IST) ha pubblicato un’importante serie in due parti dedicata alla compliance dell’IA. La prima parte di questa analisi, intitolata “Navigating AI Compliance: Tracing Failure Patterns in History”, anticipando che nel prossimo post esploreremo la seconda parte dedicata alle strategie di mitigazione del rischio. Parte 1 – Tracciare i pattern di fallimento nella storia La prima parte del report è un viaggio attraverso undici casi studio di fallimenti storici in settori affini all’IA, come finanza, sanità, aviazione, energia nucleare e cybersicurezza. Tra questi troviamo i casi di Lehman Brothers, Cambridge Analytica, Theranos, Boeing 737 MAX, FTX e CrowdStrike. Ognuno di questi eventi è stato analizzato non solo per le sue dinamiche, ma soprattutto per ciò che può insegnarci sui rischi che corriamo anche oggi, con l’avvento delle tecnologie AI. Gli autori, Mariami Tkeshelashvili e Tiffany Saade, individuano tre categorie principali di fallimento: • Istituzionali: assenza di una cultura della compliance a livello dirigenziale, mancanza di politiche e supervisione interna. • Procedurali: scollamento tra regole dichiarate e processi operativi o formazione inadeguata. • Prestazionali: errori umani o malfunzionamenti tecnici che portano a conseguenze indesiderate. Nel contesto AI, questi rischi si amplificano a causa dell’opacità dei modelli (black box), della rapidità con cui vengono adottati e della difficoltà nel definire responsabilità chiare, soprattutto con l’introduzione di agenti autonomi. Oltre alle lezioni del passato, la prima parte propone una mappa utile per orientarsi nell’attuale e frammentato ecosistema normativo. Vengono individuate cinque fonti principali di governance dell’IA: 1. Leggi e regolamenti 2. Linee guida 3. Norme condivise 4. Standard tecnici 5. Policy organizzative Nel definire cosa significhi fallimento di compliance nell’ambito AI, il report adotta una definizione inclusiva: non si tratta solo di violazioni legali, ma anche del mancato allineamento a linee guida, impegni volontari o standard etici interni. Cosa aspettarsi nel prossimo capitolo Nella seconda parte del report vengono presentate 39 strategie di mitigazione del rischio per prevenire i fallimenti sopra descritti. Sarà un passaggio cruciale: dall’analisi del passato, alla costruzione di strumenti concreti per il futuro. Stay tuned. Il prossimo post sarà dedicato interamente alla Parte 2: come proteggere l’innovazione evitando gli errori già commessi.

Pagine affiliate

Pagine simili

Sfoglia le offerte di lavoro