Moltiplicazione tra matrici... https://lnkd.in/dJHNWgU5
Unlearn e relearn
Vai al contenuto principale
Moltiplicazione tra matrici... https://lnkd.in/dJHNWgU5
Ingegnere - Learning Designer - Consulente Strategico - Progettista di Kitto - TEDx Speaker - Lifelong Kindergartener - Agile Brewmaster - Smanettone
8 mesiUnlearn e relearn
Per visualizzare o aggiungere un commento, accedi
𝗠𝗮 𝘃𝗶𝘃𝗶𝗮𝗺𝗼 𝗱𝗮𝘃𝘃𝗲𝗿𝗼 𝗶𝗻 𝘂𝗻𝗮 𝘀𝗶𝗺𝘂𝗹𝗮𝘇𝗶𝗼𝗻𝗲? Visto che il mio peggior difetto è la curiosità, ti tocca leggere anche di queste cose che mi affascinano da matti, pur capendone solo un decimo! (E vediamo anche come reagisce il buon Al Goritmo). La teoria dell’informazione è un campo della matematica che si occupa di quantificare, comprimere, immagazzinare e trasmettere informazioni. Melvin Vopson (Università di Portsmouth) ha suggerito che l’informazione potrebbe essere il quinto stato della materia, accanto a solidi, liquidi, gas e plasma. Andando oltre, Vopson ha introdotto la seconda legge dell’infodinamica, che fa il verso alla formulazione fisica della seconda legge della termodinamica. - La seconda legge della termodinamica sostiene che “In un sistema isolato l'entropia è una funzione non decrescente nel tempo” - La seconda legge dell’infodinamica, al contrario, sostiene che “L’entropia, nei sistemi informativi o rimane costante, o diminuisce nel tempo” Vopson ha osservato che le mutazioni genetiche avvengono in modo tale che la loro entropia informativa si riduce nel tempo in un processo di semplificazione costante osservabile, ad esempio, nella simmetria in natura che permette di minimizzare e ottimizzare le informazioni. (Chissà Darwin che ne direbbe) E non si è fermato qui, ha fatto altre osservazioni che sembrano confermare questa legge, in svariati campi diversi (informazione digitale, cosmologia, fisica atomica, ...) Da qui la conclusione che questa nuova seconda legge potrebbe essere la conseguenza del fatto che viviamo in una simulazione. “Un universo super complesso come il nostro, se fosse una simulazione, richiederebbe un meccanismo integrato di ottimizzazione e compressione dei dati per ridurre la potenza computazionale e i requisiti di archiviazione dei dati. Questo è esattamente ciò che stiamo osservando attraverso prove empiriche intorno a noi, inclusi dati digitali, sistemi biologici, sistemi atomistici, simmetrie e l’intero universo.” Melvin M. Vopson; The second law of infodynamics and its implications for the simulated universe hypothesis. *AIP Advances* 1 October 2023; 13 (10): 105308. Così, de botto: avevano davvero ragione Lilly (Andy) e Lana (Larry) Wachowski? P.s.: comunque la seconda legge dell'infodinamica non si applica - alle cartelle del mio pc - alle mie pagine di Notion - al mio PED qui su LinkedIn
Per visualizzare o aggiungere un commento, accedi
Una pubblicazione che raccoglie contributi di grande interesse sul tema dell'intelligenza artificiale nel diritto.
È stato appena pubblicato il nuovo numero della rivista intitolato "Intelligenza artificiale e scienze neuro-cognitive nel diritto: dalla simbiosi alla sostituzione," a cura di Maria Novella Campagnoli e Piero Marra. I contributi sono disponibili in formato PDF al seguente indirizzo web: https://lnkd.in/dg29agR2
Per visualizzare o aggiungere un commento, accedi
Si cerca ancora di affrontare #riduzionisticamente il tema della #Complessità. Misurare la complessità in sistemi multidimensionali con elevati gradi di libertà e una varietà di tipi di informazioni rimane una sfida importante. La complessità di un sistema è legata al numero e alla varietà dei componenti, al numero e al tipo di interazioni tra loro, al grado di ridondanza e ai gradi di libertà del sistema. Gli esempi mostrano che diverse discipline scientifiche convergono in misure di complessità per problemi a bassa e alta dimensione. Per i sistemi a bassa dimensionalità, come stringhe codificate di simboli (testo, codice informatico, DNA, RNA, proteine, musica), l'entropia informativa di Shannon (quantità attesa di informazioni in un evento ricavata da una data distribuzione) e la complessità algoritmica di Kolmogorov (la lunghezza dell'algoritmo più breve che produce l'oggetto come output), vengono utilizzati per misurazioni quantitative della complessità. Per i sistemi con più dimensioni (ecosistemi, cervelli, gruppi sociali), la scienza delle reti fornisce strumenti migliori a tale scopo. Per sistemi complessi altamente multidimensionali, nessuno dei metodi precedenti è utile. Le informazioni utili Φ, come proposto da Infodynamics, possono essere correlate alla complessità.
Per visualizzare o aggiungere un commento, accedi
Il 28 gennaio, Festa di San Tommaso D’Aquino, I dicasteri vaticani per la Dottrina della Fede e quello della Cultura e l’Educazione hanno pubblicato la “Nota sul rapporto tra intelligenza artificiale e intelligenza umana” dal titolo “Antiqua et Nova”, che potremmo tradurre in “le cose antiche e nuove”, e che si riferisce a Mt 13,52: “[…] Per questo ogni scriba divenuto discepolo del regno dei cieli è simile a un padrone di casa che estrae dal suo tesoro cose nuove e cose antiche". E in effetti questa Nota è davvero un tesoro: un documento interessante, profondo, e davvero coinvolgente, perché analizza la relazione esistente tra l’intelligenza artificiale e quella umana, valorizzando in modo puntuale le caratteristiche proprio del pensiero dell'uomo. Così, il capitolo terzo della Nota contiene una lunga riflessione su cosa caratterizza l’intelligenza umana dal punto di vista della traduzione filosofica e teologica, mettendo in evidenza aspetti come la relazionalità, l’apertura verso la Verità e la corporeità. E’ solo dopo questa premessa che il documento comincia a considerare il ruolo dell’etica nello sviluppo e nell’uso dell’IA, e quindi le questioni specifiche, come il rapporto dell’IA con la società, con il lavoro, con la sanità, passando per il problema dei bias o del consumo energetico. Tornerò ancora su questa Nota, che è davvero ricca di spunti di riflessione per chi si occupa di intelligenza artificiale, sia esso credente o meno. Una prima osservazione è che, curiosamente, l’intero documento parla sempre di intelligenza artificiale al singolare, mentre Papa Francesco da tempo ha scelto di parlare di intelligenze artificiale, sottolineando le diverse tecnologie esistenti (Si veda ad esempio il Messaggio per la LVIII Giornata Mondiale delle Comunicazioni Sociali o il discorso tenuto al G7). Poi vorrei togliermi un sassolino dalla scarpa. Ad un incontro di esperti sull’IA dell’Università Cattolica avevo proposto come tema di riflessione le implicazioni antropologiche di un eventuale avvento dell’AGI. Con ciò non intendevo dire che sia realizzabile un’intelligenza artificiale generale, ma che la sua tematizzazione andava affrontata. Mi fu risposto che si trattava di temi sciocchi, che non meritavano un approfondimento. Beh, il Documento vaticano non ha invece paura ad usare il termine AGI, definito come “una forma ipotetica di IA che potrebbe raggiungere o superare l’intelligenza umana in grado di portare a progressi al di là di ogni immaginazione”. La Nota non entra nel merito tecnico di questa ipotesi, ma la usa per affermare la sua linea di riflessione antropologica, secondo la quale queste nuove tecnologie inducono “l’umanità a interrogarsi circa la propria identità”. In altre parole: anche di quel tema, per quanto ipotetico, vale la pena parlare, e questo perché davvero l’IA apre a nuove visioni del mondo. Ma su queste riflessioni tornerò ancora. https://shorturl.at/zqISl #intelligenzaartificiale #Vaticano #AntiquaetNova #PapaFrancesco
Per visualizzare o aggiungere un commento, accedi
L’informatica è caratterizzata da una storia molto particolare. I primi informatici infatti erano logici matematici. Ed i primi veri risultati che questi logici matematici hanno ottenuto sono stati risultati negativi. Risultati di impossibilità. Il contesto di riferimento è la crisi dei fondamenti della matematica del ventesimo secolo. Dopo la scoperta di alcuni paradossi in una nuova teoria, la teoria degli insiemi, alcuni matematici, tra cui si ricorda in particolare David Hilbert, volevano ricostruire le fondamenta della matematica partendo dall’aritmetica ed utilizzando il linguaggio formale della logica. L’obiettivo finale era la costruzione di un sistema formale in grado di catturare tutte le verità matematiche. Tutto questo può sembrare astratto e distante, ma oramai, con l’avvento dell’informatica, è possibile interpretare tutto ciò utilizzando il linguaggio del digitale. Quello che volevano fare questi matematici era costruire un particolare linguaggio di programmazione, tramite il quale ad ogni verità matematica sarebbe corrisposto almeno un programma che andava a dimostrare quella particolare verità. Così facendo il concetto di verità matematica sarebbe stato completamente catturato dal formalismo. I risultati negativi a cui facevo riferimento vanno a dimostrare che non è possibile ottenere questo risultato nel modo più generale possibile. Ovvero che il concetto di verità matematica non può essere completamente catturato dal formalismo della logica per come la conosciamo. Sono tre i risultati di interesse: - Primo Teorema di Incompletezza - Secondo Teorema di Incompletezza - Problema della Decisione I primi due furono scoperti e dimostrati da Kurt Gödel, alla giovane età di 24 anni. Il terzo invece fu dimostrato da Alan Turing, sempre alla giovane età di 24 anni. Tutti e tre questi risultati possono essere visti da due punti di vista diversi: - logico-matematico - informatico Turing, avendo capito questo, nel suo articolo del 1936 “On Computable Numbers with an Application to the ENTSCHEIDUNGSPROBLEM”, non parla di logica matematica, ma parla di macchine che calcolano. Il calcolo era ancora ristretto al dominio della matematica, ma storicamente rappresenta un passo importante per la formazione dell’informatica per come la conosciamo. Mentre capita di sentire riferimenti alla Macchina di Turing, sono molte meno le risorse disponibili per capirci qualcosa sui Teoremi di Incompletezza di Kurt Gödel. Nel seguente video porto qualche riflessione in merito, più un rimando a futuri video in cui esplorare ancora di più questi risultati.
Per visualizzare o aggiungere un commento, accedi
Il teorema della non clonazione rappresenta un limite per gli algoritmi di correzione degli errori quantistici. Non potendo copiare direttamente gli stati quantistici, dobbiamo sviluppare strategie alternative per proteggere l'informazione quantistica. Questo tema mi appassiona particolarmente e sto lavorando per integrare queste idee nel simulatore quantistico open source, QuantumSim: https://lnkd.in/eXeEBsT7
Per visualizzare o aggiungere un commento, accedi
In questo mio saggio pubblicato su "Studi Cattolici" di ottobre, approfondisco il tema complesso e scivoloso del rapporto tra diritto, etica e libertà di mercato nell'ambito dello sviluppo dell'Intelligenza Artificiale, formulando alcune proposte metodologiche e pratiche.
Per visualizzare o aggiungere un commento, accedi
L'articolo "Optimal Control of McKean-Vlasov equations with controlled stochasticity", firmato dal Prof. Luca Di Persio (Dip. Computer Science - Università degli Studi di Verona ) e dal Dr. Peter Kuchling (HSBI-Università di Bielefeld), presenta soluzioni ottimali per sistemi di tipo McKean-Vlasov governati da equazioni differenziali stocastiche a stocasticità controllata, utilizzando un approccio Fokker-Planck per trasformare il problema stocastico in uno deterministico, risolvibile utilizzando un controllo open-loop. L'approccio permette di non basarsi sul classico metodo Hamilton-Jacobi-Bellman, così escludendo soluzioni non differenziabili (di tipo viscoso) che renderebbero complessa l'associata fase di programmazione dinamica, in favore di una formulazione Kolmogorov-forward per ottenere uno schema di controllo deterministico. In tale scenario si dimostra l'esistenza e unicità di un controllore ottimale che minimizza il funzionale di costo associato. I risultati nell'articolo possono essere applicati in molteplici settori: dalla finanza all'energy, dalla logistica alla gestione ambientale. In finanza permettono la gestione del rischio collettivo e la derivazione di strategie di tipo stochastic hedging, in mercati interconnessi laddove il comportamento degli investitori dipende tanto dalle decisioni dei singoli, quanto dalla loro distribuzione statistica. Nelle smart grid consentono il controllo ottimale dei flussi energetici per ridurre le perdite e stabilizzare la rete in modo efficiente, tenendo conto della dinamica collettiva dei consumatori e dell'incertezza intrinseca nei consumi e nella produzione di energia. Nel trasporto merci, in scenari complessi soggetti alle decisioni degli operatori e alla distribuzione dinamica dei movimenti dei mezzi, permettono di ottimizzare la gestione della flotta minimizzando i costi operativi e riducendo le emissioni di CO2. In modo analogo, un modello McKean-Vlasov based può essere utilizzato per descrivere l'accumulo e il flusso di rifiuti in parti diverse della città, gestendo l’interazione tra la domanda di raccolta e la distribuzione delle risorse così da ottimizzare dinamicamente la determinazione dei percorsi di raccolta implementando un sistema di controllo stocastico adattivo che ottimizza le decisioni in tempo reale. L’articolo, pubblicato sulla rivista Evolution Equations and Control Theory (EECT) edita dall’American Institute of Mathematical Sciences, è disponibile gratuitamente per il download: https://lnkd.in/demd37uu #MathToInnovate #AI #ArtificialIntelligence #DataScience
Per visualizzare o aggiungere un commento, accedi
Ricerca continua e qualità scientifica sono elementi che hanno sempre contraddistinto il lavoro di HPA. Grazie a modelli matematici avanzati, trasformiamo problemi stocastici complessi in sistemi di controllo ottimali, applicabili in diversi settori: dalla #finanza all'#energy, dalla #logistica, alla #gestioneambientale. Collaborare con il mondo accademico ci consente di offrire soluzioni al contempo innovative e concrete per le esigenze delle aziende. #MathToInnovate
L'articolo "Optimal Control of McKean-Vlasov equations with controlled stochasticity", firmato dal Prof. Luca Di Persio (Dip. Computer Science - Università degli Studi di Verona ) e dal Dr. Peter Kuchling (HSBI-Università di Bielefeld), presenta soluzioni ottimali per sistemi di tipo McKean-Vlasov governati da equazioni differenziali stocastiche a stocasticità controllata, utilizzando un approccio Fokker-Planck per trasformare il problema stocastico in uno deterministico, risolvibile utilizzando un controllo open-loop. L'approccio permette di non basarsi sul classico metodo Hamilton-Jacobi-Bellman, così escludendo soluzioni non differenziabili (di tipo viscoso) che renderebbero complessa l'associata fase di programmazione dinamica, in favore di una formulazione Kolmogorov-forward per ottenere uno schema di controllo deterministico. In tale scenario si dimostra l'esistenza e unicità di un controllore ottimale che minimizza il funzionale di costo associato. I risultati nell'articolo possono essere applicati in molteplici settori: dalla finanza all'energy, dalla logistica alla gestione ambientale. In finanza permettono la gestione del rischio collettivo e la derivazione di strategie di tipo stochastic hedging, in mercati interconnessi laddove il comportamento degli investitori dipende tanto dalle decisioni dei singoli, quanto dalla loro distribuzione statistica. Nelle smart grid consentono il controllo ottimale dei flussi energetici per ridurre le perdite e stabilizzare la rete in modo efficiente, tenendo conto della dinamica collettiva dei consumatori e dell'incertezza intrinseca nei consumi e nella produzione di energia. Nel trasporto merci, in scenari complessi soggetti alle decisioni degli operatori e alla distribuzione dinamica dei movimenti dei mezzi, permettono di ottimizzare la gestione della flotta minimizzando i costi operativi e riducendo le emissioni di CO2. In modo analogo, un modello McKean-Vlasov based può essere utilizzato per descrivere l'accumulo e il flusso di rifiuti in parti diverse della città, gestendo l’interazione tra la domanda di raccolta e la distribuzione delle risorse così da ottimizzare dinamicamente la determinazione dei percorsi di raccolta implementando un sistema di controllo stocastico adattivo che ottimizza le decisioni in tempo reale. L’articolo, pubblicato sulla rivista Evolution Equations and Control Theory (EECT) edita dall’American Institute of Mathematical Sciences, è disponibile gratuitamente per il download: https://lnkd.in/demd37uu #MathToInnovate #AI #ArtificialIntelligence #DataScience
Per visualizzare o aggiungere un commento, accedi
Come funzionano le #retiNeuraliConvoluzionali? Le #CNN sono composte da uno o più strati convoluzionali che possono essere seguiti da strati di pooling, e sono progettati per processare e trasformare i dati di input in modo gerarchico, catturando caratteristiche da livello base a livello più complesso. All'interno di una CNN, infatti, sono presenti diversi tipi di strati, ognuno con un ruolo specifico nell’elaborazione dell’input. Ecco come funziona: https://hubs.ly/Q02SW0QG0
Per visualizzare o aggiungere un commento, accedi
Crea il tuo account gratuito o accedi per continuare la ricerca
Cliccando su “Continua” per iscriverti o accedere, accetti il Contratto di licenza, l’Informativa sulla privacy e l’Informativa sui cookie di LinkedIn.
Nuovo utente di LinkedIn? Iscriviti ora
oppure
Nuovo utente di LinkedIn? Iscriviti ora
Cliccando su “Continua” per iscriverti o accedere, accetti il Contratto di licenza, l’Informativa sulla privacy e l’Informativa sui cookie di LinkedIn.
Digital Innovation Manager presso Breton S.p.A.
8 mesiIn informatica, quando cerchi di risolvere un problema di moltiplicazione di matrici, ti rendi conto che il vero problema è che le matrici sembrano moltiplicarsi come problemi! 🤣