Il "reservoir computing", ispirato al cervello umano, affronta le limitazioni energetiche delle reti neurali tradizionali. Questa tecnologia promette efficienza nei processi di calcolo, aprendo nuove opportunità in vari settori scientifici e tecnologici. Per saperne di più vi segnalo questo mio articolo. Buona lettura. https://shorturl.at/BYFkB
Post di Vincenzo Ambriola
Altri post rilevanti
-
Intel ha lanciato Hala Point, un computer neuromorfico di dimensioni record, concepito per emulare le funzionalità del cervello umano. Già lo scorso anno aziende come DeepSouth avevano annunciato supercomputer che imitano le capacità cerebrali umane. Questi permettono di superare in velocità i sistemi computazionali tradizionali. Intel ha fatto un grande passo avanti nella computazione con il lancio di Hala Point, un sistema neuromorfico che sfida i confini dell'intelligenza artificiale. Dotato di 1.152 processori Loihi 2, il computer dispone di 1.15 miliardi di neuroni artificiali e 128 miliardi di sinapsi, distribuiti attraverso 140,544 core di elaborazione. Non siamo ai livelli di PC costruiti con il DNA umano, ma le potenzialità sono tante. Questo leviatano della tecnologia riesce a eseguire 20 quadrilioni di operazioni al secondo, utilizzando un'architettura che differisce notevolmente dai supercomputer tradizionali. Mentre questi ultimi misurano la loro potenza in FLOPS, Hala Point utilizza una una scala basata su impulsi elettrici su cui si fonda il funzionamento del cervello umano. Questa similitudine con il nostro muscolo più importante non solo aumenta l'efficienza del processamento, ma riduce anche il consumo energetico, dato che la memoria e la capacità di calcolo sono integrate. Intel vede Hala Point come il precursore di futuri sistemi che potrebbero essere commercializzati, ampliando le possibilità per modelli di linguaggio avanzati e apprendimento continuo. Questo avamposto tecnologico prefigura un nuovo paradigma nella ricerca AI, ma anche un futuro in cui i computer apprenderanno e opereranno in modo più umano, efficiente ed ecologico. Vale la pena ricordare che gli esperimenti su architetture informatiche basate sul cervello umano sono in atto da anni anche da parte di aziende come IBM.
Per visualizzare o aggiungere un commento, accedi
-
Alcuni ricercatori stanno sviluppando un nuovo approccio per rendere le reti neurali più efficienti, integrandole direttamente nell'hardware dei chip. Questo metodo potrebbe ridurre drasticamente il consumo energetico e migliorare la velocità dei sistemi di visione artificiale. #IntelligenzaArtificiale #Tecnologia #Innovazione #EfficienzaEnergetica #VisioneArtificiale #Sostenibilità #AI #RetiNeurali #Ricerca #FuturoTecnologico https://lnkd.in/djQFma4m
Per visualizzare o aggiungere un commento, accedi
-
I recenti progressi dell'IA nella simulazione di sistemi quantistici potrebbero ridurre la necessità di computer quantistici, con implicazioni significative per la scienza e la tecnologia. L'IA sta già offrendo soluzioni promettenti in fisica, chimica e scienza dei materiali. #IntelligenzaArtificiale #ComputerQuantistici #Tecnologia #Scienza #Innovazione #Fisica #Chimica #Ricerca #AI #Simulazione https://lnkd.in/dH6ri36t
Per visualizzare o aggiungere un commento, accedi
-
La natura può essere fonte di grande ispirazione per la scienza. Come nel caso del cervello umano che può essere un modello per il trasporto dell’energia nei futuri computer. Lo racconto in questa storia per Fondazione Leonardo #computer #science #ricerca #enery
Per visualizzare o aggiungere un commento, accedi
-
Nell'informatica neuromorfica i sistemi chiamati, appunto, "neuromorfici” imitano il sistema nervoso umano. Questa ingegneria cerca di simulare ed imitare la struttura dei sistemi nervosi di rilevamento biologico e di elaborazione delle informazioni. Il calcolo neuromorfico implementa aspetti delle reti neurali biologiche come copie analogiche o digitali su circuiti elettronici
Per visualizzare o aggiungere un commento, accedi
-
Una descrizione delle reti neurali alla portata di tutti. https://lnkd.in/dpBGxUr3
Per visualizzare o aggiungere un commento, accedi
-
𝑪𝒐𝒎𝒑𝒖𝒕𝒆𝒓 𝒒𝒖𝒂𝒏𝒕𝒊𝒔𝒕𝒊𝒄𝒊 𝒔𝒑𝒊𝒆𝒈𝒂𝒕𝒊 𝒔𝒆𝒎𝒑𝒍𝒊𝒄𝒆 Immagina che un computer classico sia come una macchina da scrivere molto rapida, che elabora le informazioni in formato binario (0 e 1). Ogni "0" o "1" è chiamato bit, e i computer classici fanno i loro calcoli manipolando questi bit. Un computer quantistico, invece, usa i principi della meccanica quantistica, una branca della fisica che studia il comportamento delle particelle su scala molto piccola. Invece dei bit, i computer quantistici usano i "qubit". Cosa sono i Qubit? I qubit sono come i bit, ma con un tocco di magia quantistica. Un qubit può essere nello stato 0, nello stato 1 oppure in una sovrapposizione di entrambi gli stati allo stesso tempo. Sovrapposizione La sovrapposizione è la capacità di essere in più stati contemporaneamente. Ad esempio, un qubit può essere una combinazione di 0 e 1 finché non viene misurato. Una volta misurato, "collassa" in uno dei due stati con una certa probabilità. Entanglement L'entanglement è un effetto quantistico che collega due o più qubit in modo che il loro stato sia interdipendente, indipendentemente dalla distanza tra loro. Se due qubit sono entangled, lo stato di uno influisce istantaneamente lo stato dell'altro. Velocità e Parallelismo Grazie alle proprietà di sovrapposizione e entanglement, i computer quantistici possono eseguire molte operazioni in parallelo, affrontando problemi complessi molto più rapidamente di quanto possano fare i computer classici. 𝐂𝐨n𝐭𝐢n𝐮𝐚 : 👇👇👇 https://lnkd.in/dmYSkVE6 #computerquantici #computerquantistici #umanesimodigitale #competenzetrasversali #intelligenzaartificiale #apprendimentocontinuo #lifelonglearning #machinelearning #deeplearning #competenzedigitali #intelligenzacollettiva #infosfera #francobagaglia #consapevolezza
Per visualizzare o aggiungere un commento, accedi
-
-
Questa tipologia di #AI sarà la svolta, che aprirà scenari ancora più incredibili. Fino ad oggi non ho mai visto la possibilità che un AI potesse prendere coscienza, essendo solo un insieme di materiale inorganico e settato interamente da noi, ma con questa tecnologia, invece, questo aspetto lo vedo possibile, dal momento che verranno utilizzati neuroni umani. Tutto questo mi affascina e non vedo l’ora di vedere gli sviluppi e le incredibili potenzialità che si potranno avere con questa tencologia. Mi piace fantasticare pensando che avremo computer con potenze inegualiabili e robot umanoidi con capacità ed intelligenza superiori a noi esseri umani.
Tiktok: 14.4 MLN followers | YouTube: 5.3 MLN followers | Instagram: 1 MLN followers | Founder of Pix Vision Srl | Founder of Pix Vision USA LCC | Creating innovative marketing production for Social Media
Cosa succederebbe se le capacità dei nostri neuroni si unissero a quelle dell’intelligenza artificiale? É proprio quello che sta succedendo con “Brainoware” un #biocomputer che fonde neuroscienze e computer science per raggiungere una potenza ancora più alta e mai vista prima. Il #Brainoware si distingue dall'#intelligenzaartificiale tradizionale perché incorpora elementi del cervello umano. L'idea è di utilizzare neuroni, che agiscono sia come unità di memoria che come processori, e integrarli con un hardware elettronico in grado di gestire input e output in modo efficiente. Considerate che il cervello umano è composto da circa 86 miliardi di neuroni, collegati da circa un biliardo di sinapsi, formando una rete estremamente complessa e potente. Anche una piccola porzione di questo tessuto cerebrale potrebbe offrire una potenza di calcolo eccezionale per un computer. Questa evoluzione tecnologica potrà avere grandi risvolti per la medicina ad esempio e in tantissimi altri campi sicuramente. Ma se un biocomputer può utilizzare neuroni umani, potrebbe sviluppare una coscienza e un pensiero autonomo? E quali sarebbero le implicazioni di tale progresso? Sono curioso di sentire la vostra opinione a riguardo!
Per visualizzare o aggiungere un commento, accedi
-
-
𝐃𝐚𝐥 𝐜𝐞𝐫𝐯𝐞𝐥𝐥𝐨 𝐮𝐦𝐚𝐧𝐨 𝐚𝐠𝐥𝐢 𝐋𝐋𝐌: 𝐥'𝐀𝐈 𝐩𝐨𝐫𝐭𝐚𝐭𝐢𝐥𝐞, 𝐞𝐟𝐟𝐢𝐜𝐢𝐞𝐧𝐭𝐞 𝐞 𝐬𝐨𝐬𝐭𝐞𝐧𝐢𝐛𝐢𝐥𝐞 Il cervello umano rappresenta un capolavoro di efficienza computazionale. Nonostante i suoi 86 miliardi di neuroni e la sua complessa attività elettrica, consuma solo circa 20 watt, meno di una lampadina a LED. Questo risultato straordinario è dovuto a diversi fattori, tra cui l'architettura altamente ottimizzata, gerarchica e modulare; la sua capacità di sfruttare in modo efficiente i segnali analogici; la possibilità di creare e rafforzare le connessioni tra i neuroni in modo efficiente, ottimizzando il consumo energetico per le attività più frequenti; la gestione delle attività, che permette di attivare alcune aree solo quando necessario. In confronto, gli attuali modelli gli LLM consumano una quantità di energia decisamente maggiore, pur esibendo capacità inferiori (https://lnkd.in/df7MM4j9). Un singolo LLM può consumare migliaia di Watt in inferenza e migliaia di Megawatt-ora durante l'addestramento, con un impatto ambientale significativo. Questo divario energetico evidenzia la necessità di sviluppare modelli più efficienti, in grado di replicare le straordinarie capacità computazionali del cervello umano con un consumo energetico drasticamente inferiore. Alcune pubblicazioni recenti esplorano di reti neurali alternative, con l'ambizione di colmare questo gap. Questi approcci prevedono un addestramento da zero delle reti; non si tratta quindi di una semplice quantizzazione a posteriori: 𝐁𝐢𝐭𝐍𝐞𝐭 𝐞 𝐁𝐢𝐭𝐍𝐞𝐭 𝐛𝟏.𝟓𝟖 ( https://lnkd.in/dEkrz2w2 e https://lnkd.in/dwSeS8yb) BitNet utilizza pesi binari per le connessioni neurali e funzioni di attivazione discretizzate; inoltre, sostituendo le moltiplicazioni matriciali (MatMul) con operazioni più frugali (BitLinear), riducono drasticamente memoria e consumo energetico. Nonostante la semplicità, mantengono un'alta precisione, sfidando gli LLM FP16. BitNet b1.58 introduce pesi ternari {-1;0;+1} per una modellazione migliore e prestazioni ancora più elevate. 𝐑𝐞𝐭𝐢 𝐌𝐚𝐭𝐌𝐮𝐥-𝐟𝐫𝐞𝐞 (https://lnkd.in/d3xJFtHA) Queste reti rimpiazzano completamente le operazioni di moltiplicazione matriciale (MatMul) utilizzando operazioni alternative come il prodotto di Hadamard, raggiungendo prestazioni elevate con un consumo energetico minimo (13 Watt su hardware dedicato per reti di modeste dimensioni). La ricerca in questo campo è di fondamentale importanza per diverse ragioni. Innanzitutto, ridurre il consumo energetico degli LLM è fondamentale per renderli più accessibili e utilizzabili in contesti con risorse energetiche limitate. Pensiamo ai mobile devices, agli smartglasses, agli smartwatches o ai robot: in futuro potremo avere degli assistenti AI a portata di mano. Infine, un minor consumo energetico contribuisce a un ecosistema di intelligenza artificiale più sostenibile, in linea con gli obiettivi globali di riduzione delle emissioni di gas serra.
Per visualizzare o aggiungere un commento, accedi
-
-
Cosa succederebbe se le capacità dei nostri neuroni si unissero a quelle dell’intelligenza artificiale? É proprio quello che sta succedendo con “Brainoware” un #biocomputer che fonde neuroscienze e computer science per raggiungere una potenza ancora più alta e mai vista prima. Il #Brainoware si distingue dall'#intelligenzaartificiale tradizionale perché incorpora elementi del cervello umano. L'idea è di utilizzare neuroni, che agiscono sia come unità di memoria che come processori, e integrarli con un hardware elettronico in grado di gestire input e output in modo efficiente. Considerate che il cervello umano è composto da circa 86 miliardi di neuroni, collegati da circa un biliardo di sinapsi, formando una rete estremamente complessa e potente. Anche una piccola porzione di questo tessuto cerebrale potrebbe offrire una potenza di calcolo eccezionale per un computer. Questa evoluzione tecnologica potrà avere grandi risvolti per la medicina ad esempio e in tantissimi altri campi sicuramente. Ma se un biocomputer può utilizzare neuroni umani, potrebbe sviluppare una coscienza e un pensiero autonomo? E quali sarebbero le implicazioni di tale progresso? Sono curioso di sentire la vostra opinione a riguardo!
Per visualizzare o aggiungere un commento, accedi
-
Docente di Informatica nella formazione professionale: Sicurezza Informatica, Programmazione, Intelligenza Artificiale
1 meseCi sono già librerie di Python che utilizzano questo approccio?