🧠 Può l’Intelligenza Artificiale aiutarci a combattere la violenza di genere? È la sfida al centro di 𝗩𝗶𝗗𝗲𝗦 – 𝗩𝗜𝗼𝗹𝗲𝗻𝗰𝗲 𝗗𝗘𝘁𝗲𝗰𝘁𝗶𝗼𝗻 𝗦𝘆𝘀𝘁𝗲𝗺, il progetto finanziato da Fondazione CRT che attraverso l’IA analizza i referti clinici del Pronto Soccorso per identificare precocemente casi sospetti. 🤝 Unendo le competenze di un team interdisciplinare composto da esperti in epidemiologia, informatica, psicologia e medicina dell'Azienda Ospedaliera Mauriziano di Torino e del Dipartimento di Informatica - Università degli Studi di Torino, il progetto ha dato vita a uno strumento concreto che ci aiuta a prevenire i casi di femminicidio, leggendo e interpretando dati che altrimenti resterebbero inutilizzabili. 📑 Oggi, grazie all'addestramento dell'IA su una mole di 500.000 record provenienti dal Pronto Soccorso, #ViDeS permette di distinguere tra casi di possibili lesioni violente e non. Come? Ce lo spiega Daniele Paolo Radicioni, ricercatore del Dipartimento di Informatica dell'Università degli Studi di Torino. #FondazioneCRT #ViDeS #IntelligenzaArtificiale #stopviolence
Post di Fondazione CRT
Altri post rilevanti
-
In #Cina molte persone vogliono utilizzare l’IA per conservare, animare e interagire con i propri cari defunti durante il #lutto. Malgrado sia ormai stato sdoganato l’uso dei #deepfake dei defunti, ci sono interrogativi sull’effettiva sanità psicologica di interagire con repliche #IA delle persone morte e non è chiaro quali siano le #implicazioni legali ed etiche di questa #tecnologia. 📌 Qui per saperne di più! https://lnkd.in/gbEDdmDu
Per visualizzare o aggiungere un commento, accedi
-
-
INTELLIGENZA ARTIFICIALE NELLA PREVENZIONE DEI SUICIDI NELLE FORZE DI POLIZIA Il supporto delle nuove tecnologie nel sistema ISSA di approccio innovativo sistemico al suicidio Abstract: attraverso l'intelligenza artificiale, con un processo di design thinking, e la creazione di sistemi sociali di sostegno messi in rete si potrebbe ridurre la complessità del problema del fenomeno suicidiario e abbassare il rischio di casi di autolesionismo estremo. L’obiettivo di questo articolo, dunque, è quello di approfondire le cause e analizzare gli indicatori delle condotte comportamentali a rischio di suicidio e di altre forme autolesionistiche, includendo una riflessione sui familiari delle vittime con uno sguardo verso le possibili misure di prevenzione innovative attualmente in uso. Sono stati messi a punto dei modelli di intervento integrati che hanno incluso i dati provenienti dalle neuroscienze e dall’intelligenza artificiale. Il modello denominato ISSA “Innovative sistemic suicide approach”, si propone come un metodo integrativo che aiuta le forze armate a identificare, analizzare e a monitorare le condotte a rischio, aiutando così i soggetti a potenziare l’empowerment interno e a superare le crisi con metodi innovativi basati sulla resilienza. Il tutto viene sostenuto dalle nuove tecnologie e dai sistemi di rete sviluppati appositamente, così come anche l’integrazione di proposte formative personalizzate, utili al fine di prevenire il disagio delle persone sofferenti e delle loro famiglie. Di Lolita Guliman e Sara Sterpi Keywords: #suicidio #suicidiforzedellordine #suicidipolizia #suicidiforzearmate #suicididivise #prevenzione #famiglia #intelligenzaartificiale #AI #psicologia #lolitaguliman #sarasterpi #ethicasocietasupli #ethicasocietasrivista #ethicasocietas #ethicasocietasrivista #rivistascientifica #scienzeumane #scienzesociali #upli #unionepolizialocaleitaliana https://lnkd.in/dkCz8M5u
Per visualizzare o aggiungere un commento, accedi
-
INTELLIGENZA ARTIFICIALE NELLA PREVENZIONE DEI SUICIDI NELLE FORZE DI POLIZIA, Lolita Guliman e Sara Sterpi Il supporto delle nuove tecnologie nel sistema ISSA di approccio innovativo sistemico al suicidio Abstract: attraverso l'intelligenza artificiale, con un processo di design thinking, e la creazione di sistemi sociali di sostegno messi in rete si potrebbe ridurre la complessità del problema del fenomeno suicidiario e abbassare il rischio di casi di autolesionismo estremo. L’obiettivo di questo articolo, dunque, è quello di approfondire le cause e analizzare gli indicatori delle condotte comportamentali a rischio di suicidio e di altre forme autolesionistiche, includendo una riflessione sui familiari delle vittime con uno sguardo verso le possibili misure di prevenzione innovative attualmente in uso. Sono stati messi a punto dei modelli di intervento integrati che hanno incluso i dati provenienti dalle neuroscienze e dall’intelligenza artificiale. Il modello denominato ISSA “Innovative sistemic suicide approach”, si propone come un metodo integrativo che aiuta le forze armate a identificare, analizzare e a monitorare le condotte a rischio, aiutando così i soggetti a potenziare l’empowerment interno e a superare le crisi con metodi innovativi basati sulla resilienza. Il tutto viene sostenuto dalle nuove tecnologie e dai sistemi di rete sviluppati appositamente, così come anche l’integrazione di proposte formative personalizzate, utili al fine di prevenire il disagio delle persone sofferenti e delle loro famiglie. Keywords: #suicidio #suicidiforzedellordine #suicidipolizia #suicidiforzearmate #suicididivise #prevenzione #famiglia #issa #intelligenzaartificiale #AI #psicologia #lolitaguliman #sarasterpi #ethicasocietasupli #ethicasocietasrivista #ethicasocietas #ethicasocietasrivista #rivistascientifica #scienzeumane #scienzesociali https://lnkd.in/difQ83dj
Per visualizzare o aggiungere un commento, accedi
-
Ti presentiamo Cognify: un concetto di prigione futuristico (e spaventoso)! Immagina un mondo in cui i criminali sono trattati come pazienti, dove le loro condanne potrebbero essere completate in pochi minuti anziché in anni, impiantando ricordi generati dall'intelligenza artificiale direttamente nel cervello dei prigionieri. Questo esperimento mentale, creato da Hashem Al-Ghaili, propone un cambiamento radicale nella riabilitazione criminale. Queste esperienze personalizzate, basate sul crimine, potrebbero mettere i detenuti nei panni della vittima o mostrare loro le conseguenze a lungo termine delle loro azioni. L'obiettivo? Innescare empatia, rimorso e una completa comprensione del danno causato. Sembra assurdo, vero? Lo è sicuramente. Implantare ricordi? L'IA non dovrebbe essere utilizzata per traumatizzare o torturare le persone!! Questo è molto probabilmente solo un concetto strabiliante (si spera!). Ma solleva ancora interrogativi sul futuro della giustizia penale e sul potere dell'intelligenza artificiale. Cosa ne pensi?
Per visualizzare o aggiungere un commento, accedi
-
L'uso dell'IA per prevedere il rischio di suicidio solleva importanti questioni etiche, tra cui la gestione dei dati e il consenso informato. #IntelligenzaArtificiale #PrevenzioneSuicidio #Etica #SaluteMentale #AI #Tecnologia #ConsensoInformato #Privacy #BigData https://lnkd.in/dE7_C5fu
Per visualizzare o aggiungere un commento, accedi
-
Il nostro talk a #SANS #DFIREurope24 #vermanent il tool che permette di sviluppare indagini forensi in tempi compatibili con le indagin informatiche su messaggi vocali e in genere su audio con nuovi paradirmi rispetto alla rircerca per stringhe. Il numero di messaggi vocali presenti nei nostri cellulari è enorme ed in continua crescita, non è pensabile di approcciare le indagini su questi messaggi con gli strumenti tradizinali. Vermanent è i risultato di una idea di Alessandro Fiorenzi realizzata e sviluppata da Leonardo Corsini che permette agli investigatorei di eseguire ricerche di parole, gruppi di parole o inrtere frasi su messaggi vocali senza doverli ascoltare tutti individuando solo i messggi attineni, similari, compatibili con le parole, o frasi ricercate.
Per visualizzare o aggiungere un commento, accedi
-
-
💡Rete di Ricerca: Violenza sui Medici💡 👩⚕️Quasi il 60% di chi ha subito violenza è una donna secondo i dati emersi dalla nostra ricerca condotta per conto dell'Ordine dei Medici Chirurghi e Odontoiatri della Provincia di Firenze. 📊Le vittime sono specializzate in modo prevalente nel settore di: psichiatria, medicina generale ed emergenza-urgenza. 🧑⚕️1 medico su 2 ha subito più di 1 episodio di violenza. La media di episodi registrati da chi ne ha subito almeno 1 è 7,63. ➡️Scorri le immagini per scoprire: i tipi di aggressione, gli autori dell'aggressione e i dati sulla violenza osservata. 💻Seguiteci per rimanere aggiornati su questo tema e su tutte le nostre iniziative. 📱Per maggiori informazioni, leggete l'articolo completo sul blog di ReteSviluppo. #ReteSviluppo #RicercaMedica #ViolenzaSulLavoro #Medici #Prevenzione #Salute #Protezione #Ricerca #FNOMCeO #OrdineMediciFirenze
Per visualizzare o aggiungere un commento, accedi
-
Come l’Intelligenza Artificiale sta cambiando la prevenzione e il contrasto alla violenza di genere L'intelligenza artificiale (IA) sta trasformando la prevenzione e il contrasto alla violenza di genere attraverso strumenti innovativi come algoritmi per il monitoraggio online, chatbot per il supporto sicuro alle vittime e app che offrono assistenza legale e psicologica. Tuttavia, presenta rischi legati ai bias algoritmici e alla violazione della privacy. La digitalizzazione ha introdotto nuove forme di violenza, come il cyberstalking e il revenge porn, che richiedono un monitoraggio continuo. È fondamentale bilanciare l'uso della tecnologia con la vigilanza, per sfruttare l'IA come alleato nella lotta alla violenza senza accentuare disuguaglianze o abusi. https://lnkd.in/dxF-b2aZ
Per visualizzare o aggiungere un commento, accedi
-
Come cardiochirurghi e ancor prima come #medici, siamo chiamati a garantire il massimo rispetto e la cura per i pazienti, senza alcuna distinzione o pregiudizio. La nostra missione si fonda su valori di etica, dignità e compassione, valori che dovrebbero guidare ogni nostro gesto, sia nei confronti dei pazienti che dei colleghi. Purtroppo, da diversi anni sono vittima di attacchi di #omofobia da parte di un collega che lavora come #cardiochirurgo pediatrico in #Italia. Questi episodi si sono manifestati in fasi alternanti, ma con una violenza crescente e recentemente ripresi. Questi commenti, oltre a essere profondamente offensivi sul piano personale, rivelano un’ideologia pericolosa che mina il rispetto professionale e la dignità sia dei colleghi che dei pazienti. Questo non è solo un problema personale tra me e questo individuo: la questione è molto più ampia e riguarda l’intera comunità professionale. Se un medico è in grado di esprimere odio verso una parte della popolazione, come possiamo fidarci che fornisca cure rispettose e imparziali ai pazienti #LGBTQIA+ o alle #famiglieomogenitoriali? Credo fermamente che la comunità medica italiana e gli Ordini professionali debbano prendere una posizione chiara e decisa. Non si può permettere che comportamenti di questo tipo continuino a esistere nella nostra professione. Chi manifesta odio e intolleranza deve essere allontanato dalla comunità professionale, perché non può garantire l’equità e la sicurezza che i nostri pazienti meritano. La dignità dei pazienti e il rispetto reciproco tra colleghi non sono negoziabili. Mi appello quindi a tutti i miei colleghi affinché si agisca in modo deciso, affinché chi esprime e incarna questi comportamenti sia rimosso dalla nostra comunità professionale. La cardiochirurgia non può tollerare l’odio. La #medicina non può tollerare l'odio e gli ordini professionali sono responsabili! #NoAllOmofobia #EticaProfessionale #Rispetto #Cardiochirurgia #cardiacsurgery #FNOMCEO #Medici #Italia #Diritti #SSN #DDLZan
Per visualizzare o aggiungere un commento, accedi
-
-
#IA #hermes #centrostudieuropeo #Enia #valerialazzaroli #donnevincenti #STEM #donnaèinnovazione leggi di più su #mediaduemila Con Valeria Lazzaroli (Presidente dell'ENIA) #mediaduemila avvia il ciclo di interviste alle donne e agli uomini del Comitato Scientifico di Hermes (Centro Studi Europeo). Tutti analisti delle criticità dell'oggi, con particolare attenzione alla cybersicurezza. L'Italia intanto approva la legge che permette più sicurezza informatica.
Per visualizzare o aggiungere un commento, accedi