(Adnkronos) - Una nuova impresa dell'intelligenza artificiale applicata alla medicina: può leggere una risonanza magnetica al cervello e restituire una diagnosi in pochi secondi. Lo ha dimostrato un team di scienziati dell'University of Michigan (Um) che ha sviluppato un modello basato sull'Ai rivelatosi in grado di intercettare patologie neurologiche con una precisione fino al 97,5%. Il sistema è riuscito anche a individuare quanto fosse urgente trattare un paziente. Nello studio pubblicato su 'Nature Biomedical Engineering' gli autori prospettano che questa tecnologia, definita unica nel suo genere, potrebbe avere un impatto trasformativo per il neuroimaging nei sistemi sanitari Usa. "Dato che la domanda globale di risonanza magnetica è in aumento e sottopone a notevole pressione i medici e la sanità, il nostro modello di intelligenza artificiale ha il potenziale per ridurre il carico migliorando la diagnosi e il trattamento con informazioni rapide e accurate", sottolinea l'autore senior Todd Hollon, neurochirurgo dell'ateneo statunitense, docente della UM Medical School. Hollon ha battezzato l'invenzione 'Prima'. Lui e il suo team hanno testato questa tecnologia su oltre 30mila studi di risonanza magnetica nel corso di un anno. In oltre 50 diagnosi radiologiche di gravi disturbi neurologici, Prima ha superato altri modelli di Ai all'avanguardia in termini di prestazioni diagnostiche. Il modello è riuscito a determinare quali casi avrebbero dovuto avere la priorità più alta. Alcune problematiche, ricordano gli esperti, come emorragie cerebrali o ictus, richiedono cure mediche immediate, e in questi casi Prima può allertare automaticamente i medici in modo che possano intervenire rapidamente, afferma Hollon. I ricercatori hanno ideato il modello in modo che possa consigliare quale specialista debba essere avvisato, ad esempio un neurologo specializzato in ictus o un neurochirurgo, con un feedback disponibile immediatamente dopo che il paziente ha completato l'imaging. "La precisione è fondamentale quando si legge una risonanza magnetica cerebrale, ma tempi di risposta rapidi sono essenziali per una diagnosi tempestiva e risultati migliori", evidenzia Yiwei Lyu, co-autore e ricercatore post-dottorato in Informatica e Ingegneria alla University of Michigan. "Nei passaggi chiave del processo, i risultati suggeriscono che Prima può migliorare i flussi di lavoro e semplificare l'assistenza clinica senza rinunciare alla precisione". Ma cos'è questo sistema messo a punto dai ricercatori? Il modello Prima è un 'vision language model' (Vlm), un sistema di intelligenza artificiale in grado di elaborare simultaneamente video, immagini e testo in tempo reale. Non è il primo tentativo di applicare l'Ai alla risonanza magnetica (Mri) e ad altre forme di neuroimaging, ma l'approccio è diverso: i modelli precedenti si basavano su sottoinsiemi di dati di Mri selezionati manualmente per raggiungere obiettivi specifici, come l'individuazione di lesioni o la previsione del rischio di demenza. Durante la progettazione del nuovo sistema, il team di Hollon ha basato l'addestramento su ogni risonanza magnetica (oltre 200mila studi e 5,6 milioni di sequenze) eseguita da quando è iniziata la digitalizzazione della radiologia all'University of Michigan Health decenni fa. I ricercatori inseriscono nel modello anche le storie cliniche dei pazienti e le motivazioni per cui i medici hanno ordinato uno studio di diagnostica per immagini. E, con tutti questi dati, "Prima funziona come un radiologo, integrando informazioni riguardanti il paziente e i dati di imaging per ottenere una comprensione completa del suo stato di salute", illustra il co-primo autore Samir Harake, data scientist nel Machine Learning in Neurosurgery Lab di Hollon. Questo, prosegue, "consente di ottenere prestazioni migliori in un'ampia gamma di attività di previsione". Ogni anno nel mondo vengono eseguiti milioni di studi di risonanza magnetica, una parte significativa dei quali è focalizzata sulle malattie neurologiche. Questa domanda, affermano i ricercatori, supera la disponibilità di servizi di neuroradiologia e comporta notevoli sfide, tra cui carenza di personale e rischio di errori diagnostici. A seconda del luogo in cui si esegue l'esame potrebbero volerci giorni o anche più tempo per ottenere un risultato. "Sia che si riceva una scansione in un sistema sanitario più ampio che deve far fronte a un volume crescente di prestazioni sia che si faccia in un ospedale rurale con risorse limitate, sono necessarie tecnologie innovative per migliorare l'accesso ai servizi di radiologia - ragiona Vikas Gulani, coautore e presidente del Dipartimento di Radiologia alla UM Health - I nostri team hanno collaborato per sviluppare una soluzione all'avanguardia a questo problema, con un potenziale enorme e scalabile". Nonostante i buoni risultati ottenuti da Prima, puntualizzano però gli autori, la ricerca è ancora nella fase iniziale di valutazione. Il lavoro futuro del team esplorerà la possibilità di integrare informazioni più dettagliate sui pazienti con i dati delle cartelle cliniche elettroniche per una diagnosi più accurata. Ciò che Hollon descrive come "ChatGpt per l'imaging medico" ha un potenziale più ampio, prevedono gli esperti, e un giorno potrebbe essere adattato ad altre modalità di imaging, come mammografie, radiografie del torace ed ecografie. "Così come gli strumenti di intelligenza artificiale possono aiutare a scrivere una bozza di e-mail o a fornire raccomandazioni, Prima si propone di essere un copilota per l'interpretazione degli studi di imaging medico", conclude Hollon, sottolineando il potenziale che integrare questi sistemi avrebbe riguardo all'obiettivo di "migliorare l'assistenza sanitaria attraverso l'innovazione".
(Adnkronos) - Un confronto a tutto campo su Ia, didattica e futuro. Mercoledì 4 febbraio, a partire dalle 9.30, la sede principale dell’Università eCampus, a Novedrate (Como), ospiterà 'eCampus, didattica aumentata e Ia: il ruolo delle università nelle politiche di innovazione', una giornata di lavoro dedicata alle intelligenze artificiali, al plurale, per approfondire il ruolo delle università nelle politiche di innovazione: la formazione di nuove competenze, la trasformazione delle professioni, la cybersecurity e i nuovi linguaggi. Un dibattito aperto in cui l’ateneo metterà a disposizione della collettività i risultati della ricerca e della terza missione nei suoi vent’anni di esperienza. L’università non può limitarsi a 'comprare' l’intelligenza dall’esterno, ma deve concorrere a formarla, personalizzarla e addestrarla, trasmettendo agli studenti competenze critiche, etiche e tecnologiche. Una posizione che dialoga idealmente con il dibattito aperto a Stanford all’indomani della diffusione dei sistemi generativi e che eCampus sviluppa oggi in una prospettiva autonoma, fondata su un approccio artigiano al sapere, capace di rendere i singoli profili professionali protagonisti consapevoli dei processi di innovazione. Il programma della giornata seguirà un percorso coerente con questa impostazione. Al mattino il confronto si concentrerà sul rapporto tra innovazione e formazione dei professionisti del futuro e sulle professioni in trasformazione. Il Piano strategico di Ateneo costituirà il filo conduttore delle diverse sessioni, emergendo nei temi della didattica, delle competenze, dell’impatto sociale e delle politiche di innovazione. Nel pomeriggio l’attenzione si sposterà sul rapporto tra tecnologia e salute, sui temi dell’accessibilità e dell’inclusione e, infine, sul ruolo della ricerca e dei dottorandi nei processi di innovazione, prima della chiusura affidata a un momento informale di networking. A dare voce al dibattito sarà un parterre ampio e multidisciplinare, grazie ai contributi di Amarildo Arzuffi di Fondimpresa, Antonella Guidazzoli di Cineca, Pier Guido Lezzi di MaticMind Milano, del giornalista Carlo Massarini, del saggista Michele Mezza e dell’atleta olimpico Matteo Melluzzo. Per l’Università eCampus interverranno Marco Arnesano, Luisella Bocchio Chiavetto, Riccardo Botteri, Placido Bramanti, Manuela Cantoia, Elisabetta Cattoni, Luca Cioccolanti, Gloria Cosoli, Venusia Covelli, Leonardo Fiorentini, Oleksandr Kuznetsov, Enrico Landoni, Lorenza Lei, Giovanni Liberati Buccianti, Alfonso Lovito, Barbara Marchetti, Marco Margarita, Elisa Pedroli, Francesco Pigozzo, Cristian Randieri, Paolo Raviolo, Marco Rondonotti, Maria Lucrezia Sanfilippo, Enzo Siviero, Manuela Vagnini e Fabrizio Vecchio. L’evento, aperto a tutti, aiuterà a comprendere come la didattica aumentata e le intelligenze artificiali stiano ridisegnando il ruolo dell’università nelle politiche di innovazione.
(Adnkronos) - Riciclare per raggiungere l’autonomia nell’approvvigionamento di terre rare e materiali critici. Livio De Santoli, prorettore dell’Università La Sapienza di Roma spiega all’Adnkronos la chiave (oltre all’urgenza) per ridurre la dipendenza da filiere esterne che sono decisive per le tecnologie della transizione ma che si trovano nelle mani di Paesi terzi rispetto all’Italia e all’Europa. Su tutti, la Cina: Pechino detiene infatti un quasi monopolio nell’esportazione di queste materie prime, e può limitarne l’accesso secondo convenienza. Ma con il ritorno della politica di potenza a livello globale e l’indebolimento al multilateralismo, la priorità per l’Unione europea e per l’Italia è diventata cercare l’autonomia nelle filiere più strategiche, anche attraverso l’economia circolare. “Con il gas e il petrolio eravamo totalmente dipendenti, perché noi non li avevamo”, spiega De Santoli, ma ora “non è detto che dobbiamo continuare a comprare i materiali critici”. Anzi, “l’indipendenza passa dall’affrancamento” dall’obbligo di comprare altrove, e il “riutilizzo in qualche modo all’infinito” dei materiali che sono già nella propria disponibilità gioca un ruolo fondamentale verso l’autonomia. In questo modo, infatti, è possibile immaginare di “creare una filiera europea delle terre rare e dei materiali critici“, sottolinea ancora il prorettore. E “l’Italia, grazie alla sua esperienza nel riciclo, può diventare un hub del riuso di componenti strategici. È un’occasione unica per un’industria autonoma e competitiva”. “Su alcuni settori sicuramente più alcuni che altri possiamo diventare delle oasi autonome in cui far sviluppare componenti e servizi che possono addirittura essere esportati in Europa: è quello il nuovo corso ed è quella l’indicazione che dobbiamo dare per il futuro”, spiega. Resta un altro grande nodo strutturale: il costo dell’energia, che continua a rappresentare un freno per la competitività delle imprese europee ed italiane. Anche in questo caso, per De Santoli si deve puntare a una “vera filiera europea dell’energia”, nella quale il Bel Paese può giocare un ruolo di primo piano. “Enel, Eni e persino la cinese Byd stanno valutando l’Italia come base produttiva per le gigafactory per le batterie”, ricorda l’esperto. Certo, l’Italia attualmente, sottolinea De Santoli, ha “i costi più alti d’Europa, che a loro volta sono i più alti del mondo”. E allora come fare? “L’unica via, anche con l’attuale mercato dell’energia, è sviluppare massicciamente le rinnovabili. Cosa che, anche senza riforme di mercato, riduce l’impatto del gas sul prezzo finale”. Il problema, continua, “non è il costo del solare o dell’eolico, ma la lentezza con cui li integriamo nel sistema. Se raggiungiamo il 60% di penetrazione elettrica al 2030, i benefici saranno immediati per famiglie e imprese”. Per il prorettore, i due “grandi fronti” su cui dobbiamo agire sono l’eolico offshore e l’idrogeno. “Siamo ancora indietro, ma dobbiamo arrivare a 2,1 GW entro il 2030. Le nostre coste profonde richiedono piattaforme galleggianti, una tecnologia che possiamo sviluppare in Italia. Anche la Danimarca sta investendo qui: perché non farlo noi per primi”? Infine, parlare di energia oggi porta per forza di cose al tema dei data center, che assorbono circa il 3% dei consumi globali e raddoppieranno entro dieci anni. Un problema anche perché, spiega l’esperto, “concentrano energia laddove le rinnovabili, invece, sono distribuite”. Di conseguenza, conclude De Santoli, “dobbiamo ripensare il modello: la rete va resa più flessibile, con accumuli diffusi e logiche di prossimità energetica. L’intelligenza artificiale può aiutarci a ottimizzare il sistema, ma serve pianificazione: i data center dovranno essere costruiti dove esiste un mix energetico sostenibile, o dotati di fonti rinnovabili proprie”.