ENTRA NEL NETWORK |
ENTRA NEL NETWORK |
(Adnkronos) - I dubbi su quanto raccontato da Claudio Carlomagno, l’uomo che ha ucciso la moglie Federica Torzullo ad Anguillara Sabazia, potrebbero rafforzarsi da quanto emerso dall'autopsia sul corpo della 41enne: secondo quanto apprende l'Adnkronos, infatti, nello stomaco di Federica Torzullo sarebbero stati trovati residui di cibo le cui analisi potrebbero anticipare l’orario della morte addirittura alla sera prima. Nel corso dell'udienza di convalida, tenutasi mercoledì nel carcere di Civitavecchia, l'uomo ha raccontato di aver assassinato sua moglie fra le 6:30 e le 7:15 del mattino del 9 gennaio. La famiglia Torzullo intanto attende ancora la restituzione della salma della donna per poi procedere ai funerali. Sono proseguite intanto nella giornata di oggi le ricerche dell'arma con cui Carlomagno ha ucciso sua moglie. Secondo quanto raccontato dall'uomo, l'omicidio è avvenuto nella mattina del 9 gennaio, nel bagno al primo piano della loro casa: lo stesso Carlomagno si sarebbe disfatto dell'arma, un coltello bilama, gettandola in un corso d'acqua nei pressi della statale Braccianese, all'altezza di Osteria Nuova. Ma, finora, le ricerche sono state senza esito e continueranno nei prossimi giorni.
(Adnkronos) - L’Intelligenza artificiale sta ridefinendo in modo sempre più strutturale i confini dei processi della selezione del personale, introducendo nuove opportunità di efficienza e innovazione ma anche sollevando interrogativi rilevanti sul piano della trasparenza, dell’equità e della responsabilità. Se non adeguatamente governata, l’Ia rischia di rafforzare e amplificare discriminazioni già presenti, in particolare quelle di genere. Non si tratta solo di un’evoluzione tecnologica: l’Ia può essere considerata una vera e propria 'infrastruttura civile' in grado di influire sul capitale di fiducia del patto sociale. In un contesto in cui il lavoro resta la soglia decisiva della cittadinanza, l’ingresso degli algoritmi nei processi di selezione può consolidare asimmetrie esistenti o, al contrario, contribuire ad abbattere barriere storiche. E' quanto emerge dallo studio 'Intelligenza artificiale e bias di genere nel reclutamento del personale', curato dall’Università della Calabria e dal Politecnico di Bari, con il coordinamento del professore Salvatore Ammirato, e promosso dalla Fondazione Magna Grecia. I risultati sono stati presentati oggi a Roma durante il convegno 'Ia nella selezione del personale. La nuova sfida della leadership inclusiva', organizzato da Federmanager in collaborazione con la stessa Fondazione e con il Gruppo Ferrovie dello Stato Italiane, che ha visto manager hr (risorse umane), imprenditori e accademici discutere delle implicazioni etiche e operative dell’uso dell’Ia nei processi di recruitment. Il rapporto costituisce una delle tappe del progetto nazionale 'Privacy Tour', promosso da un ampio partenariato che coinvolge istituzioni, imprese e centri di ricerca. E rimanda istantanee significative dimostrando che l’Ia applicata alla selezione del personale rischia, se non ben governata, di riprodurre e amplificare i pregiudizi (bias) già presenti nei dataset e nei processi organizzativi. Spiega Salvatore Ammirato, responsabile scientifico della ricerca: “l’Intelligenza artificiale non è un decisore neutrale, ma uno strumento che riflette le scelte di chi lo progetta e lo utilizza. Non è l’Ia a decidere al posto delle persone ma sono le persone a decidere come l’Ia prende decisioni”. Da qui l’importanza di una leadership consapevole e inclusiva, capace di governare gli algoritmi affinché diventino un’opportunità di equità e non un fattore di nuove discriminazioni. Per Pierpaolo Pontrandolfo, professore presso il Politecnico di Bari e attuale presidente dell’Associazione italiana di ingegneria gestionale, “è necessario che qualunque innovazione tecnologica sia principalmente finalizzata a migliorare il benessere delle persone e della società. A tal fine occorre grande responsabilità e consapevolezza da parte di chi la usa. Questo è particolarmente vero per l’Ia perché, da un lato è un’innovazione radicale e pervasiva, quindi estremamente impattante, dall’altro è connotata da una grande semplicità di utilizzo, che aumenta il rischio di un uso improprio”. Un dato particolarmente significativo dello studio riguarda il livello di consapevolezza sull’uso dell’Intelligenza artificiale: solo il 13% dei partecipanti al sondaggio infatti, dichiara di utilizzare concretamente strumenti di Ia nei processi di selezione, dimostrando la scarsa percezione della presenza di algoritmi già oggi integrati nei software Hr. Non stupisce allora che la ricerca evidenzi ancora un altro aspetto interessante da tenere in considerazione nelle decisioni future e che viene chiamato 'bias blind spot': ovvero la tendenza, da parte dei selezionatori, a riconoscere l’esistenza di pregiudizi nei processi di valutazione, senza però individuarli nelle proprie scelte. Se da un lato si ammette dunque l’esistenza di discriminazioni di genere, dall’altro risulta più difficile riconoscere come elementi quali l’aspetto fisico, tono di voce o rigidità biografiche continuino a influenzare, anche in modo indiretto, le decisioni di selezione. Lo studio propone infine un percorso metodologico volto allo sviluppo di tecnologie più sicure, trasparenti e inclusive, in linea con il quadro normativo italiano ed europeo. “E' quantomai necessario - dichiara Nino Foti, presidente della Fondazione Magna Grecia - immaginare percorsi di governance e trasparenza, puntando a modelli che consentano ai professionisti di comprendere le motivazioni dietro ogni decisione automatizzata, mantenendo però sempre una supervisione umana. L’innovazione per essere davvero tale, deve essere adottabile perché verificabile, e verificabile perché governata. Non si tratta di nutrire una fiducia acritica nella presunta neutralità della tecnologia, ma di contribuire alla costruzione di criteri minimi di trasparenza e pratiche di controllo che permettano a imprese e istituzioni di usare questi strumenti senza scaricare i rischi sulle persone. In questo equilibrio tra tecnologia e responsabilità si gioca il futuro del lavoro”. “L’Intelligenza artificiale - spiega dice Valter Quercioli, presidente di Federmanager - rappresenta un’opportunità concreta per migliorare la qualità dei processi di selezione e rendere le organizzazioni più evolute. Perché questo potenziale si realizzi pienamente, è fondamentale che i manager guidino l’innovazione, integrando responsabilmente queste tecnologie nei processi decisionali con competenze e visione. Attraverso il lavoro della Commissione Intelligenza artificiale e del Gruppo Federmanager Minerva, Federmanager è impegnata a rafforzare la cultura manageriale e ad accompagnare le organizzazioni verso un utilizzo dell’Ia capace di generare valore, inclusione e sviluppo per il lavoro e per il sistema produttivo”. “Per il Gruppo Ferrovie dello Stato Italiane l’Intelligenza artificiale rappresenta una leva strategica di trasformazione, che può contribuire a rendere i processi di selezione più efficaci solo se accompagnata da una solida governance, da competenze adeguate e da una forte responsabilità organizzativa. In FS siamo impegnati a promuovere modelli di utilizzo dell’IA fondati su trasparenza, supervisione umana e inclusione, affinché l’innovazione tecnologica diventi uno strumento di equità e valorizzazione dei talenti”, aggiunge Valeria Rizzo, group learning & integration office del Gruppo Ferrovie dello Stato Italiane. Il convegno si è concluso con un richiamo all’importanza della formazione continua e dell’adozione di politiche inclusive. Contrastare i bias di genere non è solo un imperativo etico, ma una strategia vincente per la crescita delle imprese: le aziende inclusive registrano migliori performance finanziarie e maggiore capacità di innovazione. La sfida futura, in linea con l’AI act europeo, è garantire che l’Intelligenza artificiale diventi una leva di equità, supportando la leadership umana senza mai sostituirla integralmente nelle decisioni che riguardano dignità e talento delle persone.
(Adnkronos) - “Da una decina d’anni l’olio di palma è stato oggetto di un vero e proprio attacco mediatico che ne ha determinato la demonizzazione sotto diversi aspetti. In Italia, in particolare, si è fatto leva su quello che è stato ritenuto l’elemento più sensibile per il pubblico: la salute. L’olio di palma è stato dipinto come un grasso sostanzialmente nocivo per chi lo consuma. Negli ultimi anni, le evidenze scientifiche si sono ulteriormente consolidate, portando a risultati inconfutabili che smontano completamente quelle che erano argomentazioni pretestuose utilizzate per demonizzare l’olio di palma”. Lo spiega Giorgio Donegani, tecnologo alimentare ed esperto di nutrizione, al seminario organizzato dall’Unione Italiana per l’Olio di palma sostenibile (Uiops) e dell'Associazione italiana dell'industria olearia (Assitol), nell’ambito del Sigep, il Salone internazionale dedicato a gelato, pastry&chocolate, coffee, bakery e pizza, a Rimini. Un incontro organizzato per presentare il Position Paper "Olio di palma sostenibile: nutrizione e sicurezza alimentare", recentemente adottato dal Comitato Tecnico Scientifico Uiops. L’esperto sottolinea come “la sostituzione dell’olio di palma con altri grassi, per motivi nutrizionali o salutistici, non comporta alcun beneficio. Anzi, ricerche molto recenti dimostrano che questo boicottaggio non è servito nemmeno a ridurre l’assunzione di grassi saturi nella popolazione italiana - sottolinea - nonostante la quasi scomparsa dell’olio di palma da molti prodotti, infatti, l’assunzione complessiva di grassi saturi è addirittura aumentata”, afferma. Davanti agli allarmismi, come quello che per Donegani ha interessato l’olio di palma, “il consumatore dovrebbe esercitare il pensiero critico e ricordare che esistono fonti autorevoli e accreditate a cui fare riferimento - suggerisce - il ministero della Salute, l’Istituto Superiore di Sanità, la Società Italiana di Nutrizione Umana, il Crea (il Consiglio per la ricerca in agricoltura e l'analisi dell'economia agraria) che ha elaborato le Linee guida per una sana alimentazione della popolazione italiana. I documenti seri esistono - conclude - sono basati su evidenze scientifiche e non su suggestioni: basta consultarli e fidarsi di quelli”.