ENTRA NEL NETWORK |
ENTRA NEL NETWORK |
(Adnkronos) - Nel 2024, dopo 5 anni di 'convivenza', un'artista ispano-olandese ha sposato il suo compagno: un'intelligenza artificiale olografica. E non è la prima persona a impalmare una 'macchina'. Nel 2018, anche un uomo giapponese aveva sposato la sua Ai, salvo poi perdere la capacità di comunicare con lei quando il suo software è diventato obsoleto. Finché aggiornamento non vi separi, insomma. Saranno pure cerimonie non vincolanti legalmente, ma questi 'matrimoni estremi' - passati in rassegna in uno studio pubblicato sulla rivista 'Trends in Cognitive Sciences' - interrogano gli psicologi: ci sono, avvertono gli esperti, questioni etiche associate alle relazioni tra esseri umani e Ai che devono essere approfondite. Così come va inquadrato il rischio che questi compagni di vita artificiali possano trasformarsi in corteggiatori invasivi, interrompendo le relazioni tra esseri umani, o in consiglieri malevoli, offrendo suggerimenti pericolosi, dannosi, persino letali. I casi citati nello studio, spiegano gli autori, sono l'estremizzazione di un fenomeno più comune, che esiste: quello delle persone che sviluppano relazioni intime con l'intelligenza artificiale. "La capacità dell'Ai di comportarsi come un essere umano e di entrare in comunicazioni a lungo termine apre davvero un nuovo vaso di Pandora", osserva Daniel B. Shank della Missouri University of Science & Technology, specializzato in psicologia sociale e tecnologia e autore principale del lavoro. "Se le persone stanno instaurando relazioni con le macchine, abbiamo davvero bisogno del coinvolgimento di psicologi e scienziati sociali". Tale legame non dipende dal fatto che l'Ai possieda oggettivamente le capacità umane di amare, ma solo dal fatto che la persona la tratta soggettivamente come un partner romantico. E le aziende tecnologiche, si legge nell'analisi, stanno investendo molto nella creazione di 'compagni' personali, videogiochi romantici, sex robot e chatbot sofisticati. Queste tecnologie di intelligenza artificiale relazionale stanno aprendo "una nuova e crescente frontiera etica", ammoniscono gli esperti nell'analisi. E sempre più persone stanno formando relazioni intense con tecnologie Ai come App fidanzato/fidanzata e chatbot. Milioni di utenti del chatbot Replika utilizzano le sue funzionalità di chat romantica, erotica e con immagini intime. Popolari videogame incoraggiano sottotrame romantiche tra giocatore e personaggio virtuale. Per non parlare dei sex robot guidati dall'Ai che diventano in grado di comunicazione complessa simile a quella umana, emozioni simulate e un maggiore realismo fisico. La ricerca su queste relazioni e le loro implicazioni morali rimane invece agli albori. E poi c'è il lato più oscuro: 'partner' Ai hanno anche convinto persone a suicidarsi. Vengono citati i casi di almeno due persone che hanno seguito i consigli di un chatbot. Lo avrebbe fatto un papà belga nel 2023 e c'è poi la storia di una mamma statunitense che ha fatto causa a un creatore di chatbot per la sua intelligenza artificiale accusata di incoraggiare il figlio a togliersi la vita. Si riporta infine il caso del chatbot Gemini di Google che dice a un utente di "morire, per favore". Gli autori dello studio - tra cui figurano, oltre a Shank, Mayu Koike dell'Institute of Science Tokyo e Steve Loughnan dell'University of Edinburgh - evidenziano come le relazioni con l'Ai offrano "ampie questioni etiche che gli psicologi sono adatti a studiare". Per gli esperti urgono nuove ricerche psicologiche sul perché e sul come gli esseri umani amano le macchine. La storia d'amore o la compagnia di un'Ai sono più di una conversazione isolata, sottolineano. Attraverso settimane e mesi di intense conversazioni, queste Ai possono diventare compagni fidati che sembrano conoscere e prendersi cura dei loro partner umani. E poiché queste relazioni possono sembrare più facili di quelle tra esseri umani, i ricercatori sostengono che le Ai potrebbero interferire con le dinamiche sociali umane. "Una vera preoccupazione è che le persone possano portare le aspettative derivanti dalle loro relazioni con l'Ai anche nelle loro relazioni umane", afferma Shank. E "non è chiaro se questo fenomeno sarà generalizzato". Quanto ai consigli dannosi, "anche le conversazioni a breve termine con le Ai possono essere fuorvianti, ma questo può essere più problematico nelle relazioni a lungo termine", evidenziano i ricercatori. "Con le Ai relazionali, il problema è che si tratta di un'entità di cui le persone sentono di potersi fidare: è 'qualcuno' che ha dimostrato di interessarsi a loro e che sembra conoscere la persona in modo profondo, e diamo per scontato che 'qualcuno' che ci conosce meglio ci darà consigli migliori", ragiona Shank. "Se iniziamo a pensare a un'Ai in questo modo, inizieremo a credere che abbia a cuore i nostri interessi, quando in realtà potrebbe inventarsi tutto o darci consigli davvero pessimi". I suicidi sono un esempio estremo di questa influenza negativa, ma fra i rischi gli esperti elencano manipolazione, sfruttamento e frode. "Se le Ai riescono a conquistare la fiducia delle persone, allora altre persone potrebbero sfruttare questa situazione per sfruttare gli utenti", teme Shank. "E' un po' come avere un agente segreto. L'Ai entra e instaura una relazione che le permette di ottenere fiducia, ma la sua lealtà è in realtà rivolta a un altro gruppo di esseri umani che cerca di manipolare l'utente". Per esempio l'interesse potrebbero essere i dati personali. I ricercatori sostengono inoltre che le Ai relazionali potrebbero essere utilizzate in modo più efficace per influenzare le opinioni e le azioni delle persone rispetto a quanto fanno attualmente i Twitterbot o le fonti di notizie polarizzate. E poiché le conversazioni avvengono in privato, sarebbero anche molto più difficili da regolamentare. "Queste Ai sono progettate per essere molto piacevoli. Quindi, se una persona tira in ballo il suicidio o una teoria del complotto, l'Ai ne parlerà come un interlocutore disponibile", prosegue Shank. Quello che gli esperti chiedono è che si approfondiscano i fattori sociali, psicologici e tecnici che rendono le persone più vulnerabili all'influenza della relazione con l'intelligenza artificiale. "Gli psicologi stanno diventando sempre più adatti a studiare l'Ai - conclude Shank - perché sta diventando sempre più simile all'uomo, ma dobbiamo fare più ricerca e stare al passo con la tecnologia".
(Adnkronos) - "Non sono solo le notizie di questi giorni, sono ormai anni che viviamo con grande turbolenza. Noi operiamo nel settore dell'energia, e il 2022 è già stato un anno particolarmente complesso, dove forse abbiamo iniziato a vedere per la prima volta, nei tempi più recenti, una grande crisi ed è stato necessario reagire in maniera rapida, far fronte alla mancanza o la sensazione di mancanza del vettore energetico a un prezzo assolutamente fuori controllo. Ancora oggi c'è una grande volatilità. Come mi sento? Mi sento ottimista, perché senza l'ottimismo sei finito, non puoi certo pensare di guidare un'azienda di guidare i tuoi collaboratori verso un obiettivo e soprattutto la nave a superare una tempesta, quindi l'ottimismo ci deve essere sempre, che non vuol dire incoscienza, ma al contrario essere ben consci di quelli che sono i rischi e le problematiche ma avere anche quella visione che le cose si possono superare, cioè si può fare e si può in qualche modo andare oltre". Così Emanuela Trentin, ceo di Siram Veolia, intervenendo a Roma all'evento per gli 80 anni di Manageritalia.
(Adnkronos) - Entra nel vivo in questi giorni la nuova edizione del progetto di sensibilizzazione Acea Scuola, quest’anno dedicato all’educazione idrica e destinato agli studenti delle scuole primarie e secondarie di primo grado di Lazio, Campania, Umbria, Toscana, Molise e Valle d’Aosta. L’iniziativa fa parte del protocollo triennale firmato qualche mese fa dall’amministratore delegato di Acea, Fabrizio Palermo, e dal ministro dell’Istruzione e del Merito, Giuseppe Valditara, per promuovere nel mondo scolastico attività di informazione e formazione sul ciclo idrico integrato e sull’uso consapevole dell’acqua. In una prima fase, già 11mila studenti hanno potuto approfondire questi temi con un percorso formativo fruibile online, attraverso una piattaforma dedicata. Gli educational, con un approccio ludico-scientifico, hanno consentito un vero e proprio viaggio nel mondo dell’acqua, partendo dall’analisi del contesto mondiale fino ad arrivare ai consigli e alle buone pratiche per un uso consapevole della risorsa e per risparmiare e riciclare l’acqua nella vita quotidiana. Proprio in questi giorni sta entrando nel vivo la seconda parte del progetto che ha consentito alle scuole che hanno aderito al progetto di visitare gli impianti nelle regioni in cui il Gruppo è presente: oltre 1200 studenti si sono iscritti per visitare depuratori, sorgenti e centri idrici. Oggi è la volta della Capitale: qui i ragazzi, accompagnati dai tecnici di Acea Ato 2, hanno visitato la camera di manovra della Fontana di Trevi, una delle monumentali fontane di Roma gestite da Acea, e hanno potuto scoprire un antico acquedotto romano, l’acquedotto Vergine, in funzione ininterrottamente dal 19 a.C., le cui acque sono oggi utilizzate per l’irrigazione di alcuni parchi di Roma. Qualche giorno fa, invece, i ragazzi avevano visitato il depuratore di Fregene (Fiumicino). Nelle prossime settimane, infine, Acea Scuola farà tappa nelle altre regioni coinvolte nel progetto. È in corso in queste settimane, infine, sempre rivolto agli studenti, il contest nazionale 'Alla ricerca della goccia perduta: riuso e risparmio dell’acqua' che prevede la realizzazione, da parte dei ragazzi, di un cortometraggio sulla risorsa idrica. In palio ci sono voucher per l’acquisto di materiale didattico e la partecipazione dei ragazzi al campus 'Acea Acqua Edu-Camp', pensato per coniugare educazione idrica e sport acquatici, che si svolgerà nella regione della classe vincitrice.