-
Milan: Leao non si allena in gruppo, in dubbio per la Roma
-
Inter, metà allenamento in gruppo per Thuram
-
Mostra, film e gala per la Scala in America
-
Artico, scoperti batteri 'impossibili' che influiscono sul clima
-
Doping: 'La potenza dello sport, la scelta di dire no'
-
Sefcovic, 'da accordo Usa-Cina implicazioni per l'Ue'
-
Venezia Sounds, raccolti 158mila euro per la ricerca oncologica
-
Calcio: Haaland beve latte crudo, é polemica in Inghilterra
-
Ultimo saluto a James Senese sulle note di Chi tene 'o mare
-
Confindustria, Orsini incontra il commissario Ue Šefčovič
-
Israele, consegnati due corpi di ostaggi da Hamas
-
Aliassime ai quarti a Parigi, corsa su Musetti per le Atp Finals
-
Nissan prevede perdita annuale di 1,54 miliardi di euro
-
Michele Uva scelto da Time, è tra i 100 più influenti sul clima
-
Paunovic nominato commissario tecnico della Serbia
-
Ponte: sindaco Villa S.G., non sorpresi da Corte dei conti
-
Maurizio Sella lascia la presidenza di Banca Sella
-
Panetta, da tassa sulle banche no rischi di instabilità
-
Scoperto sulle Ande uno dei dinosauri più antichi al mondo
-
Brevetti italiani, primo censimento storico al femminile
-
Regione Liguria e Portofino invitano Taylor Swift nel borgo
-
Roma Jazz Festival, apertura con il batterista Makaya McCraven
-
Calcio: c'è ancora Brambilla a dirigere allenamento della Juve
-
Gucci lancia la linea da sci, Sinner protagonista della campagna
-
I Negramaro annunciano il tour estivo, poi una lunga pausa
-
Stellantis crolla in Borsa (-10%) dopo i conti
-
Laura Mattarella apre il Women economic forum a Palermo
-
Bce, la crescita Ue regge, ma le prospettive sono incerte
-
Il petrolio è in calo a New York a 60 dollari al barile
-
Ecco il Dracula di Besson, vampiro innamorato più che horror
-
Ad Alfonso Cuarón il Premio Fellini 2025
-
Un anticorpo 'vince' antibiotico-resistenza di un super-batterio
-
Lo spread tra Btp e Bund a 76 punti, corregge i minimi dal 2010
-
Il 2024 è stato l'anno più caldo mai registrato
-
I Marillion tornano in Italia, concerto a Pompei nel 2026
-
Cresce del 4% fatturato Lufthansa, ma aumentano anche i costi
-
'Sotto le Nuvole', Gianfranco Rosi spera nell'Oscar
-
Cremlino, 'test nucleari? Non c'è nuova corsa a armamenti'
-
Kate Perry il 19 luglio 2026 al Lucca Summer Festival
-
Borsa: l'Europa prosegue in calo aspettando la Bce
-
Bohemian Rhapsody, i 50 anni di un capolavoro misterioso
-
I Litfiba di nuovo insieme per "Quarant'anni di 17 re" Tour 2026
-
Juve: Spalletti, foto con i tifosi dopo i test medici
-
90% delle donne ha almeno un fattore di rischio cardiovascolare
-
Canada e Singapore celebrano 60 anni di diplomazia
-
Da Kiev al Meyer per migliorare screening neonatali in Ucraina
-
F1: Verstappen il pilota più ricco, un patrimonio da 260 milioni
-
Per turismo della neve fatturato oltre i 12 miliardi +3,6%
-
Abodi 'Milan-Como a Perth? Manca il rispetto per i tifosi'
-
Primo trapianto al mondo di arteria polmonare
La capacità di giudizio dell'IA è solo apparenza
Grandi rischi nel delegare scelte e giudizi agli Llm
La capacità di giudizio dei modelli linguistici come ChatGpt o Gemini è solo apparenza: a dimostrarlo è lo studio guidato da Walter Quattrociocchi, dell'Università Sapienza di Roma, e pubblicato sulla rivista dell'Accademia Nazionale degli Stati Uniti Pnas. Un lavoro che sottolinea i rischi concreti di affidare a questi modelli di Intelligenza Artificiale la delega di fare scelte o prendere decisioni. "Cosa avviene realmente quando chiediamo a un'IA di eseguire una scelta, ad esempio determinare se una notizia del web sia credibile o è piuttosto una fake news?", ha detto Quattrociocchi all'ANSA per raccontare il nuovo studio che ha eseguito una serie di test a gran parte dei più importanti modelli linguisti Llm in circolazione, come ChatGpt, Gemini, Llama, Deepseek e Mistral. Un lungo lavoro che ha messo a confronto umani e IA per capire le differenze di 'ragionamento' dei due. "Quello che abbiamo messo qui molto bene in evidenza è che nonostante i risultati, le IA riconosco infatti molto bene le fake news, il meccanismo che utilizzano non si basa però su riscontri reali ma su una mera capacità di simulare i giudizi. In altre parole, i giudizi formulati dagli Llm sono plausibili ma disancorati dalla realtà fattuale". Una sostituzione della verità con la plausibilità che in un futuro non molto lontano, sottolineano gli autori, potrebbe portare a problemi gravi quando gradualmente daremo sempre più autorevolezza alle capacità degli Llm di gestire azioni o prendere scelte per noi, in totale delega. "Ma questi sistemi sembrano valutare come noi solo perché simulano le tracce del pensiero, non il pensiero stesso", ha aggiunto il ricercatore italiano. "Questo studio - ha concluso - dimostra che ciò che stiamo automatizzando non è il giudizio, ma la sua apparenza".
Ch.Kahalev--AMWN