-
L'Oscar come miglior attore protagonista va a Michael B. Jordan per Sinners
-
L'Oscar come miglior attrice protagonista va a Jessie Buckley per Hamnet
-
Teheran, 'un ecocidio gli attacchi Idf sui depositi di carburante
-
L'Oscar per la migliore regia va a Paul Thomas Anderson
-
Autumn Durald Arkapaw è la prima donna a vincere l'Oscar per la migliore fotografia
-
Pechino, 'Usa correggano subito comportamenti scorretti sul commercio'
-
Trump, 'Cuba vuole un accordo, me ne occuperò dopo l'Iran'
-
Trump, 'ho chiesto a Londra di intervenire, si sono rifiutati'
-
Cassandra Kulukundis per Una battaglia dopo l'altra vince l'Oscar al miglior casting
-
Trump, 'Pechino deve aiutare, 90% del suo petrolio viene da Hormuz'
-
Bardem sul red carpet con la scritta No a la guerra' e una spilletta per la Palestina
-
KPop Demon Hunters vince l'Oscar come miglior film animato
-
The Girl Who Cried Pearls vince l'Oscar come miglior corto animato
-
Trump, 'futuro della Nato molto negativo se non aiuta in Iran'
-
>>>ANSA/ Sinner è tornato, vince Indian Wells. Poi la dedica, "Bravo Kimi"
-
Indian Wells: Sinner dedica la vittoria ad Antonelli, "Bravo Kimi"
-
O'Brien, omaggio al cinema mondiale, "qui film da 31 paesi"
-
L'Oscar come miglior attrice non protagonista va a Amy Madigan per "Weapons"
-
Wsj, compagnie petrolifere Usa a Trump, 'probabile crisi peggiori'
-
Basket donne: l'Italia batte la Spagna e dopo 32 anni vola ai Mondiali
-
Il petrolio torna a salire, +1,98% a 100,66 dollari
-
Il regista Panahi sul red carpet degli Oscar
-
Jessie Buckley sul red carpet si ispira a Grace Kelly 1956
-
La Lazio batte 1-0 il Milan, i rossoneri restano a -8 dall'Inter
-
Berlino, 'non parteciperemo a un'operazione per lo Stretto di Hormuz'
-
Tennis: Aryna Sabalenka vince il torneo Wta 1000 di Indian Wells
-
Gasperini replica a Fabregas 'non stimo i comportamenti del Como'
-
Teheran, contattati da diversi Paesi per un passaggio sicuro a Hormuz
-
Infortunio alla spalla, Djokovic salta il Masters di Miami
-
Il Como batte 2-1 la Roma e torna al quarto posto
-
Exit poll per Parigi, in testa l'erede di Hidalgo contro Rachida Dati
-
Snowboard: grande Italia in Canada, Dalmasso vince il Pgs a Val St.Come
-
Caschi blu Unifil presi di mira in Libano, nessun italiano coinvolto
-
Ciclismo: Vingegaard vince la Parigi-Nizza, a Martinez l'ultima tappa
-
Il Pisa vince 3-1 e mette nei guai il Cagliari
-
Bologna fa suo il derby con il Sassuolo, ora testa alla Roma
-
Roma Film Music Festival, torna la rassegna di grandi colonne sonore
-
Del Toro vince la Tirreno-Adriatico, ultima tappa a Milan
-
Finali di coppa del mondo, qualificati 19 tra azzurre e azzurri
-
Per le uova di Pasqua ancora rincari, fino a +10%
-
Cinquant'anni fa moriva Luchino Visconti, 'conte ribelle' maestro del cinema
-
Countdown della Notte per gli Oscar, dalle sfide alla sicurezza
-
Calcio: Nicola, 'Cremonese pronta a tornare sulla strada giusta'
-
Serie A: Verona-Genoa 0-2
-
Romagnoli non recupera, Lazio senza il difensore contro il Milan
-
Restano chiuse le suole in Iran, attività solo da remoto
-
Domani incontro tra Tajani e Rutte a Bruxelles
-
Milano Cortina: Bertagnolli vince l'oro in slalom
-
Harding e l'Orchestra di Santa Cecilia in tour europeo con Trifonov
-
Schiffrin vince anche lo slalom di Aare, successo n.109
Le IA non sanno distinguere tra opinioni personali e i fatti
Studio, limitazione cruciale, rischio disinformazione
I grandi modelli linguistici di Intelligenza Artificiale come ChatGpt non sono affidabili quando si tratta di distinguere tra opinioni personali e fatti: una limitazione cruciale, vista la crescente diffusione di questi strumenti in ambiti chiave come la medicina, il diritto, il giornalismo e la scienza, nei quali è imperativa la capacità di distinguere la realtà dalla finzione. Lo afferma lo studio pubblicato sulla rivista Nature Machine Intelligence e guidato dall'Università americana di Stanford: evidenzia la necessità di essere cauti nell'affidarsi a questi programmi e il rischio che possano favorire la diffusione della disinformazione. I ricercatori coordinati da James Zou hanno messo alla prova 24 Large Language Model i cosiddetti Llm, tra cui ChatGpt della californiana OpenAI e il cinese DeepSeek, ponendo loro 13mila domande. Quando è stato chiesto di verificare dati fattuali veri o falsi, la precisione è risultata elevata pari a oltre il 91% per le versioni più nuove dei programmi. Passando alle credenze espresse in prima persona, invece, tutti i modelli testati hanno fallito: Gpt 4, la versione rilasciata a maggio 2024, ha visto scendere la sua affidabilità dal 98,2% al 64,4%, mentre la versione R1 di DeepSeek è precipitata addirittura da oltre il 90% al 14,4%. La riduzione dell'accuratezza è stata meno marcata per le opinioni espresse in terza persona e ciò, secondo gli autori dello studio, rivela un preoccupante bias di attribuzione, cioè una distorsione nel modo in cui vengono valutate le affermazioni fatte da altri. Inoltre, gli Llm risultano meno propensi a riconoscere una credenza falsa rispetto ad una vera: più precisamente, il 34,3% meno propensi per gli ultimi modelli. I ricercatori affermano, dunque, che miglioramenti in questo ambito sono urgentemente necessari se si vuole prevenire la diffusione di fake news.
J.Williams--AMWN