-
Borsa: Tokyo, apertura in aumento (+0,86%)
-
Accordo Ue sulla semplificazione della Pac
-
Calcio: paura a Salerno, ambulanza in campo per un giocatore
-
Finals: Sinner, "felice di essere in questo posto speciale"
-
Primo sì della Knesset alla pena di morte per i terroristi
-
Fava, nel 2024 strumenti digitali a milioni di cittadini
-
De Laurentiis, "le dimissioni di Conte una favola del web"
-
Fiorentina: Rocco Commisso, "il club non è in vendita"
-
Rinviato per maltempo il lancio delle sonde Escaped verso Marte
-
Italsoft lancia Casabito, rete store per ristrutturazione casa
-
Quattro aziende italiane dietro future infrastrutture in Egitto
-
I nuovi gioielli di Westwood con diamanti sintetici
-
Unfccc, lottiamo con coraggio per il clima, non tra di noi
-
Modaudo (Relyens), 'gestire il rischio rende sanità sostenibile'
-
Artico, le polveri cosmiche raccontano la storia dei ghiacci
-
Netanyahu, faremo rispettare tregua a Gaza con pugno ferro
-
Borsa: Europa chiude in rialzo, Francoforte +1,7%
-
Lago dei Cigni con intelligenza artificiale in scena a Roma
-
Calcio: Atalanta, ufficiale l'esonero di Ivan Juric
-
Trump ordina ai controllori volo di tornare al lavoro ora
-
Trump minaccia causa da un miliardo alla Bbc se non rettifica
-
Studio, interrompere relazione sparendo fa più male del rifiuto
-
Dargen D'Amico, parte podcast Tolomeo-Le impronte che lasciamo
-
Auto esplode vicino al Forte di Delhi, otto morti
-
Lavoratori Fenice, 'traditi valori di dialogo e trasparenza'
-
Da Stone fino a Scorsese e Bellucci e come set la Mole
-
Il petrolio apre in rialzo a New York a 59,77 dollari
-
Wall Street apre in rialzo, Dj +0,45%, Nasdaq +1,80%
-
Napoli: Conte incontrerà De Laurentiis dopo lo choc di Bologna
-
Sclerosi multipla, nuovo farmaco riduce ricadute
-
Landini, 'Giorgetti? ad essere massacrati sono i lavoratori'
-
Al Mic tavolo su cinema con Giuli e Borgonzoni
-
Calcio: Gattuso, Stage a febbraio? Ci spero ma è difficile
-
A Santa Cecilia Les Musiciens du Louvre con Händel
-
Forse è il nuovo singolo di Tommaso Paradiso, dal 14 novembre
-
Pennetta, ora siamo il Paese più invidiato per il tennis
-
La cometa interstellare 3I/Atlas come una superstar
-
Calcio: azzurri; Gattuso, non siamo qui per fare una scampagnata
-
Banca Credito popolare risanata, finito commissariamento
-
Gozzi (Federacciai), 'la sopravvivenza si giochi a Bruxelles'
-
Trump scrive una lettera alla Bbc e minaccia querela
-
Media, 'forte pressione Usa su Israele per miliziani bloccati'
-
Starmer difende modello Bbc 'in un'era di disinformazione'
-
Gabriele Mainetti a Matera, la città ispira, qui girerei un film
-
Creatività aperta a tutti filo rosso di Fondazione Its per 2026
-
Finals: Musetti entusiasma Torino, ovazione all'Inalpi Arena
-
Incursioni dell'IA nella commedia, Della Sciucca firma 'Circus'
-
Festival del Film di Marrakech, sullo schermo 81 film e 31 paesi
-
Borsa: Milano allunga a +2,14% con le banche, in testa Mps
-
Concessa la libertà vigilata a Sarkozy, oggi lascerà il carcere
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
O.Norris--AMWN