
-
Borsa: Hong Kong poco mossa, apre a -0,09%
-
Il governo Trump taglia le sovvenzioni ad Harvard
-
Venezuela, parenti dei detenuti politici davanti alle ambasciate
-
Basket: Nba, Atkinson dei Cavs eletto allenatore dell'anno
-
Trump: annuncerò dazi sui farmaci entro due settimane
-
Allarme di Elkann e De Meo sul futuro dell'auto europea
-
Governo Trump, 'archiviare il caso contro la pillola abortiva'
-
Anna Wintour, col Gala del Met al fianco della black community
-
Capo Pentagono ordina un taglio del 20% di generali a 4 stelle
-
Al Ferraris il Milan batte il Genoa in rimonta
-
Media Houthi, 2 morti e 42 feriti nell'attacco israeliano
-
Israele colpisce lo Yemen dopo missile degli Houthi a aeroporto
-
Guterres, 'allarmato dal piano di Israele di conquistare Gaza'
-
Parata stelle a Roma per via programmazione estiva Sky Sport
-
Trump, 'la mia foto da Papa? Ai cattolici è piaciuta'
-
Newsom, 'Trump non ha autorità per porre dazi su film stranieri'
-
Fedriga, Fvg può collegare Centro e Sud Europa con Asia
-
Calcio: Spalletti, "De Laurentiis? Avrei preferito più umanità"
-
Elkann e De Meo, destino auto europea si gioca quest'anno
-
Cresce in Ue la merce trasportata su gomma
-
Arriva in Friuli Folkest 2025, il festival curioso del mondo
-
Raf a teatro con 'Self control', c'è voglia di anni '80
-
Fiera Verona chiude miglior bilancio di sempre, utile +150%
-
Ita, Ebit 2024 per la prima volta positivo a 3 milioni
-
Gravina 'calcio femminile serve a tutto il movimento'
-
Conference: Fiorentina, ora testa al Betis in palio la finale
-
Moya, "Alcaraz se fa quella vita non può essere il migliore"
-
Champions: Flick, Lewandowski partirà dalla panchina
-
Champions: Dani Olmo, possiamo tornare a fare la storia
-
Mattarella, grave errore lasciare a IA scelta di vita o di morte
-
Operaio muore folgorato da una scarica elettrica
-
Microaghi di seta per le verdure del futuro, iniettano vitamine
-
Il prezzo del gas chiude in calo a ridosso dei 33 euro
-
Borsa: Milano chiude a +0,39% con Generali, Unipol e Mediobanca
-
Oltre 4mila agenti per l'insediamento del nuovo Papa
-
Lo spread tra Btp e Bund chiude in calo a 108,6 punti
-
Ermal Meta si esibirà a Lunaria 2025, il 2 agosto a Recanati
-
Borsa: l'Europa chiude positiva con Francoforte a +1,22%
-
Urso, 'l'Italia e la Norvegia insieme nella sfida spaziale'
-
Borsa: Milano chiude in rialzo dello 0,39%
-
La Nueva Ola, al via festival cinema spagnolo e latinoamericano
-
Borsen Zeitung, con Messina risultati record per Intesa Sanpaolo
-
Achille Lauro incontra e abbraccia una fan di quasi 101 anni
-
Trump, parlato con Erdogan, guerra in Ucraina deve finire
-
Impianti solari europei minacciati dalla sabbia del Sahara
-
Netanyahu, siamo alla vigilia di un'invasione massiccia a Gaza
-
Champions: Lautaro verso recupero, si allena in gruppo
-
Nel primo trimestre sono 205 le denunce morti lavoro, +8,37%
-
Salvini, 'tra alcune settimane al via lavori ponte Stretto'
-
Carmen Consoli, Balistreri rivoluzionaria contro il patriarcato

Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
O.Norris--AMWN