-
Nuovo accordo Ansaldo-Nuward per i piccoli reattori nucleari
-
Bankitalia, oscurato sito che utilizzava nostro logo
-
EdiliziAcrobatica, 119 milioni ricavi nei primi nove mesi 2025
-
Gava, 280 milioni per la bonifica dei siti inquinati
-
Accordo FITP-Sport e Salute sulla gestione del Foro Italico
-
Un gene amico del cuore aiuta a ripararlo dopo un infarto
-
Tennis: Sinner 'Finals speciali, darò il meglio di me'
-
Via libera Cdm a decreto contro i messaggi green ingannevoli
-
Mef, entrate primi 9 mesi salgono a 426,9 miliardi (+2%)
-
Corridoio indo-europeo si allarga, all'Egitto un ruolo chiave
-
Last Swim, il film d'esordio di Sasha Nathwani su RaiPlay
-
'Lux', ultimo album di Rosalia piratato online prima del lancio
-
Mamdani, Casa Bianca non mi ha chiamato per congratularsi
-
Borsa: Milano chiude in rialzo (+0,41%)
-
Anci, 'pesanti criticità per Comuni, servizi a rischio'
-
ANSA/ Carbonia ieri e oggi nella visione di Giorgio Ferrero
-
Marco Mengoni interpreta Coming home per Amazon Music
-
Angelina Jolie a sorpresa a Kherson, visita malati in ospedale
-
Tennis: Atene, Darderi esce subito
-
Bombardieri, no rottamazione per chi non ha pagato le tasse
-
Nasce l'osservatorio Blue Economy di Intesa Sanpaolo-Bocconi
-
Borsa: l'Europa gira in rialzo con Wall Street, Milano +0,3%
-
Usa il latte la lingua artificiale che assaggia i cibi piccanti
-
L 'esercito delle ancelle' di Atwood a Washington contro Trump
-
Fast Forward Foundation, al via accordo sui pagamenti digitali
-
Europa League: Bologna-Brann, Italiano torna in panchina
-
Rockin'1000 annuncia primo concerto allo stadio di Torino
-
Da Fellini ai Taviani, il grande cinema italiano al Maxxi
-
Snam chiude i 9 mesi con un utile di oltre 1 miliardo di euro
-
E' addio tra Balmain e Direttore Creativo Olivier Rousteing
-
F1: Vasseur 'Ferrari in Brasile per ottimizzare lo slancio'
-
Geolier, un nuovo singolo dal titolo Fotografia
-
Borsa: l'Europa resta fiacca, a Wall Street i future tengono
-
Il 7 novembre esce 1963-1967 Mina
-
Mcc, utile consolidato 9 mesi sale a 67,5 milioni
-
Il pianista Andrea Vanzo in concerto a Casalecchio di Reno
-
Favino, 'racconto un non vincente come tutti noi'
-
Wta Finals: Paolini ed Errani eliminate nel doppio
-
Kylie Minogue annuncia Kylie Christmas (fully wrapped)
-
Misteriosi avvistamenti nel cielo collegati ai test nucleari
-
Genovese sul set del suo nuovo film, Il rumore delle cose nuove
-
Da Pappano a Lyniv con l'Orchestra Giovanile Italiana
-
Mons. Pagano, 'nessun documento d'archivio su Emanuela Orlandi'
-
A Helen Mirren il Golden Globe alla carriera
-
Venerus, non con poco coraggio, ma ancora 'Speriamo'
-
Negli Usa 36 giorni di shutdown, il più lungo della storia
-
George Lucas scappa dagli Usa, compra a Londra
-
Farnesina, nessuna notizia di altri 5 italiani in Nepal
-
Montecarlo Film Festival, i film in concorso
-
A Pitti Uomo oltre 700 marchi, guest designer è Hed Mayner
L'IA non capisce davvero cos'è un fiore per gli esseri umani
Si basa solo su parole e immagini, non può annusarlo e toccarlo
I sistemi basati sull'Intelligenza Artificiale come ChatGpt non riescono a capire davvero cos'è un fiore e cosa rappresenta per un essere umano: il problema è che tutto ciò che sanno arriva da parole e in alcuni casi immagini, e queste informazioni non possono compensare l'assenza di un esperienza diretta, della possibilità di annusarlo, toccarlo o passeggiare in un campo pieno di fiori. Lo afferma lo studio pubblicato sulla rivista Nature Human Behaviour e guidato dall'Università Statale dell'Ohio, che ha messo a confronto come IA e umani vedono il mondo che ci circonda. I ricercatori guidati da Qihui Xu e Yingying Peng sono partiti da oltre 4.400 parole, da 'fiore' a 'umoristico', e hanno messo alla prova due famiglie di sistemi all'avanguardia: ChatGpt 3.5 e 4 di OpenAI e i modelli linguistici Palm e Gemini di Google. Umani e IA sono stati testati su due parametri: il primo chiede di valutare quanto un concetto sia facile da visualizzare mentalmente e quanto sia emotivamente stimolante, mentre il secondo valuta quanto stretto sia il legame tra un concetto e le informazioni che è possibile ottenere su di esso tramite i sensi o tramite azioni. L'obiettivo era vedere quanto IA e umani siano allineati nelle loro valutazioni. I modelli linguistici hanno ottenuto ottimi risultati nel rappresentare parole che non avevano alcun collegamento con i sensi, ma quando si è trattato di parole strettamente legate a quello che vediamo, gustiamo o annusiamo hanno invece fallito. "Ottengono ciò che sanno assimilando enormi quantità di testo - afferma Xu - e tuttavia non riescono a catturare alcuni concetti allo stesso modo degli umani. L'esperienza umana - aggiunge - è molto più ricca di quanto le parole possano contenere da sole". Gli autori dello studio sottolineano, però, che i modelli linguistici sono in continuo miglioramento ed è quindi probabile che faranno progressi anche in questo campo, soprattutto se verranno potenziati con dati provenienti da sensori esterni che gli permetteranno di avere un esperienza diretta degli oggetti.
A.Malone--AMWN