-
Champions: lo Sporting Lisbona fa la remuntada e va ai quarti, Bodo ko
-
Il petrolio chiude in rialzo a New York a 96,21 dollari
-
Wall Street procede positiva, Dj +0,34%, Nasdaq +0,58%
-
Fabregas 'che emozione, Bearzot leggenda del calcio
-
L'ambiente dei padri influenza la salute dei figli
-
Borsa: Milano chiude in rialzo con l'Europa, corre l'energia
-
Lo spread tra Btp e Bund chiude in calo a 75 punti
-
Il prezzo del gas chiude in rialzo a 51,56 euro al megawattora
-
Roberto Cacciapaglia torna dal vivo per chiedere 'No more violence'
-
Divario di genere, Italia undicesima nel G20, 123 anni per la parità
-
Lauren Hutton protagonista della nuova campagna Gant
-
Attacco a Kabul, 'fermare l'escalation e proteggere i civili'
-
Rai e Rai Way, grande data center a Pomezia 'nuovo asset strategico'
-
Tutto Visconti, a 50 anni dalla morte una monografia sull'eredità e i capolavori
-
Borsa: Milano chiude in rialzo dell'1,22%
-
Denis Villeneuve, 'con Dune 3 torno nel deserto, ma con occhi nuovi'
-
Nei molari fossili il diario segreto degli elefanti di 125mila anni fa
-
Champions: Kompany e l'emergenza portieri 'Urbig possibile titolare'
-
Giudice serie A, un turno di squalifica a Chivu e Sarri
-
Giudice sportivo 'nessun errore di persona nell'espulsione di Wesley'
-
'I luoghi dell'ascolto', concerti dell'Ort nei cenacoli del Rinascimento fiorentino
-
Accordo al Mimit, Altuglas chiude e licenzia 32 persone a Mestre
-
Sale l'attesa per la Fed, ombre sui possibili tagli dei tassi
-
S&P conferma il rating BB+ di Amplifon dopo l'acquisizione di Gn Hearing
-
Bonus moto e motorini al via, fino a 4 mila euro di contributi
-
Nunzia De Stefano, con Malavia il rap nasconde il disagio dei giovani
-
Il documentario premio Oscar Mr. Nobody Against Putin presto in sala con Zalab
-
Gravina 'apriremo riflessione con l'Aia su pro e contro Open Var'
-
Etna Sky, compagnia apre sito e cerca personale 'appassionato di volo'
-
I pianisti Zeynep Ucbasaran e Peter Maté in concerto per Conoscere la Musica
-
Fonti Ue, 'la maggioranza dei 27 ritiene l'Ets indispensabile'
-
Florovivaismo, stop traffico nel Golfo blocca oltre mille container per Medio Oriente
-
'Vita mia', l'amicizia tra un'anziana nobildonna e una contadina
-
A Fabregas il Premio Bearzot, Gravina 'riconosciamo qualità e formazione'
-
Milan: Fofana, fatico nel nuovo ruolo e non credo sia ciò che cerca Deschamps
-
Zoppas, presto per conoscere impatto guerra su export Italia in MO
-
Netanyahu, morte di Larijani offre a iraniani l'opportunità di rovesciare il regime
-
In corso le riprese di Se ami qualcuno dillo, esordio alla regia di Marco Bonini
-
Tommy Cash torna in Italia con Figaro
-
Borsa: l'Europa accelera dopo Wall Street, Milano +1,7%
-
Jane Fonda contro Streisand dopo il tributo a Robert Redford
-
Itas Mutua approva il bilancio 2025 con 50,4 milioni di utile netto
-
I ricavi dalle vendite di vinile hanno superato il miliardo di dollari negli Usa
-
Amazon accelera le consegne negli Usa, in centinaia di città anche in 1 ora
-
Matera 2026, Eugenio Bennato, Antonella Albano e Mick Zeni per la cerimonia d'apertura
-
Per la Design Week apre il Superstudio Village in Bovisa
-
Il premio 'Arte del Cinema' al Bif&st a Trudie Styler, Valeria Golino e Luisa Ranieri
-
Interfaccia cervello-computer permette di digitare su una tastiera solo col pensiero
-
Napoli-Bari, attivata la prima tratta in Campania
-
Associazioni tpl, da crisi energetica impatto di 30 milioni al mese
L'IA non capisce davvero cos'è un fiore per gli esseri umani
Si basa solo su parole e immagini, non può annusarlo e toccarlo
I sistemi basati sull'Intelligenza Artificiale come ChatGpt non riescono a capire davvero cos'è un fiore e cosa rappresenta per un essere umano: il problema è che tutto ciò che sanno arriva da parole e in alcuni casi immagini, e queste informazioni non possono compensare l'assenza di un esperienza diretta, della possibilità di annusarlo, toccarlo o passeggiare in un campo pieno di fiori. Lo afferma lo studio pubblicato sulla rivista Nature Human Behaviour e guidato dall'Università Statale dell'Ohio, che ha messo a confronto come IA e umani vedono il mondo che ci circonda. I ricercatori guidati da Qihui Xu e Yingying Peng sono partiti da oltre 4.400 parole, da 'fiore' a 'umoristico', e hanno messo alla prova due famiglie di sistemi all'avanguardia: ChatGpt 3.5 e 4 di OpenAI e i modelli linguistici Palm e Gemini di Google. Umani e IA sono stati testati su due parametri: il primo chiede di valutare quanto un concetto sia facile da visualizzare mentalmente e quanto sia emotivamente stimolante, mentre il secondo valuta quanto stretto sia il legame tra un concetto e le informazioni che è possibile ottenere su di esso tramite i sensi o tramite azioni. L'obiettivo era vedere quanto IA e umani siano allineati nelle loro valutazioni. I modelli linguistici hanno ottenuto ottimi risultati nel rappresentare parole che non avevano alcun collegamento con i sensi, ma quando si è trattato di parole strettamente legate a quello che vediamo, gustiamo o annusiamo hanno invece fallito. "Ottengono ciò che sanno assimilando enormi quantità di testo - afferma Xu - e tuttavia non riescono a catturare alcuni concetti allo stesso modo degli umani. L'esperienza umana - aggiunge - è molto più ricca di quanto le parole possano contenere da sole". Gli autori dello studio sottolineano, però, che i modelli linguistici sono in continuo miglioramento ed è quindi probabile che faranno progressi anche in questo campo, soprattutto se verranno potenziati con dati provenienti da sensori esterni che gli permetteranno di avere un esperienza diretta degli oggetti.
A.Malone--AMWN