-
L'Indonesia nomina l'ex presidente Suharto 'eroe nazionale'
-
Scontri in carcere in Ecuador, almeno 31 morti
-
'Raggiunto l'accordo per mettere fine allo shutdown'
-
Sarri, è ora di pensare a noleggiare arbitri dall'estero
-
Atalanta; ore decisive per Juric, Palladino pronto
-
Serie A: Inter-Lazio 2-0, nerazzurri in testa con la Roma
-
Trump attacca i vertici della Bbc, 'giornalisti corrotti'
-
F1: Brasile;Leclerc e suo ritiro 'sono inc... Piastri ottimista'
-
Roma, problema al quadricipite per Dovbyk
-
Media, 'Senato Usa vicino ad accordo per fine shutdown'
-
Calcio: il City asfalta il Liverpool e va a -4 dall'Arsenal
-
Finals: Bolelli/Vavassori 'match giocato in nostra top 5'
-
Gasperini 'primato motivo orgoglio, giusto tifosi Roma sognino'
-
Mondiali: Kean salta Moldavia e Norvegia, al suo posto Cambiaghi
-
Oltre 1.600 voli cancellati oggi negli Usa per lo shutdown
-
Genoa: De Rossi 'abbiamo lottato con i denti, ripartiamo da qui'
-
F1: Brasile; vince McLaren Norris, 2/a Mercedes Antonelli
-
Finals: doppio, Bolelli/Vavassori show contro i n.1 al mondo
-
Paradiso, 'anche il ricordo della scuola con me sul palco'
-
Conte deluso 'non posso fare un trapianto di cuore alla squadra'
-
F1:Brasile; contatto con Antonelli, Ferrari Leclerc subito fuori
-
Esn arriva in Italia, integrazione sportiva debutta a Milano
-
Segretario Trasporti Usa, 'il traffico aereo si ridurrà a zero'
-
Kiev, in 100.000 senza luce e gas nel Kharkiv per raid russi
-
Sanchez, porterò a termine legislatura e mi ricandiderò nel '27
-
'Mezzogiorno', con lo chef Mazzei nuovo angolo d'Italia a Londra
-
Finals: Alcaraz 'primo incontro mai facile, sono contento'
-
Fieracavalli chiude con oltre 140mila visitatori
-
Serie A: il Bologna batte 2-0 il Napoli, Genoa-Fiorentina 2-2
-
Finals: Auger-Aliassime 'stimolante iniziare contro Sinner'
-
Juric 'Atalanta non all'altezza, responsabilità è del tecnico'
-
Francobollo per 160 anni del Sole 24 Ore, 'dedicato ai lettori'
-
All'esordio Alcaraz soffre ma supera De Minaur
-
Sassuolo: Grosso, livello si è alzato ma noi anche fortunati
-
Modenese morto in Algeria, società dell'hotel condannata
-
A Tommy Mauri la settima edizione di ProSceniUm
-
Gp Brasile: Verstappen cambia motore, partirà dalla pit lane
-
Cyndi Lauper, Outkast, White Stripes nella Rock Hall of Fame
-
Taekwondo: conclusi Assoluti, assegnati ultimi titoli a Messina
-
MotoGp: Bezzecchi "gara fantastica, vittoria davvero goduta"
-
Axios,5 miliardi di armi Usa per Kiev bloccate da shutdown
-
Wicked - Parte 2, tornano in sala le streghe di Oz
-
'With Hasan in Gaza' vince al Festival dei Popoli
-
MotoGp: Bezzecchi vince in Portogallo, caduta per Bagnaia
-
Serie A: Atalanta-Sassuolo 0-3
-
Finals: esordio vincente nel doppio per Granollers-Zeballos
-
Giorgetti, 'su manovra massacrati da chi può farlo'
-
Scala, Chailly 'Lady Macbeth Šostakovič opera straordinaria'
-
Moto: Morerira vince a Portimao, titolo Moto2 a un passo
-
Pichetto, 'confermo parte Dl Energia sulla rete al prossimo Cdm'
Minerva 7B, nuova versione della risposta italiana a ChatGpt
Ha 7 miliardi di parametri, più del doppio di quella precedente
Minerva, la risposta italiana all'Intelligenza Artificiale come ChatGpt, cresce e diventa più sicura: si chiama Minerva7B, dove 7B sta per 7 miliardi di parametri, più del doppio di quella precedente. L'ultima versione dell'Intelligenza Artificiale interamente addestrata da zero in italiano, sotto la guida di Roberto Navigli del Natural Language Processing dell'Università Sapienza di Roma, è stata presentata oggi nella stessa università. Accessibile per tutti all'indirizzo https://minerva-llm.org , Minerva7B è un progetto sviluppato dal gruppo di ricerca Sapienza Nlp all'interno del Future Artificial Intelligence Research, il progetto che realizza la strategia nazionale sull'intelligenza artificiale grazie ai fondi Pnrr, e in collaborazione con Cineca che ha reso disponibile il supercomputer Leonardo. "Oggi presentiamo il primo modello pre-addestrato in lingua italiana stile ChatGpt, quindi un modello linguistico, che si chiama Minerva 7B", ha detto Navigli. "E' un modello che è addestrato anche per rispondere a domande e istruzioni, comandi ed è particolarmente interessante perché abbiamo fatto un lavoro importante sulla sicurezza del modello, la cosiddetta safety, cioè la capacità del modello di evitare e rispondere a domande che potrebbe portare alla generazione di contenuti indesiderati o malevoli". Evoluzione e miglioramento del precedente modello che contava 3 miliardi di parametri, Minerva 7B ha una maggior capacità di memorizzazione e rielaborazione dei testi, sempre basata su fonti aperte di dati che spaziano da Wikipedia e grandi archivi aperti di libri come il progetto Gutemberg. "A differenza di ChatGpt o Gemini, che sono modelli chiusi così come anche Mistral o Llama3 che sono scaricabili, Minerva appartiene a quella ristretta famiglia di modelli aperti, ossia che è possibile analizzare liberamente", ha aggiunto Navigli. .
M.Thompson--AMWN