-
Cagliari: Pisacane "peccato, volevamo una classifica più serena"
-
Sassuolo: Grosso 'primo tempo bloccato, meglio nella ripresa'
-
Masters Parigi: Sonego battuto, Medvedev va ai quarti
-
Masters Parigi: Sinner, domani devo alzare il livello
-
Tennis: Sinner batte Cerundolo e va ai quarti a Parigi
-
Serie A: Cagliari-Sassuolo 1-2
-
Verso vetri super-resistenti grazie a un nuovo cristallo di boro
-
William e Kate vincono causa su privacy violata da Paris Match
-
Al Jazeera, attacchi aerei israeliani nel sud di Gaza
-
Van Cleef Arpels al metropolitan Teien Art Museum di Tokyo
-
Auto: la 63ª Alghero Scala Piccada alza il sipario
-
Borsa: Milano debole con crollo Stellantis, vola Campari, ok Tim
-
L'Argentina ricorda il compleanno di Maradona, è 'amore eterno'
-
A San Paolo Entro le Mura sfila RomaFashion White n.18
-
Roma: trauma distorsivo caviglia per Ferguson, out con il Milan
-
Calcio: Spalletti alla Juve, domani la presentazione
-
Spalletti ha firmato, è il nuovo tecnico della Juventus
-
Il gas conclude in forte calo (-2,5%) a 31 euro al Megawattora
-
Parisi,'non sovrapporre complessità della fisica a quella umana'
-
Onu, 'test nucleari non devono mai essere consentiti'
-
Dal 16 al 20 gennaio torna Vicenzaoro
-
Pugilato: la grande boxe torna all'Allianz Cloud di Milano
-
Liverpool crisi senza fine, fuori anche dalla Coppa di Lega
-
Omaggio di Napoli, cene solidali e arte per 65 anni di Maradona
-
Milan: Leao non si allena in gruppo, in dubbio per la Roma
-
Inter, metà allenamento in gruppo per Thuram
-
Mostra, film e gala per la Scala in America
-
Artico, scoperti batteri 'impossibili' che influiscono sul clima
-
Doping: 'La potenza dello sport, la scelta di dire no'
-
Sefcovic, 'da accordo Usa-Cina implicazioni per l'Ue'
-
Venezia Sounds, raccolti 158mila euro per la ricerca oncologica
-
Calcio: Haaland beve latte crudo, é polemica in Inghilterra
-
Ultimo saluto a James Senese sulle note di Chi tene 'o mare
-
Confindustria, Orsini incontra il commissario Ue Šefčovič
-
Israele, consegnati due corpi di ostaggi da Hamas
-
Aliassime ai quarti a Parigi, corsa su Musetti per le Atp Finals
-
Nissan prevede perdita annuale di 1,54 miliardi di euro
-
Michele Uva scelto da Time, è tra i 100 più influenti sul clima
-
Paunovic nominato commissario tecnico della Serbia
-
Ponte: sindaco Villa S.G., non sorpresi da Corte dei conti
-
Maurizio Sella lascia la presidenza di Banca Sella
-
Panetta, da tassa sulle banche no rischi di instabilità
-
Scoperto sulle Ande uno dei dinosauri più antichi al mondo
-
Brevetti italiani, primo censimento storico al femminile
-
Regione Liguria e Portofino invitano Taylor Swift nel borgo
-
Roma Jazz Festival, apertura con il batterista Makaya McCraven
-
Calcio: c'è ancora Brambilla a dirigere allenamento della Juve
-
Gucci lancia la linea da sci, Sinner protagonista della campagna
-
I Negramaro annunciano il tour estivo, poi una lunga pausa
-
Stellantis crolla in Borsa (-10%) dopo i conti
Scienziati sollecitano i Paesi Onu, 'limiti a usi pericolosi IA'
'Agire entro 2026 o difficile controllo umano significativo'
Oltre 200 personalità di spicco tra cui premi Nobel e ricercatori che lavorano presso giganti dell'Intelligenza artificiale come Anthropic, Google, Microsoft e OpenAI, hanno firmato il documento 'Global Call for AI Red Lines' rivolto ai Paesi presenti all'Assemblea Generale delle Nazioni Unite in cui invitano a stabilire rapidamente, entro il 2026, 'linee rosse' da non oltrepassare per l'IA e gli usi pericolosi. "L'Intelligenza artificiale ha un immenso potenziale per migliorare il benessere umano, ma la sua attuale traiettoria presenta pericoli senza precedenti - si legge nel documento che tra i firmati vede Geoffrey Hinton e Yoshua Bengio, considerati tra i padri dell'IA -. I governi devono agire con decisione prima che si chiuda la finestra per un intervento significativo". Secondo gli autori della lettera, le 'linee rosse' per l'IA sarebbero divieti concordati a livello internazionale su usi considerati troppo rischiosi tra cui l'affidamento all'intelligenza artificiale del comando di arsenali nucleari o di qualsiasi tipo di sistema d'arma autonomo letale. Oppure l'uso dell'IA per la sorveglianza di massa, gli attacchi informatici e i deepfake. I firmatari del messaggio hanno esortato i governi a stabilire limiti all'IA entro la fine del prossimo anno dato il ritmo a cui avanza la tecnologia. "L'Intelligenza artificiale potrebbe presto superare di gran lunga le capacità umane e aumentare rischi come pandemie ingegnerizzate, disinformazione diffusa, manipolazione su larga scala di individui, compresi i bambini, problemi di sicurezza nazionale e internazionale, disoccupazione di massa e sistematiche violazioni dei diritti umani", si legge nella lettera. "Se non si interviene, molti esperti compresi quelli in prima linea nello sviluppo, avvertono che diventerà sempre più difficile esercitare un controllo umano significativo nei prossimi anni".
B.Finley--AMWN