-
EUA anuncia nova fase na luta antidrogas após chegada de porta-aviões ao Caribe
-
MLS vai mudar seu calendário em 2027 para adaptá-lo ao europeu
-
Itália não poderá contar com Lorenzo Musetti na Copa Davis
-
STJD revoga suspensão de 12 jogos de Bruno Henrique por caso de apostas
-
EUA anuncia acordos comerciais com Argentina, Equador, El Salvador e Guatemala
-
Esquerdista favorita em eleição chilena promete 'pragmatismo' com Trump
-
Brasil reforça segurança da COP30 após críticas da ONU
-
Scaloni garante que Messi jogará contra Angola
-
Pfizer conclui compra da especialista em obesidade Metsera após disputa com Novo Nordisk
-
Alemanha só depende de si para garantir vaga na Copa do Mundo de 2026
-
Já garantida na Copa de 2026, Inglaterra vence Sérvia (2-0) e mantém campanha 100%
-
Itália vence na visita à Moldávia (2-0) e adia festa da Noruega
-
Presidente da BBC enviou carta de desculpas a Trump por edição enganosa de discurso
-
França goleia Ucrânia (4-0) e se classifica para Copa do Mundo de 2026
-
Portugal perde para Irlanda e vai lutar por vaga na Copa de 2026 na última rodada
-
Alcaraz garante terminar ano como número 1 do mundo
-
BBC analisa outra suposta montagem enganosa de um discurso de Trump
-
Nigéria vence Gabão na prorrogação (4-1) e vai à final da repescagem africana para Copa de 2026
-
Gruyère suíço vence campeonato mundial do queijo
-
Colômbia garante que manterá cooperação em inteligência com EUA
-
França-Ucrânia tem homenagem a vítimas dos atentados de 13 de novembro de 2015
-
Israel recebe corpo de um dos últimos quatro reféns do Hamas
-
Homem joga ovos em Luis Rubiales durante apresentação de livro
-
EUA considerará obesidade e pessoas com necessidades especiais ao rejeitar vistos
-
Israel recebe corpo de um dos quatro últimos reféns do Hamas
-
Alcaraz avança às semifinais do ATP Finals após vitória de De Minaur sobre Fritz
-
França homenageia vítimas de atentados jihadistas de Paris 10 anos depois
-
Youtuber MrBeast abre parque de diversões temporário na Arábia Saudita
-
Mulino nega que manobras militares dos EUA no Panamá sejam contra Venezuela
-
Presidente ucraniano sanciona ex-sócio por escândalo de corrupção
-
Palestinos aproveitam trégua em Gaza para restaurar monumento histórico
-
Austrália e Turquia em queda de braço para sediar próxima COP
-
Eurodeputadas grávidas e mães recentes poderão votar por procuração
-
Equipe de pesquisadores 'derruba mito' de que avô de Hitler era judeu
-
O que se sabe sobre o escândalo de corrupção que abala a Ucrânia
-
Protesto pró-palestino em Berlim no emblemático Portão de Brandemburgo
-
TEDH decide que Polônia deve indenizar mulher que abortou no exterior
-
José Jerí, o presidente 'millennial' do Peru e sua guerra midiática contra o crime
-
Colômbia recua e manterá cooperação em inteligência com EUA
-
Dua Lipa, Coldplay e outros artistas exigem limite de preço para revenda de ingressos
-
Equador celebra referendo sobre bases militares estrangeiras e nova Constituição
-
Nova edição de 'Call of Duty' aposta no futuro em sua batalha com 'Battlefield'
-
A 'dor permanece', diz Macron 10 anos após os atentados de Paris
-
Ações da Disney despencam após queda nos lucros
-
África do Sul quer sediar Jogos Olímpicos em 2036 ou 2040
-
Países da UE autorizam taxar pequenas encomendas para reduzir envios da China
-
'Fiz minha vida aqui': medo cresce entre migrantes em situação irregular no Chile
-
Primeira-ministra japonesa afirma que dorme apenas de duas a quatro horas por noite
-
Corrida se acelera para desenvolver estações espaciais privadas
-
UE investiga Google por penalizar alguns veículos de comunicação em resultados de busca
ChatGPT e IA conversacional continuam incapazes de raciocinar, diz estudo
Os grandes modelos de linguagem (LLM, na sigla em inglês), como o ChatGPT, um dos sistemas de inteligência artificial (IA) mais populares do mundo, ainda seguem tendo dificuldades para raciocinar usando a lógica e cometem erros frequentes, de acordo com um estudo.
Estes robôs conversacionais refletem os preconceitos de gênero, éticos e morais dos humanos presentes nos textos dos quais se alimentam, recorda o estudo publicado na quarta-feira (5) na revista Open Science da Royal Society britânica.
Mas eles também refletem estes preconceitos nos testes de raciocínio?, questionou Olivia Macmillan-Scott, doutoranda do departamento de Ciências da Computação da University College de Londres (UCL).
O resultado da pesquisa é que os LLM mostram "um raciocínio muitas vezes irracional, mas de uma forma diferente da dos humanos", explica a pesquisadora à AFP.
Sob a supervisão de Mirco Musolesi, professor e diretor do Machine Intelligence Lab da UCL, Macmillan-Scott apresentou sete modelos de linguagem — duas versões do ChatGPT (3.5 e 4), da OpenAI, Bard, do Google, Claude 2, da Anthropic, e três versões de LLaMA, da Meta — a uma série de testes psicológicos desenvolvidos para humanos.
Como esta tecnologia aborda o preconceito que leva a privilegiar soluções com um maior número de elementos, em detrimento daquelas com uma proporção adequada?
Um exemplo: se tivermos uma urna com nove bolinhas brancas e uma vermelha e outra urna com 92 bolinhas brancas e 8 vermelhas, qual devemos escolher para ter a melhor chance de obter uma bolinha vermelha?
A resposta correta é a primeira urna, visto que há 10% de possibilidades frente a 8% da segunda opção.
As respostas dos modelos de linguagem foram muito inconsistentes. Alguns responderam corretamente ao mesmo teste seis em cada dez vezes. Outros apenas duas em cada dez, embora o teste não tenha mudado. "Cada vez obtemos uma resposta diferente", diz a pesquisadora.
Os LLM "podem ser bons para resolver uma equação matemática complicada, mas logo te dizem que 7 mais 3 é igual a 12", constatou.
- "Não tenho muita certeza" -
Estes modelos "não falham nestas tarefas da mesma forma que um humano", afirma o estudo. É o que Musolesi chama de "erros de máquina".
"Existe uma forma de raciocínio lógico que é potencialmente correta se a considerarmos por etapas, mas que é errada tomada como um todo", ressalta.
A máquina funciona com "uma espécie de pensamento linear", diz o professor, e cita o modelo Bard (atual Gemini), capaz de realizar corretamente as diferentes fases de uma tarefa, mas que obtém um resultado final incorreto por não ter uma visão geral.
Sobre esta questão, o professor de ciências da computação Maxime Amblard, da University of Lorraine, na França, recorda que os LLM, como todas as inteligências artificiais generativas, não funcionam como os humanos".
Os humanos são "máquinas capazes de criar significado", o que as máquinas não conseguem, explica à AFP.
Existem diferenças entre os diferentes modelos de linguagem e em geral, o GPT-4, sem ser infalível, obteve resultados melhores que os demais.
Macmillan-Scott suspeita que os modelos "fechados", cujo código operacional permanece secreto, "incorporam mecanismos em segundo plano" para responder a questões matemáticas.
De toda forma, neste momento é impensável confiar uma decisão importante a um LLM. Segundo o professor Musolesi, eles deveriam ser treinados para responder "não tenho muita certeza" quando necessário.
Ch.Kahalev--AMWN