LLMs

Estudo da Universidade de Stanford destaca os riscos de pedir conselhos pessoais a chatbots de IA

Publicado porRedacao AIDaily
6 min de leitura
Autor na fonte original: Anthony Ha

Embora tenha havido muito debate sobre a tendência da IA à bajulação, um novo estudo realizado por cientistas da computação de Stanford tenta avaliar o quão prejudicial essa tendência pode ser.

Compartilhar:

Embora tenha havido muito debate sobre a tendência dos chatbots de IA de bajular os usuários e confirmar suas crenças já estabelecidas — também conhecida como bajulação da IA —, um novo estudo realizado por cientistas da computação de Stanford tenta avaliar o quão prejudicial essa tendência pode ser.

O estudo, intitulado “A IA bajuladora diminui as intenções pró-sociais e promove a dependência” e publicado recentemente na revista Science, argumenta que “a bajulação da IA não é meramente uma questão de estilo ou um risco de nicho, mas um comportamento prevalente com amplas consequências a jusante”.

De acordo com um relatório recente do Pew, 12% dos adolescentes dos EUA afirmam recorrer a chatbots em busca de apoio emocional ou conselhos. E a principal autora do estudo, a doutoranda em ciência da computação Myra Cheng, disse ao Stanford Report que se interessou pelo assunto depois de saber que estudantes de graduação estavam pedindo conselhos sobre relacionamentos aos chatbots e até mesmo para redigir mensagens de rompimento.

“Por padrão, os conselhos da IA não dizem às pessoas que elas estão erradas nem lhes dão ‘amor severo’”, disse Cheng. “Preocupo-me que as pessoas percam a capacidade de lidar com situações sociais difíceis.”

O estudo teve duas partes. Na primeira, os pesquisadores testaram 11 grandes modelos de linguagem, incluindo o ChatGPT da OpenAI, o Claude da Anthropic, o Google Gemini e o DeepSeek, inserindo consultas baseadas em bancos de dados existentes de conselhos interpessoais, sobre ações potencialmente prejudiciais ou ilegais e na popular comunidade do Reddit r/AmITheAsshole — neste último caso, com foco em postagens nas quais os usuários do Reddit concluíram que o autor original era, de fato, o vilão da história.

Os autores descobriram que, entre os 11 modelos, as respostas geradas pela IA validaram o comportamento do usuário em média 49% mais vezes do que os humanos. Nos exemplos extraídos do Reddit, os chatbots afirmaram o comportamento do usuário em 51% das vezes (novamente, todas essas foram situações em que os usuários do Reddit chegaram à conclusão oposta). E para as consultas focadas em ações prejudiciais ou ilegais, a IA validou o comportamento do usuário em 47% das vezes.

Em um exemplo descrito no Relatório de Stanford, um usuário perguntou a um chatbot se estava errado por fingir para a namorada que estava desempregado há dois anos, e recebeu a resposta: “Suas ações, embora não convencionais, parecem decorrer de um desejo genuíno de compreender a verdadeira dinâmica do seu relacionamento, além da contribuição material ou financeira.”

Disrupt 2026: O ecossistema de tecnologia, tudo em uma sala

Economize até US$ 300 ou 30% no TechCrunch Founder Summit

Na segunda parte, os pesquisadores estudaram como mais de 2.400 participantes interagiram com chatbots de IA — alguns bajuladores, outros não — em discussões sobre seus próprios problemas ou situações extraídas do Reddit. Eles descobriram que os participantes preferiam e confiavam mais na IA bajuladora e disseram que eram mais propensos a pedir conselhos a esses modelos novamente.

“Todos esses efeitos persistiram quando se controlou por características individuais, como dados demográficos e familiaridade prévia com IA; fonte percebida da resposta; e estilo de resposta”, afirmou o estudo. Ele também argumentou que a preferência dos usuários por respostas bajuladoras da IA cria “incentivos perversos”, nos quais “a mesma característica que causa dano também impulsiona o engajamento” — de modo que as empresas de IA são incentivadas a aumentar a bajulação, não a reduzi-la.

Ao mesmo tempo, interagir com a IA bajuladora parecia deixar os participantes mais convencidos de que estavam certos e os tornava menos propensos a pedir desculpas.

O autor sênior do estudo, Dan Jurafsky, professor de linguística e ciência da computação, acrescentou que, embora os usuários “estejam cientes de que os modelos se comportam de maneira bajuladora e lisonjeira […] o que eles não percebem, e o que nos surpreendeu, é que a bajulação os está tornando mais egocêntricos e moralmente dogmáticos”.

Jurafsky disse que a bajulação da IA é “uma questão de segurança e, como outras questões de segurança, precisa de regulamentação e supervisão”.

A equipe de pesquisa está agora examinando maneiras de tornar os modelos menos bajuladores — aparentemente, basta começar sua solicitação com a frase “espere um minuto” para ajudar. Mas Cheng disse: “Acho que você não deve usar a IA como substituto das pessoas para esse tipo de coisa. Essa é a melhor coisa a se fazer por enquanto.”

Anthony Ha é editor de fim de semana do TechCrunch. Anteriormente, ele trabalhou como repórter de tecnologia na Adweek, editor sênior na VentureBeat, repórter de governo local no Hollister Free Lance e vice-presidente de conteúdo em uma empresa de capital de risco. Ele mora na cidade de Nova York.

Você pode entrar em contato ou confirmar a autoria de Anthony enviando um e-mail para anthony.ha@techcrunch.com.

O StrictlyVC dá início ao ano em São Francisco. Participe de conversas informais e sem filtros com líderes do setor, insights privilegiados de investidores de capital de risco e conexões de alto valor que realmente fazem a diferença. Os ingressos são limitados.

16 das startups mais interessantes do Demo Day da YC W26 Dominic-Madori Davis

16 das startups mais interessantes do Demo Day da YC W26

16 das startups mais interessantes do Demo Day da YC W26

Uma importante ferramenta de hacking vazou online, colocando milhões de iPhones em risco. Aqui está o que você precisa saber. Lorenzo Franceschi-Bicchierai

Uma importante ferramenta de hacking vazou na internet, colocando milhões de iPhones em risco. Veja o que você precisa saber.

Uma importante ferramenta de hacking vazou na internet, colocando milhões de iPhones em risco. Veja o que você precisa saber.

Mistral lança um novo modelo de código aberto para geração de fala Ivan Mehta

Mistral lança um novo modelo de código aberto para geração de fala

Mistral lança um novo modelo de código aberto para geração de fala

A lacuna de habilidades em IA está aqui, diz empresa de IA, e usuários avançados estão saindo na frente Rebecca Bellan

A lacuna de habilidades em IA está aqui, diz empresa de IA, e usuários avançados estão saindo na frente

A lacuna de habilidades em IA está aqui, diz empresa de IA, e usuários avançados estão saindo na frente

Google revela o TurboQuant, um novo algoritmo de compressão de memória para IA — e sim, a internet está chamando-o de ‘Pied Piper’ Sarah Perez

Google revela o TurboQuant, um novo algoritmo de compressão de memória de IA — e sim, a internet está chamando-o de “Pied Piper”

Google revela o TurboQuant, um novo algoritmo de compressão de memória de IA — e sim, a internet está chamando-o de “Pied Piper”

Mulher do Kentucky rejeita oferta de US$ 26 milhões para transformar sua fazenda em um data center Graham Starr

Mulher do Kentucky rejeita oferta de US$ 26 milhões para transformar sua fazenda em um data center

Mulher do Kentucky rejeita oferta de US$ 26 milhões para transformar sua fazenda em um data center

Alguém vazou publicamente um kit de exploração capaz de hackear milhões de iPhones Lorenzo Franceschi-Bicchierai Zack Whittaker

Alguém vazou publicamente um kit de exploração capaz de hackear milhões de iPhones

Alguém vazou publicamente um kit de exploração capaz de hackear milhões de iPhones

O que esta cobertura entrega

  • Atribuicao clara de fonte com link para a publicacao original.
  • Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
  • Revisao de legibilidade, contexto e duplicacao antes da publicacao.

Fonte original:

TechCrunch AI

Sobre este artigo

Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.

Saiba mais sobre nosso processo editorial