Dizer “por favor” e “obrigado” ao ChatGPT e a outras inteligências artificiais pode parecer desnecessário, mas um novo estudo da Universidade Cornell revela que a polidez pode, sim, fazer diferença na qualidade das respostas. A pesquisa usou modelos de linguagem em inglês, chinês e japonês e chegou a descobertas surpreendentes sobre como esses sistemas reagem à gentileza humana.
Segundo os autores, o comportamento das IA’s varia conforme a educação do usuário. Em situações em que os prompts — os comandos enviados à inteligência artificial — eram ríspidos ou mal formulados, o desempenho dos modelos caía consideravelmente. Já quando os comandos continham palavras como “por favor” e “obrigado”, as respostas eram mais eficazes.
“A linguagem educada na comunicação humana frequentemente gera maior conformidade e eficácia, enquanto a grosseria pode causar aversão, o que afeta a qualidade da resposta”, explica o estudo conduzido pelos pesquisadores da universidade norte-americana.
Leia mais:
- Governo Trump estuda proibir DeepSeek nos EUA
- Google libera Veo 2 para assinantes do Gemini Advanced com geração de vídeos em 720p
- OpenAI planeja lançar sua própria rede social para rivalizar com X
Obrigado ao ChatGPT é reflexo dos humanos
O trabalho indica que os modelos de linguagem, como o ChatGPT, estão profundamente alinhados com os padrões humanos de comunicação. Isso se deve à forma como essas ferramentas são treinadas: usando grandes volumes de texto humano, que incluem nuances culturais e linguísticas.
Ao aplicar o mesmo tipo de comando em diferentes línguas, os pesquisadores observaram padrões distintos. Em inglês, por exemplo, um nível moderado de polidez produziu melhores resultados. Já em japonês, uma abordagem extremamente educada foi mais eficaz. Isso mostra que os LLMs (modelos de linguagem de larga escala) não só aprendem idiomas, mas também incorporam traços culturais.
“Avaliamos o impacto da polidez nos prompts em LLMs em tarefas de inglês, chinês e japonês. Descobrimos que prompts indelicados frequentemente resultam em desempenho ruim, mas linguagem excessivamente polida não garante melhores resultados”, diz um dos trechos da pesquisa.

IA também aprende cultura
A variação nos resultados reforça a ideia de que os modelos de IA se moldam à cultura de seus dados de treinamento. Os pesquisadores destacam que isso não significa que a inteligência artificial “entenda” o conceito de educação como um ser humano. Porém, ela reconhece padrões e responde com base no que aprendeu como mais adequado.
“Nossas descobertas destacam a necessidade de considerar a polidez no processamento de linguagem natural intercultural e no uso de LLMs”, afirma o estudo.
OpenAI lança família GPT-4.1 com melhorias em código, instruções e contexto longo
Os autores alertam que não se trata apenas de adicionar palavras gentis aleatoriamente. O desafio, segundo eles, está em criar comandos diversos que respeitem nuances culturais e linguísticas, sem tornar a linguagem excessivamente formal ou forçada.
Gentileza gera compreensão?
Na prática, o estudo da Universidade Cornell indica que, embora a IA não tenha sentimentos, a forma como nos comunicamos com ela influencia diretamente o resultado. Assim como interações humanas são moldadas por empatia e respeito, a IA responde melhor quando os usuários adotam um tom educado e claro.
Netflix testa recurso de busca por IA em parceria com OpenAI
Isso pode mudar a forma como interagimos com assistentes virtuais e ferramentas baseadas em IA. Mais do que uma questão de etiqueta, ser gentil com a IA pode ser uma estratégia para obter respostas melhores — pelo menos, até que esses modelos se tornem ainda mais sofisticados e menos sensíveis à forma dos comandos.

Faz por você
Lava e seca com IA: Nova torre da Samsung que faz tudo sozinha!
Fonte: techradar