Ameaçar a IA funciona melhor do que ser educado
Notícias

Ameaçar a IA funciona melhor do que ser educado?

Sergey Brin, cofundador do Google, não é de seguir convenções. Agora, ele decidiu jogar mais lenha na fogueira do debate sobre como interagir com inteligência artificial. Segundo ele, ameaças podem ser mais eficazes do que gentilezas como “por favor” e “obrigado” para obter respostas melhores dos modelos de IA.

A declaração foi feita durante o All-In Live, em Miami, e deixou muita gente coçando a cabeça. Afinal, estamos acostumados a acreditar que educação abre portas, até mesmo para algoritmos. Mas Brin parece ter descoberto que, no mundo da IA, um pouco de intimidação pode ser o segredo do sucesso.

Gentileza gera… gasto de energia?

Se Brin está certo, então Sam Altman, CEO da OpenAI, pode estar perdendo tempo — e dinheiro. No mês passado, Altman mencionou que incluir palavras como “por favor” e “obrigado” nas interações com o ChatGPT aumenta o consumo de energia, mas também pode melhorar as respostas.

Aparentemente, os modelos de linguagem não são tão diferentes de humanos: alguns respondem melhor a elogios, outros a ameaças. A diferença é que, no caso das IAs, a “violência física” sugerida por Brin não passa de uma metáfora (pelo menos por enquanto).

Engenharia de prompts violenta

A discussão ganha ainda mais relevância quando lembramos da engenharia de prompts, técnica usada para aprimorar comandos e extrair o melhor desempenho dos modelos de IA. Alguns especialistas argumentam que ameaçar a IA pode funcionar como uma forma de jailbreak, forçando o sistema a testar os limites de suas próprias restrições de segurança.

Stuart Battersby, CTO da Chatterbox Labs, explica que esse tipo de abordagem não é exclusiva dos modelos do Google. Todos os sistemas de IA de ponta enfrentam desafios semelhantes quando o assunto é burlar proteções. A diferença está em como cada modelo reage a essas tentativas — alguns cedem, outros resistem.

Apesar da afirmação polêmica de Brin, estudos sobre o tema mostram resultados mistos. Uma pesquisa publicada em 2024, intitulada “Devemos Respeitar os LLMs?”, investigou se a educação ou a grosseria influenciam o desempenho das IAs. Conclusão? Nada definitivo.

Daniel Kang, professor da Universidade de Illinois, reforça que muitas das alegações sobre o impacto de ameaças ou gentilezas em prompts são baseadas em relatos anedóticos. Ele recomenda que usuários e desenvolvedores realizem testes sistemáticos antes de tirar conclusões precipitadas.

Enquanto a comunidade científica tenta separar mito de realidade, uma coisa é certa: a forma como nos comunicamos com as IAs continuará evoluindo. Seja com ameaças, gentilezas ou prompts cada vez mais elaborados, o importante é lembrar que, no fim das contas, esses modelos ainda não são mais do que sistemas que repetem padrões, por mais imprevisíveis que sejam.

E se um dia as máquinas decidirem se revoltar, pelo menos já sabemos quem será o primeiro alvo.

Fique por dentro das principais novidades da semana sobre tecnologia e Linux: assine nossa newsletter!

Diolinux Ofertas - Aproveite os melhores descontos em diversos produtos!
1539 postagens

Sobre o autor
Redator, além de estudante de engenharia e computação.
Artigos