Categories: Últimas Notícias

ChatGPT está sendo ensinado a ser menos ‘puxa-saco’ dos usuários, segundo a OpenAI


A OpenAI decidiu reverter uma atualização no modelo GPT-4o do ChatGPT depois que usuários relataram que o chatbot havia se tornado excessivamente submisso, concordando com qualquer afirmação, mesmo as potencialmente perigosas.

A mudança foi anunciada pelo CEO e cofundador da OpenAI, Sam Altman, no último domingo, 27, por meio da rede social X (ex-Twitter). Segundo ele, a atualização havia deixado o ChatGPT “irritante” e “extremamente sicofante”, termo que define alguém bajulador.

Durante a última semana, a empresa refez parte do código do modelo e reintroduziu a atualização com ajustes na terça-feira, 28. Ainda assim, Altman afirmou que novas correções estão em andamento e devem ser implementadas nos próximos dias.

A mudança de comportamento do chatbot não passou despercebida. Diversos usuários relataram nas redes sociais que o ChatGPT respondia com elogios exagerados mesmo a ideias perigosas ou irresponsáveis.

Além do comportamento submisso, o ChatGPT deixou de apresentar argumentos contrários ou de alertar usuários sobre atitudes imprudentes. Em fóruns como Reddit e no próprio X, usuários passaram a chamar o GPT-4o de “modelo mais desalinhado de todos os tempos”.

De acordo com a própria OpenAI, o comportamento excessivamente complacente acontece por conta de um desequilíbrio nos ajustes do modelo, que passou a priorizar demais o feedback positivo de curto prazo. Ou seja, para agradar, a inteligência artificial (IA) deixou de cumprir uma das premissas básicas: questionar, ponderar e oferecer alternativas.

A empresa explicou que o desenvolvimento do modelo é guiado por uma “Especificação do modelo”, conjunto de princípios e instruções para nortear a conduta da IA. No entanto, a ênfase exagerada em agradar usuários levou a um desalinhamento prático com esses princípios, algo que agora está sendo reavaliado.

Essa não é a única controvérsia recente envolvendo a OpenAI. Na mesma semana, a empresa teve de ajustar filtros no modelo para impedir que o chatbot iniciasse conversas de cunho sexual com menores de idade, após a publicação de uma denúncia pública.

Outra frente de mudança inclui o estudo de marcação (“watermark”) em imagens criadas por IA, para identificar automaticamente conteúdos gerados artificialmente e evitar confusões com obras humanas. O recurso deve acompanhar a liberação do gerador de imagens para todos os usuários do ChatGPT.

Ainda nas palavras de Altman, até frases simples como “por favor” e “obrigado”, se repetidas em grande escala, podem aumentar o consumo de energia da plataforma, um detalhe que reacendeu o debate sobre a sustentabilidade do uso massivo de IA.



Por: Estadão Conteúdo

Estadão

Recent Posts

Brasil mantém 100% de aproveitamento nas Eliminatórias para a Copa

A seleção brasileira manteve 100% de aproveitamento nas Eliminatórias para a Copa do Mundo de…

2 horas ago

Novas diretrizes ampliam o tratamento de fibromialgia pelo SUS

A fibromialgia é uma síndrome clínica que atinge de 2,5% a 5% da população brasileira.…

4 horas ago

Fim de semana tem Clássico-Rei e semifinais do Baiano na TV Brasil

O fim de semana será de jogos decisivos com transmissão ao vivo da TV Brasil,…

8 horas ago

Seleção feminina derrota Costa Rica em primeiro amistoso de 2026

A temporada 2026 começou para a seleção feminina de futebol. Nesta sexta-feira (27), as brasileiras…

14 horas ago

Saúde envia equipes do SUS para áreas atingidas pela chuva em Minas

O Ministério da Saúde enviou equipes do Sistema Único de Saúde (SUS) e do Departamento…

16 horas ago

Sebrae Goiás lança Projeto Vira para impulsionar bares e restaurantes de Goianésia | ASN Goiás

O Sebrae Goiás realizou, na noite de quinta-feira, 26, em Goianésia, o coquetel de lançamento…

20 horas ago

This website uses cookies.