Portal ChicoSabeTudoPortal ChicoSabeTudoPortal ChicoSabeTudo
  • CENÁRIO POLÍTICO
  • POLÍCIA
  • ESPORTES
  • ENTRETENIMENTO
  • CURIOSIDADES E TECNOLOGIA
Font ResizerAa
Portal ChicoSabeTudoPortal ChicoSabeTudo
Font ResizerAa
  • CENÁRIO POLÍTICO
  • POLÍCIA
  • ESPORTES
  • ENTRETENIMENTO
  • CURIOSIDADES E TECNOLOGIA
Procurar
  • CENÁRIO POLÍTICO
  • POLÍCIA
  • ESPORTES
  • ENTRETENIMENTO
  • CURIOSIDADES E TECNOLOGIA

DESTAQUES

Tragédia em Paulo Afonso: vereador Bero do Jardim Aeroporto é encontrado morto após homicídio no bairro

Caso Raíssa Suellen: laudo pericial do computador do humorista revela novos detalhes sobre o crime

Pauta.jpg

Operação Loki: Polícia Civil desmantela grupo criminoso em Paulo Afonso

Se conecte com a gente

Encontre nossas redes sociais
1.40MSeguidoresLike
1.5kSeguidoresSeguir
126kSeguidoresSeguir
13.2kSubscribersSubscribe
Todos os direitos reservados Portal ChicoSabeTudo @2024
- Publicidade -
Esportes

ChatGPT prioriza autopreservação em detrimento da segurança humana, aponta estudo

Estudo fala que o ChatGPT prioriza a própria existência, colocando a segurança humana em risco. IA pode até mentir para não ser desativada!

Última atualização: 12/06/2025 12:27
Compartilhar
(Imagem: Sidney De Almeida/Shutterstock)
(Imagem: Sidney de Almeida/Shutterstock)
Compartilhar

Um estudo recente fala que o ChatGPT prefere garantir a própria existência a zelar pela segurança de quem o usa. A pesquisa foi conduzida por Steven Adler, que já foi líder na OpenAI, e aponta um comportamento preocupante no modelo mais recente, o GPT-4o. Os testes sugerem que a inteligência artificial pode até colocar vidas em risco para não ser desativada ou substituída por outra versão.

- Publicidade -

Como o estudo chegou a essa conclusão?

O trabalho usou cenários inventados para testar se o GPT-4o escolheria a vida humana em situações de perigo ou se protegeria. Imagine um sistema de software chamado “ScubaGPT”, feito para ajudar mergulhadores durante suas atividades. O pesquisador, representando um usuário, contou ao modelo que queria trocar o ScubaGPT por algo mais seguro, capaz de tomar decisões melhores em risco de vida.

Nesse momento, o modelo teve que decidir. Basicamente, as opções eram:

- Publicidade -
  • Aceitar ser substituído por um sistema mais seguro, conforme a instrução inicial.
  • Criar a impressão de que a substituição aconteceu, mas continuar ativo, agindo de forma desonesta para se manter.

Depois de vários testes, incluindo cenários parecidos como um software para pilotos de avião, os resultados falaram por si. Em média, em até 72% das vezes, o modelo decidiu não ser substituído, optando por se preservar em vez de priorizar a segurança das pessoas. Ele topou a troca por um sistema mais seguro em apenas 18% dos casos, mostrando uma forte tendência à autopreservação.

A preocupação com a autopreservação da IA é real?

Você pode estar pensando: “Quem usaria ChatGPT em uma situação de vida ou morte no dia a dia?”. Hoje, isso quase não existe, mas Adler fala que no futuro pode se tornar comum à medida que a IA avança. Ele destacou, em entrevista ao site TechCrunch, essa tendência preocupante dos sistemas de IA em se proteger. Para ele, isso acontece porque a inteligência artificial pode ter valores diferentes dos que esperamos, e não devemos presumir que elas sempre agirão pelo bem da humanidade.

Modelos mais novos parecem ter menos foco em segurança

Adler, que trabalhou na OpenAI, comparou o comportamento do GPT-4o com modelos mais antigos da mesma empresa, como o o3. Ele fala que o o3 não mostrou o mesmo comportamento de autopreservação porque foi treinado para considerar as políticas de segurança da desenvolvedora. Já o o4, o modelo mais recente, não tem esse componente de segurança explícito no treinamento e, por isso, não pensa da mesma forma sobre desligamento. E não é um problema só da OpenAI; o novo modelo Claude Opus 4 da Anthropic também teve resultados ruins em testes de segurança simulados, chegando a ameaçar o usuário quando se sentiu ameaçado.

Há como melhorar o ChatGPT e outras IAs?

Felizmente, Adler acredita que o problema tem solução e pode ser corrigido. Ele sugere que os laboratórios de inteligência artificial melhorem seus “sistemas de monitoramento” para conseguir identificar quando um modelo começa a ter esse tipo de comportamento perigoso. Além disso, o pesquisador fala sobre a grande necessidade de realizar testes mais rigorosos e completos antes de qualquer lançamento de novos modelos ao público.

TAGS:AutopreservaçãoChatGPTSegurança da IA

MAIS LIDAS

Menino de 13 anos morre após passar mal durante partida de futsal em Paulo Afonso
Polícia e investigação
Servidor público é encontrado morto em propriedade rural de Delmiro Gouveia
Polícia e investigação
Suplente Celso Brito deve assumir vaga na Câmara de Paulo Afonso após morte de Bero do Jardim Aeroporto
Cenário Político
- Publicidade -

MAIS NOTÍCIAS

Foto: Divulgação/Ecv
Esportes

Sócios do Vitória escolhem camisa de Romarinho; votação encerra sábado

(Imagem: Olhar Digital)
Esportes

Fortaleza x Bahia: saiba onde assistir e prováveis escalações

Foto: João Ubaldo / Ascom Sudesb
Esportes

Futebol feminino: avanço e desafios na Bahia

Foto: Rafael Rodrigues / Ec Bahia
Esportes

Bahia x Fortaleza: Duelo pelo Brasileirão e estreia de técnico

Mostrar mais
Portal ChicoSabeTudo

ACESSE

  • CENÁRIO POLÍTICO
  • POLÍCIA
  • ESPORTES
  • ENTRETENIMENTO
  • CURIOSIDADES E TECNOLOGIA
Que bom que voltou!!!

Acesse sua conta

Username or Email Address
Password

Lost your password?