Sam Altman, CEO da OpenAI, emitiu um alerta sobre a segurança da privacidade dos dados compartilhados por usuários com o ChatGPT. Segundo Altman, diferentemente das interações com profissionais de saúde ou advogados, as conversas mantidas com a inteligência artificial não são resguardadas por proteção legal de confidencialidade.
Ausência de Garantias Legais
Durante participação no podcast This Past Weekend, de Theo Von, Altman observou que muitas pessoas, principalmente jovens, compartilham informações extremamente pessoais com a plataforma, utilizando-a como uma espécie de terapeuta ou conselheiro. Ele enfatizou que, na ausência de sigilo legal comparável ao médico ou jurídico, tais comunicações podem ser expostas, inclusive em processos judiciais.
A preocupação com a privacidade de dados não é nova para a OpenAI. A empresa enfrenta desafios legais, como a contestação de uma ordem judicial em um processo com o jornal New York Times, que exige acesso a milhões de chats de usuários. A companhia argumenta que a demanda é um “exagero” e pode comprometer suas políticas internas de proteção de dados.
“Faz sentido querer clareza jurídica sobre privacidade antes de usar a ferramenta com frequência”, disse Altman.
O CEO defende a criação de um arcabouço jurídico específico para as interações com inteligências artificiais, visando conceder aos usuários um nível de confidencialidade similar ao já existente em outras áreas profissionais.
Crescente Debate sobre a IA
Altman também expressou recentemente temores sobre uma possível “crise de fraude” decorrente da capacidade da inteligência artificial de mascarar identidades de criminosos digitais. A discussão sobre a regulamentação e os limites da IA continua a ganhar destaque no cenário global.
A medida em que a IA se integra mais profundamente na vida cotidiana, o debate sobre privacidade, segurança e a necessidade de novas legislações se intensifica, buscando equilibrar inovação com a proteção dos direitos dos usuários.