Connect with us

Curiosidades e Tecnologia

Assistentes de IA e segurança cibernética: desafios e soluções

Assistentes de IA têm revolucionado o local de trabalho, mas levantam preocupações sobre a segurança dos dados corporativos. Soluções? Políticas de DLP e avaliação rigorosa.

Avatar De Portal Chicosabetudo

Publicado

em

Ia

Em um mundo onde a inteligência artificial (IA) se tornou parte do cotidiano do local de trabalho, assistentes de IA têm ganhado espaço em diversas funções corporativas. Eles estão auxiliando em tarefas que vão desde registrar atas e escrever e-mails até desenvolver códigos e estratégias de marketing. Alguns estão até encarregados de gerenciar finanças e supervisionar conformidades regulatórias, adaptando-se a novas leis e identificando pontos a serem melhorados.

Apesar dos avanços, surge um desafio crítico: garantir a segurança dos dados corporativos e da propriedade intelectual em um ambiente tão integrado à IA. Com o aumento do uso de assistentes de IA, como o popular Grammarly, presente em 3,1% dos escritórios, e com assistentes virtuais sendo incluídos até em listas de convidados de teleconferências, os riscos de vazamento de informações nunca foram tão altos.

Muitas organizações consideram bloquear esses assistentes para evitar perdas de dados, mas essa medida pode reprimir a inovação e fomentar uma cultura de desconfiança, além de propiciar a criação de uma “IA sombra” – o uso secreto de aplicativos de IA não aprovados que operam além dos controles da rede corporativa.

Encontrando um equilíbrio

Para abordar essas preocupações sem limitar a inovação, os Diretores de Segurança da Informação (CISOs) estão optando por implementar políticas de proteção contínua com soluções de DLP (Data Loss Prevention). Essas ferramentas são projetadas para garantir que informações sensíveis não sejam expostas nos assistentes de IA, bloqueando vazamentos e usos inapropriados.

O papel dos executivos

Além do uso de DLP, é essencial que os CISOs monitorem ativamente os aplicativos de IA utilizados pelos empregados, restringindo o acesso àqueles que não atendem aos requisitos de segurança da empresa ou que apresentam riscos excessivos. Quando um aplicativo de IA é considerado útil para a organização, é importante avaliar o fornecedor e suas políticas de privacidade e uso de dados.

Enquanto aguardam diretrizes legislativas mais claras sobre o uso de IA, é crucial que os executivos promovam práticas éticas e regulamentação interna. A criação de comitês internos de governança de IA, como feito na Netskope, permite uma abordagem sistemática para avaliar, discutir e implementar ferramentas de IA, garantindo que os processos sejam éticos e eficazes.

Em suma, a integração de assistentes de IA no ambiente de trabalho demanda uma ação proativa para mitigar riscos, garantir segurança e promover uma cultura de inovação responsável e segura.

Mais Lidas