Curiosidades e Tecnologia
Assistentes de IA e segurança cibernética: desafios e soluções
Assistentes de IA têm revolucionado o local de trabalho, mas levantam preocupações sobre a segurança dos dados corporativos. Soluções? Políticas de DLP e avaliação rigorosa.
Em um mundo onde a inteligência artificial (IA) se tornou parte do cotidiano do local de trabalho, assistentes de IA têm ganhado espaço em diversas funções corporativas. Eles estão auxiliando em tarefas que vão desde registrar atas e escrever e-mails até desenvolver códigos e estratégias de marketing. Alguns estão até encarregados de gerenciar finanças e supervisionar conformidades regulatórias, adaptando-se a novas leis e identificando pontos a serem melhorados.
Apesar dos avanços, surge um desafio crítico: garantir a segurança dos dados corporativos e da propriedade intelectual em um ambiente tão integrado à IA. Com o aumento do uso de assistentes de IA, como o popular Grammarly, presente em 3,1% dos escritórios, e com assistentes virtuais sendo incluídos até em listas de convidados de teleconferências, os riscos de vazamento de informações nunca foram tão altos.
Muitas organizações consideram bloquear esses assistentes para evitar perdas de dados, mas essa medida pode reprimir a inovação e fomentar uma cultura de desconfiança, além de propiciar a criação de uma “IA sombra” – o uso secreto de aplicativos de IA não aprovados que operam além dos controles da rede corporativa.
Encontrando um equilíbrio
Para abordar essas preocupações sem limitar a inovação, os Diretores de Segurança da Informação (CISOs) estão optando por implementar políticas de proteção contínua com soluções de DLP (Data Loss Prevention). Essas ferramentas são projetadas para garantir que informações sensíveis não sejam expostas nos assistentes de IA, bloqueando vazamentos e usos inapropriados.
O papel dos executivos
Além do uso de DLP, é essencial que os CISOs monitorem ativamente os aplicativos de IA utilizados pelos empregados, restringindo o acesso àqueles que não atendem aos requisitos de segurança da empresa ou que apresentam riscos excessivos. Quando um aplicativo de IA é considerado útil para a organização, é importante avaliar o fornecedor e suas políticas de privacidade e uso de dados.
Enquanto aguardam diretrizes legislativas mais claras sobre o uso de IA, é crucial que os executivos promovam práticas éticas e regulamentação interna. A criação de comitês internos de governança de IA, como feito na Netskope, permite uma abordagem sistemática para avaliar, discutir e implementar ferramentas de IA, garantindo que os processos sejam éticos e eficazes.
Em suma, a integração de assistentes de IA no ambiente de trabalho demanda uma ação proativa para mitigar riscos, garantir segurança e promover uma cultura de inovação responsável e segura.
-
Polícia e investigação24 horas atrás
Gestante queima 50% do corpo ao tentar acender fogão a lenha
-
Polícia e investigação14 horas atrás
VÍDEO: Homens trocam golpes de facão e um deles perde a mão
-
Entretenimento23 horas atrás
Tony Ramos estável após cirurgia, informa hospital
-
Polícia e investigação23 horas atrás
Colisão frontal na BR-101 mata dois motociclistas na Bahia
-
Cenário Político6 horas atrás
Câmara cria CPI para investigar possíveis irregularidades na gestão do ex-prefeito de Delmiro Gouveia
-
Curiosidades e Tecnologia12 horas atrás
Candeias abre concurso público com 59 vagas e salários de até R$ 6,3 mil
-
Polícia e investigação10 horas atrás
Maceió: Motorista morre após infartar ao volante e colidir em táxi
-
Polícia e investigação11 horas atrás
Homem morre e cinco pessoas ficam feridas em grave acidente na Bahia