Um encontro global de alto nível reuniu as principais empresas responsáveis pelo desenvolvimento da Inteligência Artificial (IA) no mundo. A segunda Cúpula de Segurança de IA, realizada nesta terça-feira (21), teve como tema central a necessidade de garantir a criação segura dessas tecnologias avançadas.
Com a rápida inovação e os riscos emergentes que IAs cada vez mais avançadas podem representar, o debate envolveu líderes de 16 gigantes da tecnologia, incluindo Google, Meta, Microsoft e OpenAI, bem como empresas da China, Coreia do Sul e Emirados Árabes Unidos.
O evento contou com o apoio dos países do G7, da União Europeia, Singapura, Austrália e Coreia do Sul. Em uma chamada virtual liderada pelos líderes britânico e sul-coreano, as nações concordaram em priorizar segurança, inovação e inclusão no campo da IA.
Preocupações e soluções em debate
O presidente sul-coreano, Yoon Suk Yeol, ressaltou a necessidade de garantir a segurança da IA para proteger o bem-estar e a democracia, citando preocupações com riscos como as deepfakes.
Os participantes destacaram:
- A importância da interoperabilidade entre os quadros de governança
- Planos para uma rede de institutos de segurança
- O envolvimento com organismos internacionais para construir um acordo
As empresas se comprometeram a publicar estruturas para medir e mitigar riscos, garantir mais transparência e evitar modelos onde os riscos não pudessem ser adequadamente controlados.
Beth Barnes, fundadora do METR (grupo que promove a segurança dos modelos de IA), enfatizou: “É vital conseguir um acordo internacional sobre as áreas vermelhas onde o desenvolvimento da IA se tornaria inaceitavelmente perigoso para a segurança pública”.

