O Instituto de Segurança de IA do Reino Unido está pronto para expandir internacionalmente com uma nova localização nos Estados Unidos.

Em 20 de maio, Michelle Donelan, a Secretária de Tecnologia do Reino Unido, anunciou que o instituto abrirá seu primeiro escritório no exterior em São Francisco durante o verão.

O anúncio afirmou que a escolha estratégica de um escritório em São Francisco permitirá ao Reino Unido "aproveitar a riqueza de talentos tecnológicos disponíveis na Área da Baía", além de se envolver com um dos maiores laboratórios de inteligência artificial (IA) do mundo, localizado entre Londres e São Francisco.

Além disso, disse que essa mudança ajudará a "consolidar" relacionamentos com os figuras importantes nos EUA para promover a segurança global de IA "em prol do interesse público".

Já o escritório de Londres do Instituto de Segurança de IA conta com uma equipe de 30 pessoas que está em trajetória de crescimento e busca adquirir mais expertise, especialmente em avaliação de riscos para modelos de IA de ponta.

Donelan afirmou que a expansão representa a liderança e a visão do Reino Unido em ação para a segurança de IA:

"É um momento importante na capacidade do Reino Unido de estudar tanto os riscos quanto o potencial da IA por uma lente global, fortalecendo nossa parceria com os EUA e abrindo caminho para que outros países aproveitem nossa experiência enquanto continuamos a liderar o mundo em segurança de IA."

Isso segue a importante Cúpula de Segurança de IA do Reino Unido, que ocorreu em Londres em novembro de 2023. A cúpula foi a primeira desse tipo a focar na segurança de IA em escala global.

O evento contou com líderes de todo o mundo, incluindo dos EUA e da China, com vozes líderes no espaço de IA, incluindo o presidente da Microsoft, Brad Smith, o CEO da OpenAI, Sam Altman, o CEO do Google DeepMind, Demis Hassabis e Elon Musk.

Neste último anúncio, o Reino Unido também disse que está divulgando uma seleção dos resultados recentes do instituto de testes de segurança que realizou em cinco modelos avançados de IA disponíveis publicamente.

Ele tornou os modelos anônimos e disse que os resultados fornecem uma "imagem instantânea" das capacidades dos modelos em vez de classificá-los como "seguros" ou "inseguros".

Parte das descobertas incluiu que vários modelos conseguiram completar desafios de cibersegurança, embora outros tenham tido dificuldades com desafios mais avançados. Vários modelos foram encontrados com conhecimento de nível de doutorado em química e biologia.

Concluiu-se que todos os modelos testados eram "altamente vulneráveis" a quebra de segurança básica e que os modelos testados não eram capazes de concluir tarefas mais "complexas e demoradas" sem supervisão humana.

Ian Hogearth, o presidente do instituto, disse que essas avaliações ajudariam a contribuir para uma avaliação empírica das capacidades dos modelos.

"A segurança de IA ainda é um campo muito novo e emergente. Esses resultados representam apenas uma pequena parte da abordagem de avaliação que a AISI está desenvolvendo."