Os efeitos adversos da tecnologia de inteligência artificial (IA) nas mãos de criminosos, permitindo a criação de deep fakes e malwares, aumentaram a urgência de ação.
A OpenAI, criadora do ChatGPT e Dall-e, anunciou um programa de subsídios de segurança cibernética de US$ 1 milhão para aprimorar e medir o impacto das tecnologias de segurança cibernética orientadas por IA.
A empresa de IA enfatizou consistentemente a importância da regulamentação da IA para impedir aplicativos potencialmente maliciosos. Em uma corrida armamentista digital em andamento, a OpenAI parece estar tomando medidas proativas para garantir que as forças positivas não fiquem para trás.
A OpenAI apresentou uma gama diversificada de conceitos de projeto, incluindo a criação de honeypots para atrair invasores, ajudando os desenvolvedores a projetar software seguro e aprimorando os procedimentos de gerenciamento de patches para obter a eficácia ideal.
Os objetivos do programa são evidentes, conforme declarado pela OpenAI em seu blog oficial: "Nosso objetivo é promover o avanço dos recursos de segurança cibernética orientados por IA para defensores por meio de doações e assistência adicional". O foco está na avaliação da eficácia desses modelos de IA e na determinação de métodos para aprimorar seus recursos de segurança cibernética.
Esta iniciativa inovadora visa alcançar três objetivos principais. Em primeiro lugar, busca "capacitar os defensores" alavancando os recursos de IA e os esforços colaborativos para mudar o equilíbrio em favor daqueles que se dedicam a melhorar a segurança geral.
O próximo foco da iniciativa é "medir capacidades". O OpenAI visa fornecer suporte a projetos que se concentram no desenvolvimento de métodos de quantificação para avaliar a eficácia de modelos de IA no campo da segurança cibernética. Além disso, a OpenAI pretende "elevar o discurso" promovendo discussões aprofundadas sobre a intrincada relação entre IA e segurança cibernética.
Relacionado: OpenAI recebe aviso de reguladores japoneses sobre coleta de dados
Essa iniciativa rompe com a perspectiva convencional sobre segurança cibernética. A OpenAI destaca a importância da frase comumente ouvida de que os defensores devem estar certos o tempo todo, enquanto os atacantes precisam ter sucesso apenas uma vez. No entanto, a OpenAI reconhece o poder da colaboração em direção a um objetivo compartilhado de garantir a segurança das pessoas. Eles estão determinados a demonstrar que, com a ajuda da IA, os defensores podem mudar a dinâmica e ganhar vantagem.
LEIA MAIS