A Argentina está se preparando para desenvolver uma força-tarefa especializada usando inteligência artificial para identificar e impedir futuros crimes no país.
O Ministério da Segurança da Argentina anunciou a criação da Unidade de Inteligência Artificial Aplicada à Segurança (UIAAS), liderada pelo diretor de crimes cibernéticos e assuntos cibernéticos, junto com membros da Polícia Federal Argentina e das forças de segurança.
Uma das principais tarefas do grupo será “usar algoritmos de aprendizado de máquina para analisar dados históricos de crimes a fim de prever crimes futuros e ajudar a preveni-los”, de acordo com uma declaração recente do Ministério da Segurança da Argentina.
Identificando padrões incomuns em redes de computadores
Os crimes de interesse da UIAAS são variados. Um foco principal é identificar possíveis ameaças cibernéticas, detectando “padrões incomuns em redes de computadores”, incluindo malware, phishing e outros tipos de ataques cibernéticos.
Ela também lidará com tarefas mais perigosas, como a desativação de bombas, e tentará melhorar a velocidade da comunicação entre a polícia e as equipes de segurança relevantes.
O monitoramento de atividades em mídias sociais também foi mencionado como um método para detectar qualquer sinal de comunicação sobre possíveis crimes futuros.
“Analisar atividades em mídias sociais para detectar ameaças potenciais, identificar movimentos de grupos criminosos ou prever distúrbios”, afirmou.
Nem todos estão convencidos
Alguns recorreram às mídias sociais para argumentar que isso pode não ser benéfico a longo prazo.
O renomado engenheiro de software americano Grady Booch afirmou que “isso não terminará bem” aos seus 165.500 seguidores no X, em uma postagem de 2 de agosto.
“O uso de IA pela Argentina para combater o crime, mas a que custo para a privacidade?” comentou o engenheiro de software David Arnal.
“Mais uma vez, onde estão os apoiadores de Milei nesta questão?” acrescentou o autor Derrick Broze.
Isso segue as recentes notícias de que o governo dos Estados Unidos está investigando a OpenAI, criadora do ChatGPT, para obter mais informações sobre seus padrões de segurança.
Em 23 de julho, membros do Partido Democrata do Senado dos Estados Unidos e um legislador independente enviaram uma carta ao CEO da OpenAI, Sam Altman, sobre os padrões de segurança da empresa e práticas de emprego em relação a denunciantes.
A parte mais significativa da carta, obtida primeiramente pelo The Washington Post, foi o item nove, que dizia: “A OpenAI se comprometerá a disponibilizar seu próximo modelo fundamental para as agências do governo dos EUA para testes, revisão, análise e avaliação antes da implantação?”
Enquanto isso, a Assembleia Geral das Nações Unidas recentemente endossou uma resolução sobre IA.
A resolução — iniciada pelos Estados Unidos e apoiada por 123 países, incluindo a China — foi adotada em 2 de março, incentivando os países a proteger os direitos humanos, proteger os dados pessoais e monitorar a IA para riscos.