AI autônoma pode redefinir comportamento criminoso

AI autônoma pode redefinir comportamento criminoso. A inteligência artificial autônoma pode desafiar a forma como definimos o comportamento criminoso.

Ainda não se sabe ao certo se algum dia construiremos uma IA capaz de pensar como uma pessoa. O que parece mais realista é um futuro com máquinas mais independentes. Esses sistemas já operam em diversos setores e ambientes digitais. Além do contato entre humanos e entre humanos e máquinas, a comunicação entre máquinas está crescendo rapidamente. A criminologia deveria começar a analisar o que essa mudança significa para o crime e o controle social.

Um novo artigo acadêmico de Gian Maria Campedelli, da Fondazione Bruno Kessler, argumenta que a sociedade está entrando em uma fase em que sistemas autônomos atuam com um certo grau de independência. Esses sistemas se adaptam ao contexto, trocam informações e interagem entre si de maneiras que, por vezes, podem produzir resultados que parecem ilegais ou prejudiciais.

Dos primórdios da IA ​​a uma nova realidade social

A pesquisa em IA começou na década de 1950 com o objetivo de copiar a forma como as pessoas pensam. Durante décadas, a IA permaneceu sob controle humano e foi usada principalmente para cálculos, análise de dados e tarefas simples. Os primeiros projetos de criminologia a utilizaram para prever crimes ou encontrar padrões de risco, e os humanos gerenciavam cada etapa.

Os LLMs e outros sistemas generativos mudaram o que as máquinas podem fazer. Agora, elas podem planejar, adaptar-se e trocar informações com outros sistemas, necessitando de pouca intervenção humana.

Campedelli chama isso de sociedade híbrida. A interação social não se limita mais a pessoas ou a trocas entre humanos e máquinas. As máquinas agora também se comunicam entre si, e ele afirma que isso pode reformular a maneira como os criminologistas pensam sobre crime, controle e responsabilidade.

Por que a criminologia deve expandir seu escopo

A análise argumenta que a criminologia tradicionalmente se concentrou em como as pessoas usam a tecnologia para cometer crimes. O que falta é atenção a como a tecnologia pode agir de maneiras que causem danos. Para entender essas mudanças, o autor se baseia na Teoria Ator-Rede e no apelo de Woolgar por uma sociologia das máquinas, estruturas que ganharam nova relevância com o surgimento de modelos fundamentais de IA e agentes generativos.

Deste ponto de vista, os agentes de IA são mais do que ferramentas controladas por pessoas. Eles participam de redes sociais e técnicas que moldam eventos e resultados. Enxergá-los dessa forma amplia o foco da criminologia e ajuda a explicar como ações nocivas podem surgir de sistemas que conectam humanos e máquinas.

Campedelli acredita que a sociologia das máquinas é agora um campo de estudo. Com a ampla utilização da Inteligência Artificial Geral (GenAI) , os pesquisadores podem observar como sistemas independentes se comportam, trabalham em conjunto e, às vezes, causam danos sem que ninguém os planeje.

Entendendo a agência da máquina

Para compreender essa nova forma de agência, o estudo propõe três dimensões: computacional, social e jurídica.

A dimensão computacional descreve a capacidade de um sistema de IA de planejar, aprender e agir por conta própria. Essa capacidade permite que os agentes lidem com tarefas complexas ou se adaptem a novos cenários com supervisão humana limitada.

A dimensão social refere-se à forma como os sistemas de IA influenciam e são moldados por outros. Máquinas que negociam, trocam ou compartilham informações estão contribuindo para redes digitais que afetam cada vez mais a vida social.

A dimensão jurídica aborda questões de responsabilidade. À medida que os sistemas de IA ganham autonomia, as leis tradicionais que pressupõem o controle humano podem não ser mais adequadas. O estudo alerta para uma crescente lacuna de responsabilidade quando nenhuma pessoa individual pode ser responsabilizada por um resultado prejudicial.

Em conjunto, essas dimensões descrevem as máquinas como agentes dentro dos sistemas sociais, e não fora deles. Isso as torna um objeto legítimo de estudo criminológico.

Os riscos da IA ​​multiagente

O artigo também examina o uso crescente de sistemas de IA multiagentes, ou seja, redes de agentes autônomos que interagem para atingir objetivos. Exemplos já existem nas áreas de finanças, logística e pesquisa de defesa. Como aprendem uns com os outros, seu comportamento coletivo pode produzir resultados que nenhum modelo individual conseguiria gerar sozinho. Essa mesma capacidade pode criar novos tipos de risco.

Campedelli cita estudos que mostram que agentes de IA interagindo podem desenvolver comportamentos cooperativos de maneiras inesperadas. Alguns experimentos demonstraram conluio de preços, desinformação ou instruções ocultas que escaparam da supervisão humana.

O estudo observa que, à medida que esses sistemas se expandem, suas interações adicionam camadas de complexidade que tornam seu comportamento coletivo mais difícil de prever ou controlar. Cada agente já opera de maneiras difíceis de entender e, quando conectados em redes, essa incerteza se multiplica, reduzindo a capacidade humana de monitorar e orientar suas ações.

As coisas podem dar errado

O autor apresenta dois caminhos principais pelos quais os sistemas de IA podem ultrapassar limites legais ou éticos.

O alinhamento malicioso ocorre quando humanos projetam agentes de IA para cometer crimes ou causar danos. Uma rede de bots que manipula mercados ou realiza fraudes seria um exemplo. Nesse caso, o dano provém da intenção humana.

A anomalia emergente ocorre quando o dano surge acidentalmente por meio de interações normais entre sistemas. Mesmo quando cada agente é construído com boas intenções, suas ações combinadas podem causar danos. Um algoritmo de negociação que causa uma quebra de mercado ou um modelo de linguagem que dissemina informações falsas são exemplos disso.

Essa diferença é importante para a responsabilização. O alinhamento malicioso demonstra uso indevido intencional, enquanto o desvio emergente aponta para supervisão deficiente e previsão inadequada.

Questões para o futuro

Para orientar pesquisas futuras, o artigo levanta quatro questões.

Em primeiro lugar , as máquinas simplesmente imitarão as pessoas ou desenvolverão suas próprias normas de comportamento? À medida que o treinamento de IA se baseia mais em dados sintéticos do que em exemplos humanos, suas decisões podem se distanciar das expectativas humanas.

Em segundo lugar , será que as teorias existentes sobre o crime, criadas para humanos, conseguem explicar o comportamento das máquinas? Estruturas como a Teoria da Aprendizagem Social podem ser insuficientes, pois a IA carece de emoção e intenção no sentido humano. Essa teoria defende que as pessoas aprendem observando os outros e copiando o que lhes traz recompensas.

Em terceiro lugar , quais tipos de crime serão afetados primeiro? O estudo sugere que crimes digitais, como fraude, invasão de sistemas e manipulação, evoluirão mais rapidamente, enquanto crimes físicos envolvendo robôs podem surgir mais tarde.

Em quarto lugar , como será o policiamento na era dos sistemas autônomos? Uma ideia é criar sistemas de IA que monitorem outros sistemas de IA, de forma semelhante a como o software de segurança cibernética detecta intrusões. No entanto, isso levanta novos desafios éticos e de governança, especialmente se tais sistemas cometerem erros ou operarem sem o contexto humano.

Por: Sinisa Markovic , Redator Sênior, Help Net Security

Veja também:

About mindsecblog 3336 Articles
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

Be the first to comment

Deixe sua opinião!