IA e cibersegurança: revolução e os riscos em 2025

IA e cibersegurança: Check Point Software aponta a revolução e os riscos em 2025

A crescente adoção da IA trará desafios em áreas como consumo energético, desenvolvimento de software e regulamentações

À medida que avançamos em 2025, a rápida evolução da inteligência artificial (IA) deverá remodelar dramaticamente o cenário da cibersegurança. A Check Point Software Technologies Ltd. (NASDAQ: CHKP), pioneira e líder global em soluções de segurança cibernética, prevê vários desenvolvimentos importantes que terão um impacto significativo no mundo digital. O aumento do uso de IA terá implicações de grande alcance em áreas como consumo de energia, desenvolvimento de software e marcos éticos e legais. Naturalmente, tecnologias de IA também serão utilizadas como “ciberarmas” por cibercriminosos e atacantes com foco em Estado-nação, criando novas ameaças à cibersegurança.

 

A explosão da IA

A adoção de tecnologias de IA está acelerando em um ritmo sem precedentes. O ChatGPT, por exemplo, atingiu 100 milhões de usuários apenas 60 dias após seu lançamento e agora conta com mais de 3 bilhões de visitas mensais. Esse crescimento explosivo não se limita ao ChatGPT; outros modelos de IA, como Claude, Gemini e Midjourney, também estão sendo amplamente adotados.

Até o final de 2024, 92% das empresas da Fortune 500 haviam integrado IA generativa em seus fluxos de trabalho, segundo o Financial Times. A Dimension Market Research prevê que, até 2033, o mercado global de grandes modelos de linguagem (LLMs) alcançará US$ 140,8 bilhões. “Essas tecnologias de IA exigem enormes recursos computacionais, e a rápida adoção já está impulsionando um aumento significativo na demanda por terreno, água e energia para sustentá-las. Em 2025, o impacto dessa demanda nas fontes naturais será amplamente sentido”, aponta Dan Karpati, vice-presidente de Tecnologias de IA da Check Point Software.

 

Demandas energéticas e inovação em eficiência

A proliferação da IA está exercendo enorme pressão sobre os recursos energéticos globais. Os Data Centers, que são a espinha dorsal das operações de IA, estão se multiplicando rapidamente. Esses centros requerem terra, energia e água, três recursos naturais preciosos que já estão sob pressão mesmo sem as crescentes demandas da IA.

Segundo a McKinsey, o número de data centers dobrou de 3.500 em 2015 para 7.000 em 2024. A Deloitte projeta que o consumo de energia desses centros saltará de 508 TWh em 2024 para impressionantes 1.580 TWh até 2034 — o equivalente ao consumo anual de energia da Índia.

Especialistas, como os da Deloitte, alertam que o sistema atual está se tornando rapidamente insustentável. A Goldman Sachs Research estima que a demanda por energia dos data centers crescerá 160% até 2030, com a IA representando cerca de 19% desse consumo até 2028. “Essa demanda sem precedentes por energia exige uma mudança para fontes de energia mais sustentáveis e soluções inovadoras de resfriamento para cargas de trabalho (workloads) intensivas de IA. Embora avanços tenham sido feitos na utilização de fontes alternativas de energia, é provável que a energia nuclear seja empregada para sustentar o aumento no consumo energético impulsionado pela IA”, afirma Karpati.

A tecnologia de computação também se tornará mais eficiente com avanços no design de chips e no planejamento de cargas de trabalho. Como as cargas de trabalho de IA frequentemente envolvem transferências massivas de dados, as inovações como arquiteturas de computação na memória (CIM) — que reduzem significativamente a energia necessária para mover dados entre memória e processadores — se tornarão essenciais.

Os chips de memória de acesso aleatório (RAM) integram processamento dentro da própria memória, eliminando a separação entre unidades de computação e memória, melhorando a eficiência. Essas e outras tecnologias disruptivas emergirão para ajudar a gerenciar a crescente demanda computacional de maneira eficiente em termos de energia.

 

IA responsável transformará o desenvolvimento de software

A IA está pronta para revolucionar o desenvolvimento e a programação de software. Observa-se um avanço além das ferramentas simples na função de autocompletar código, como o GitHub Copilot, para plataformas completas de criação de código, como CursorAI e Replit.com. Embora essa evolução prometa aumentar a produtividade, ela também traz riscos significativos à segurança.

A IA oferece a qualquer cibercriminoso a capacidade de gerar malware completo a partir de um único comando, inaugurando uma nova era de ameaças cibernéticas. A barreira de entrada para cibercriminosos desaparecerá, tornando-os mais sofisticados e difundidos, deixando nosso mundo digital com mais riscos pela frente.

Essa ameaça impulsionará a área de IA responsável, a qual se refere à prática de fornecedores de IA construírem barreiras para evitar a utilização maliciosa ou prejudicial de seus grandes modelos de linguagem. Desenvolvedores de software e fornecedores de cibersegurança devem unir forças para alcançar a IA responsável.

Os fornecedores de segurança possuem profunda experiência em entender a mentalidade de atacantes para simular e prever novas técnicas de ataque. Testadores de penetração, hackers “white hat” e equipes “red team” são dedicados a encontrar formas de explorar software antes que atacantes o façam, para que vulnerabilidades sejam corrigidas proativamente. Novas parcerias entre fornecedores de software e cibersegurança são necessárias para testar modelos de LLM quanto ao seu possível uso como arma cibernética.

 

Desafios éticos e regulatórios

Conforme a IA se torna mais presente, enfrentaremos crescentes desafios éticos e regulatórios. Duas importantes legislações já estão previstas para entrar em vigor em 2025. A Lei de IA da União Europeia entrará em vigor em 2 de fevereiro de 2025, com disposições adicionais sendo implementadas em 2 de agosto. Nos Estados Unidos, um novo marco regulatório para IA deve ser implementado por meio do Ato de Autorização de Defesa Nacional (NDAA) e outras medidas legislativas (no entanto, novas mudanças poderão incorrer a partir da posse do presidente Donald Trump), com provisões importantes previstas para o início de 2025. Essas novas leis forçarão as empresas a exercer maior controle sobre suas implementações de IA, e novas plataformas de governança de IA surgirão para ajudar a construir confiança, transparência e ética nos modelos de IA.

“Em 2025, podemos esperar um aumento em estruturas de garantia de IA específicas do setor industrial para validar a confiabilidade da IA, mitigação de vieses e segurança. Essas plataformas garantirão a explicabilidade dos resultados gerados pela IA, evitarão resultados prejudiciais ou tendenciosos e fomentarão confiança em ferramentas de cibersegurança baseadas em IA”, diz Dan Karpati.

Em resumo, para o executivo da Check Point Software, o ano de 2025 promete ser um marco para a IA e a cibersegurança. Embora a IA ofereça oportunidades sem precedentes de avanço, ela também apresenta desafios significativos. Uma cooperação estreita entre o setor comercial, fornecedores de software e segurança, governos e forças de segurança será essencial para garantir que essa poderosa tecnologia não prejudique a confiança digital ou o meio ambiente físico. “Como profissionais de cibersegurança, devemos estar à frente desses desenvolvimentos, adaptando nossas estratégias para aproveitar o poder da IA enquanto mitigamos seus riscos. O futuro será determinado por nossa capacidade de navegar nesse complexo cenário impulsionado pela IA”, conclui Karpati

Fonte: Check Point

Veja também:

About mindsecblog 2884 Articles
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

Be the first to comment

Deixe sua opinião!