Black Friday: O cenário dos riscos cibernéticos no ano da IA

postado em: Cibersegurança 0

A Black Friday registrou um faturamento total de R$ 3,9 bilhões em 2022 no Brasil, segundo pesquisa da Neotrust. O cenário para 2023 se mostra mais otimista. De acordo com estudo recente do Google, 67% dos brasileiros pretendem fazer compras na data, com aumento do ticket médio, já que um em cada quatro consumidores espera gastar mais de R$ 1.000 reais.

O estudo ainda revelou que 91% dos brasileiros vão usar canais online para obter informações sobre preços, produtos, descontos e, inclusive, concluir suas compras. Mas o que parece promissor serve também como sinal de alerta. Isso porque a Black Friday é a porta de entrada para a temporada de compras natalinas e para o aumento anual de ameaças à segurança online.

Black Friday: O cenário dos riscos cibernéticos no ano da IA
Black Friday: O cenário dos riscos cibernéticos no ano da IA

Sim, mais uma vez, o nível de ameaça ao seu negócio online e aos seus clientes está prestes a entrar em alerta vermelho. Então, o que você pode esperar deste ano?

Bem, os suspeitos de costume, é claro, como ataques de phishing, ransomware, ataques man-in-the-middle e assim por diante, mas 2023 também introduziu algumas novas reviravoltas para testar sua vigilância e a resiliência de seu sistemas. Estamos falando, é claro, do advento da Inteligência Artificial. Este foi o ano em que a IA se tornou popular, garantindo muitas manchetes, muitas especulações apocalípticas e um lugar permanente na consciência pública.

O surgimento da IA ​​parece o Velho Oeste dos primórdios da Internet e, tal como naqueles tempos sem lei, as pessoas estão descobrindo o potencial criminoso da nova tecnologia, e algumas delas podem estar a preparar-se para experimentá-las na Black Friday.

Ataques à cadeia de suprimentos da Web assistidos por IA

Em junho, a Vulcan Cyber ​​relatou que os cibercriminosos encontraram uma nova maneira de usar as “alucinações” do ChatGPT para distribuir malware aos desenvolvedores.

Os chatbots de IA são executados em LLMs (grandes modelos de linguagem) e suas redes neurais se assemelham ao cérebro humano. Eles usam a experiência adquirida com esses enormes conjuntos de dados para prever respostas a perguntas. Mas, tal como os cérebros humanos, por vezes emitem respostas inventadas, e estas respostas fantasmas são conhecidas como alucinações .

Com isso em mente, os pesquisadores da Vulcan reuniram perguntas populares da plataforma de codificação Stack Overflow, criaram-nas sobre Python e Node.js e depois as alimentaram no ChatGPT. 

O resultado? Das 400 respostas, cerca de 150 delas continham referências a pelo menos um pacote Python ou Node.js inexistente. A equipe então presumiu que, depois de fazer isso uma vez, as chances eram boas de que o ChatGPT as fornecesse como respostas legítimas novamente, então, na próxima vez que um desenvolvedor fizesse uma pergunta semelhante, o chatbot voltaria a se referir a esses pacotes de software imaginários.

Isso significa que os cibercriminosos podem renomear seus pacotes de códigos maliciosos de acordo com essas recomendações falsas e carregá-los em repositórios populares para os desenvolvedores encontrarem. Os desenvolvedores presumiriam que eram confiáveis ​​e os usariam. Com a mesma facilidade, eles poderiam entrar nas cadeias de abastecimento.

Se o site da sua empresa for como a maioria, ele depende de dezenas ou até centenas de aplicativos e trechos de código criados por desenvolvedores terceirizados para oferecer uma experiência segura e eficiente ao cliente. A ideia de que alguns deles possam estar associados a malware projetado para coletar silenciosamente dados de pagamento de clientes ou injetar clandestinamente ransomware em seus sistemas é assustadora.

Como lidar com ataques baseados em IA com uma abordagem abrangente

Como lidar com ataques baseados em IA com uma abordagem abrangente

Para combater eficazmente os ataques impulsionados pela IA, as organizações devem aumentar as suas práticas de segurança de aplicações com estratégias especificamente concebidas para mitigar estas ameaças emergentes. Vamos explorar alguns componentes principais de uma abordagem abrangente:

  • Medidas de segurança aprimoradas por IA : adotar técnicas de IA e aprendizado de máquina para reforçar as defesas de segurança permite que sistemas inteligentes analisem grandes quantidades de dados, detectem anomalias e identifiquem padrões indicativos de ataques impulsionados por IA. Ao aproveitar soluções de segurança baseadas em IA, as organizações podem ficar à frente do cenário de ameaças em evolução. Uma vantagem importante em qualquer programa de teste de segurança de aplicativos é o Veracode Fix, que produz recomendações de correção de segurança para vulnerabilidades comuns. 
  • Sistemas de detecção de intrusão (IDS) baseados em IA : a implementação de IDS que utilizam algoritmos de aprendizado de máquina pode detectar e responder a ataques gerados por IA. Esses sistemas aprendem o comportamento normal da rede e identificam atividades suspeitas, permitindo uma resposta rápida a incidentes e mitigando possíveis danos.
  • Compartilhamento de inteligência sobre ameaças: a colaboração com colegas do setor, pesquisadores de segurança e agências governamentais para compartilhar inteligência sobre ameaças relacionadas a ataques orientados por IA permite que as organizações aproveitem o conhecimento compartilhado e se mantenham atualizadas sobre técnicas e vulnerabilidades de ataque emergentes.
  • Desenvolvimento e testes éticos de IA: Incentivar práticas responsáveis ​​de desenvolvimento de IA que priorizem a segurança e considerações éticas minimiza o risco de vulnerabilidades não intencionais e uso indevido da tecnologia de IA. Ao incorporar medidas de segurança no ciclo de vida de desenvolvimento dos sistemas de inteligência artificial, as organizações podem minimizar o risco de vulnerabilidades não intencionais e o uso indevido destas tecnologias.
  • Educação e Treinamento Contínuos: Manter-se informado sobre as mais recentes técnicas de ataque baseadas em inteligência artificial e investir em programas regulares de treinamento para funcionários é crucial. Ao aumentar a consciencialização sobre os riscos de segurança relacionados com a IA, as organizações podem capacitar os seus funcionários para identificar e responder de maneira eficaz às ameaças.

No cenário em constante evolução da segurança de aplicações, o aumento dos ataques baseados em IA apresenta desafios significativos. É imperativo que as organizações adotem uma abordagem abrangente que ultrapasse as preocupações tradicionais de segurança, mas que também leve em consideração as ameaças emergentes representadas pela IA. Ao implementar medidas de segurança melhoradas por IA, alavancar sistemas de deteção de intrusões baseados em IA, partilhar informações sobre ameaças, promover práticas éticas de desenvolvimento de inteligência artificial e investir em educação e formação contínuas, as organizações podem fortalecer as defesas de segurança das suas aplicações contra ataques conduzidos por essa nova abordagem.

Lembre-se de que compreender os riscos e vulnerabilidades potenciais associados aos ataques orientados pela IA é o primeiro passo para a construção de medidas de segurança resilientes que possam proteger eficazmente aplicações e dados no mundo atual orientado pela IA.

Seguir Team VIVA:
Especialistas em Cibersegurança e Privacidade de Dados, Pentest, SOC, Firewall, Segurança de API e LGPD.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *