FBI revela visão explosiva do impacto devastador da IA ​​de código aberto sobre hackers! Você não vai acreditar em seus olhos !

O impacto da IA ​​de código aberto no hacking: o ponto de vista do FBI

Os hackers estão usando cada vez mais inteligência artificial (IA) para aprimorar suas atividades criminosas. De acordo com o FBI, eles exploram modelos de IA de código aberto para prender os usuários da Internet.

Uso de IA por cibercriminosos

Os cibercriminosos utilizam chatbots baseados em modelos de linguagem como ChatGPT, Google Bard ou Claude para facilitar as suas atividades maliciosas. Eles conseguem contornar as medidas de segurança graças à sua experiência na área.

O FBI alertou sobre o uso massivo de padrões de linguagem pela comunidade criminosa. No entanto, ele percebeu que os modelos de IA mais populares entre os internautas não são os favoritos dos hackers.

Modelos de código aberto, uma ferramenta preferida pelos hackers

Os hackers preferem usar modelos de IA de código aberto gratuitos e personalizáveis, em vez daqueles controlados por empresas. Esses modelos, acessíveis a todos na internet, podem ser facilmente utilizados para gerar conteúdo ilícito.

Também é interessante notar que os criminosos usam modelos personalizados de IA desenvolvidos por outros hackers. Na dark web, existem muitos chatbots projetados para gerar conteúdo ilegal.

Os diferentes usos da IA ​​pelos cibercriminosos

Os hackers usam IA para criar páginas de phishing que imitam a interface das plataformas oficiais. Eles também exploram os recursos da IA ​​generativa para criar vírus polimórficos.

Além disso, eles usam tecnologia deepfake para extorquir dinheiro de suas vítimas. Eles geram imagens e vídeos falsos para assediar suas vítimas.

O futuro da IA ​​e do hacking

O FBI prevê um aumento no uso criminoso de IA à medida que a tecnologia se torna mais amplamente disponível. É, portanto, essencial desenvolver estratégias de prevenção e proteção para combater a utilização maliciosa da IA ​​pelos hackers.

É imperativo garantir a utilização responsável e ética da IA, assegurando simultaneamente modelos de IA de código aberto e reforçando as medidas de segurança para evitar a manipulação.

Fonte: Garon

Explosão do crime cibernético: inteligência artificial em perigo! Descubra as ameaças mais recentes e as perspectivas alarmantes

Cibercriminosos e a exploração da inteligência artificial

Os cibercriminosos utilizam cada vez mais a inteligência artificial (IA) para melhorar os seus ataques e torná-los mais credíveis e eficazes. Este uso de IA generativa, popularizado pelo ChatGPT, está se espalhando pelo mundo do crime cibernético. Agora, phishing, ransomware, golpes e até golpes presidenciais se beneficiam dessas novas ferramentas.

Uma democratização da IA ​​entre os cibercriminosos

A democratização da IA ​​entre os cibercriminosos torna-os mais eficientes e credíveis. Jean-Jacques Latour, diretor de especialização em cibersegurança da Cybermalveillance.gouv.fr, sublinha que os métodos utilizados pelos criminosos permanecem os mesmos, mas o volume e a força dos ataques estão a aumentar consideravelmente.

Ataques de phishing mais sofisticados

O phishing, que vem na forma de e-mails prometendo brindes ou descontos, está se tornando cada vez mais sofisticado. Os golpistas adaptam sua linguagem para convencer os usuários a clicar em links ou sites questionáveis, evitando erros grosseiros de sintaxe ou ortografia.

IA generativa para criar malware personalizado

A IA generativa pode ser sequestrada para criar malware personalizado, explorando vulnerabilidades conhecidas em programas de computador. Programas como ThreatGPT, WormGPT e FraudGPT estão crescendo na Darknet e ganhando popularidade entre atores mal-intencionados.

Exploração em massa de dados por hackers

Os hackers também usam IA para classificar e explorar grandes quantidades de dados depois de se infiltrarem em um sistema de computador. Isto permite-lhes maximizar os seus lucros, visando as informações mais relevantes.

O golpe presidencial e os geradores de áudio deepfake

A IA também está sendo usada no golpe presidencial, onde hackers coletam informações sobre executivos de empresas para fazer transferências fraudulentas. Graças aos geradores de áudio “deepfake”, eles podem imitar perfeitamente as vozes dos gestores e dar ordens de transferência.

Ransomware e vishing

O ransomware já usa IA para modificar seu código e evitar a detecção por ferramentas de segurança. Além disso, a técnica de vishing, em que um banqueiro falso solicita uma transferência de dinheiro, também poderia ser melhorada usando IA.

O uso de conteúdo sintético gerado por IA

A polícia britânica já relatou casos em que conteúdo sintético gerado por IA foi usado para enganar, assediar ou extorquir vítimas. Embora os primeiros casos em França não tenham sido registados oficialmente, permanecem dúvidas sobre a utilização da IA ​​por criminosos.

A regra de “confiança zero” na segurança cibernética

Perante estas novas ameaças, é essencial aplicar a regra da “confiança zero” em questões de cibersegurança e IA. Não devemos confiar em nenhum elemento a priori e implementar medidas de proteção adequadas para combater estas ameaças. Os hackers mais ativos são geralmente redes bem organizadas da Europa Oriental, mas os hackers estatais de países periféricos não devem ser esquecidos.

Conclusão

O cibercrime alimentado por IA representa uma ameaça crescente. Os cibercriminosos utilizam cada vez mais a IA para melhorar as suas técnicas e realizar ataques mais credíveis. É essencial permanecer vigilante e implementar medidas de proteção adequadas para combater estas ameaças.

Descubra a Dark Web e mergulhe no incrível mundo dos hackers e da IA ​​desenfreada!

O fascinante mundo dos hackers e da inteligência artificial desenfreada na Dark Web

Os hackers estão explorando cada vez mais a inteligência artificial (IA) generativa para realizar suas atividades criminosas. Uma investigação da Kaspersky Dark Web descobriu que o uso de IA, especialmente ferramentas de IA generativas, tornou-se comum e preocupante.

Milhares de discussões sobre o uso de IA para fins ilegais

A Kaspersky Digital Footprint Intelligence, empresa russa de segurança cibernética, analisou a Dark Web para identificar discussões sobre o uso de IA por hackers. Os pesquisadores encontraram milhares de conversas discutindo o uso de IA para fins ilegais e maliciosos.

Durante o ano de 2023, foram registradas nada menos que 3 mil discussões, com pico em março. Embora essas discussões tendam a diminuir ao longo do ano, elas continuam presentes e ativas na Dark Web.

IA ao serviço dos cibercriminosos

Essas discussões giram principalmente em torno do desenvolvimento de malware e do uso ilegal de modelos de linguagem. Os hackers estão explorando caminhos como processamento de dados roubados, análise de arquivos de dispositivos infectados e muitos outros.

Estas trocas demonstram o interesse crescente dos hackers na IA e o seu desejo de explorar as suas possibilidades técnicas, a fim de realizar atividades criminosas de forma mais eficaz.

Venda de contas ChatGPT roubadas e jailbreaks na Dark Web

Além das discussões sobre o uso de IA, a Dark Web também é um mercado próspero para a venda de contas ChatGPT roubadas. A Kaspersky identificou mais de 3.000 anúncios que vendem contas ChatGPT pagas.

Os hackers também oferecem serviços de registro automático para criar contas em massa sob demanda. Esses serviços são distribuídos por canais seguros como o Telegram.

Além disso, os pesquisadores observaram um aumento na venda de chatbots desbloqueados, como WormGPT, FraudGPT, XXXGPT, WolfGPT e EvilGPT. Essas versões maliciosas do ChatGPT estão livres de limitações, sem censura e carregadas com recursos adicionais.

Uma ameaça crescente à segurança cibernética

O uso de IA por hackers representa uma ameaça crescente à segurança cibernética. Os modelos de linguagem podem ser explorados de forma maliciosa, aumentando o número potencial de ataques cibernéticos.

É, portanto, essencial reforçar as medidas de cibersegurança para combater estas novas formas de ataques baseados na IA. Os especialistas devem permanecer vigilantes face a estes desenvolvimentos constantes e trabalhar para desenvolver estratégias eficazes para combater os cibercriminosos.

Cuidado com um terrível ataque de malware para iOS que usa IA para roubar rostos e hackear dados biométricos!

Nova ameaça: malware iOS rouba rostos para contornar a biometria com trocas de IA

Um grupo de hackers chineses desenvolveu um novo malware chamado “GoldPickaxe” que representa uma ameaça à segurança dos usuários de dispositivos móveis iOS. Este software usa trocas de inteligência artificial para contornar a biometria e roubar rostos, identificadores pessoais e números de telefone. Os cibercriminosos podem então usar essas informações para acessar as contas bancárias das vítimas.

Um ataque sofisticado

Os investigadores do Grupo-IB identificaram pelo menos uma vítima deste ataque, um cidadão vietnamita que perdeu aproximadamente 40.000 dólares como resultado deste engano. O que torna este ataque especial é o uso de deepfakes, vídeos manipulados que podem enganar os sistemas de segurança biométrica dos bancos do Sudeste Asiático. O malware se disfarça como um aplicativo governamental e tem como alvo principal os idosos. As vítimas são incentivadas a escanear seus rostos, o que permite que hackers gerem deepfakes a partir dessas varreduras.

O desafio da autenticação biométrica

Este ataque destaca o facto de as tecnologias deepfake terem atingido um nível avançado e serem capazes de contornar os mecanismos de autenticação biométrica. Os criminosos exploram esta fraqueza e aproveitam o facto de a maioria dos utilizadores desconhecer esta ameaça. Andrew Newell, diretor científico da iProov, explica que os deepfakes são a ferramenta preferida dos hackers porque lhes conferem poder e controle incríveis.

Como os hackers contornam os bancos tailandeses

O Banco da Tailândia implementou uma política para combater a fraude financeira, exigindo o reconhecimento facial para todas as ações importantes dos clientes. No entanto, o malware GoldPickaxe contornou rapidamente esta medida de segurança. Este malware, que surgiu três meses após a implementação da política do banco, apresenta-se como uma aplicação denominada “Pensão Digital” utilizada por idosos para receberem a sua pensão em formato digital. As vítimas são incentivadas a escanear seu rosto, fazer upload de sua carteira de identidade governamental e enviar seu número de telefone. Ao contrário de outros malwares bancários, o GoldPickaxe não opera sobre uma aplicação financeira real, mas coleta todas as informações necessárias para contornar as verificações de autenticação e fazer login manualmente nas contas bancárias das vítimas.

Luta contra trojans bancários biométricos

Ataques como este mostram a necessidade de uma evolução rápida no setor bancário para lidar com ameaças crescentes. Os bancos devem implementar medidas de segurança mais avançadas, adaptadas aos novos desafios tecnológicos. Recomenda-se aos bancos que implementem uma monitorização sofisticada das sessões dos utilizadores e dos clientes para adotarem boas práticas de segurança, incluindo evitar clicar em links suspeitos, verificar a autenticidade das comunicações bancárias e contactar prontamente o seu banco em caso de suspeita de fraude.