cibersegurança
O “lado negro” da Inteligência Artificial
O potencial do ChatGPT para a criação de emails de phishing, assim como de novos tipos de malware e de ameaças e ataques mais sofisticados é cada vez mais uma […]
Ana Rita Almeida
Superbrands Portugal e CP juntaram-se para iniciativa solidária
Campanha da ViniPortugal e OIVE chegou a mais de 100 milhões de consumidores europeus
Holiday Inn Porto Gaia entra no ano novo inspirado na Era Disco dos anos 70 e 80
Bolos artesanais da Padaria da Vermelha chegam à Aldi
O novo Impossible Coffee da Delta vem de São Tomé e Príncipe
Sindicato marca greve dos trabalhadores da distribuição a 24 e 31 de dezembro
Sesimbra Oceanfront Hotel convida a celebrar a passagem de ano com vista deslumbrante sobre o mar
Lidl investe 9M€ na nova loja em Leiria
Milka celebra a tradição sob o mote ‘O Natal Mais Ternurento’
Tascaria São Rafael é o spot perfeito com clássicos modernos portugueses para um fim de ano inesquecível
O potencial do ChatGPT para a criação de emails de phishing, assim como de novos tipos de malware e de ameaças e ataques mais sofisticados é cada vez mais uma preocupação para os especialistas.
Em poucos meses, o ChatGPT tornou-se no assunto do momento. Desde o seu lançamento, em novembro passado, que a procura deste chatbot da OpenAI cresceu exponencialmente. Deste e dos que se seguiram porque desde o investimento da Microsoft, às “rivais” como a Google que também criaram as suas soluções de IA generativa, foi fenómeno exponencial.
A verdade é que a curiosidade é muita e todos querem perceber o que é isto da IA generativa que promete revolucionar a forma como as pessoas trabalham ou encontram informações online.
Em menos de uma semana após o lançamento, ainda em versão beta, em novembro do ano passado, o ChatGPT conquistou um milhão de utilizadores. Desde então, a popularidade do chatbot da OpenAI cresceu exponencialmente. Hoje são milhões de utilizadores que o procuram.
Mas têm estas soluções um “lado negro” e vão ser aproveitadas para os ciberataques? De acordo com dados de um estudo da BlackBerry, onde foram inquiridos 1.500 profissionais de TI e cibersegurança dos Estados Unidos, Reino Unido e Austrália, 51% acreditam que o ChatGPT poderá ser utilizado em ciberataques nos próximos 12 meses.
Javier Castro Bravo, Associate Director e Global Leader CoE Cibersecurity da Stratesys, avança que a ransomware continua a ser a maior ameaça para as empresas devido ao seu potencial impacto operacional (perda de serviço), económico e reputacional. “Mas o aparecimento de modelos generativos de Inteligência Artificial (IA) utilizados intencionalmente de forma ‘maliciosa’, como o ChatGPT, pode facilitar a criação de códigos maliciosos avançados por grupos cibercriminosos, o que é previsível que aumente a frequência, âmbito e nível de risco de ataques em 2023” confirma.
No entanto, o especialista acredita que “ao mesmo tempo, a utilização de inteligência artificial na cibersegurança pode também ajudar a melhorar as ferramentas de deteção, proteção e resposta. Os mecanismos de identificação de ameaças, baseados na aprendizagem automática, podem ajudar a melhorar a deteção precoce de comportamentos anómalos em ambientes corporativos e a prevenção ou resposta a certos tipos de ataques”.
Para Javier Castro Bravo, o mundo da cibersegurança “é uma corrida entre dois campos: grupos de cibercriminosos e profissionais da cibersegurança. É fundamental que as empresas destinem parte do seu orçamento para a cibersegurança. Só assim estarão preparadas para as ameaças atuais e futuras, uma vez que o roubo de identidade e phishing, assim como os ataques, tanto de engenharia social como de exploração de vulnerabilidades, com recurso a sistemas autónomos e IA, se tornarão cada vez mais frequentes e eficazes. Temos de estar preparados”.
Paulo Pinto, Business Development Manager da Fortinet, lembra que à medida que os cibercriminosos se tornam mais sofisticados, também as ferramentas de segurança de uma organização devem evoluir.
“Os dados apurados no relatório de ameaças da FortiGuard Labs mostram que o tempo médio de permanência – o tempo que um atacante está presente na rede antes de agir ou de ser descoberto – é de cerca de seis meses. Esta é uma enorme ameaça para as organizações, que obriga a apostar em ferramentas inovadoras para, não só prevenir, mas detetar possíveis ameaças” explica.
“Isto inclui tecnologia de engano, mas também inteligência artificial e machine learning para correlacionar e extrair informações de possíveis ameaças dos dados recolhidos pelas ferramentas de cibersegurança atuais. Qualquer organização beneficiará da utilização de soluções que potenciem a IA e modelos de machine learning para detetar ameaças conhecidas e desconhecidas, bem como tomar decisões rápidas num cenário de ameaças em constante mudança” reforça.
O Business Development Manager da Fortinet frisa no entanto, que não existem “balas de prata”. “À semelhança de quem protege, também quem ataca recorre a este tipo de tecnologias para aperfeiçoar as táticas de ataque, procurando possíveis falhas nos sistemas de segurança. Tendo em conta estas duas faces da moeda no que diz respeito à IA e machine learning, importa definir alguns princípios básicos, como estar ciente de que podem haver entradas de adversários nos dados que suportam os algoritmos AI/ML; bem como perceber que os algoritmos estão a tornar-se mais inteligentes, mas os especialistas são mais importantes, especialmente porque há uma clara tendência em exigir explicações sobre as saídas dos algoritmos de IA” conclui.