AEMpress
  • Home
  • Quem somos
  • O que fazemos
  • Onde estamos
  • Press Releases
  • Blogue
  • English version

ChatGPT e o perigo da industrialização do cibercrime potenciado por IA

31/1/2023

 
Fotografia
A rápida difusão e potencial de utilização de chatbots, ou bots de conversação, como o ChatGPT assinala a entrada numa nova fase de ciberameaças cada vez mais difíceis de detetar sem tecnologias de neutralização. A ESET, especialista europeia em cibersegurança, alerta que a chegada ao grande-público de um dos primeiros exemplos reais de tecnologia de inteligência artificial (IA) gratuita e fácil de usar pode reduzir quer a capacidade de reconhecimento das ameaças pelos utilizadores, quer a barreira de entrada a novos agentes maliciosos que tiram partido da capacidade do ChatGPT para escrever emails de phishing e malware.

Já com mais de um milhão de utilizadores, o ChatGPT potenciado por IA mobiliza grandes volumes de dados na Internet para responder a questões com aparente autoridade, naturalidade e em múltiplas línguas, incluindo português europeu. Segundo a ESET, este tipo de automação está a tornar-se numa enorme ameaça para a segurança dos utilizadores, que precisam de treinar a sua capacidade de deteção humana para reconhecer situações de perigo enquanto as tecnologias de resposta não recuperarem terreno.

“O ChatGPT tem um potencial de uso virtualmente ilimitado e, nesse sentido, proporciona-se a aplicações de cibercrime,” comenta a propósito Ricardo Neves, Marketing Manager da ESET em Portugal. “Desde emails de phishing passando por malware incrivelmente bem elaborado e difícil de reconhecer, é provável que esta atividade potenciada por IA exponha mais utilizadores e dispositivos a ciberameaças. No entanto, o ChatGPT ainda está numa fase embrionária. Os utilizadores devem ficar atentos a erros suspeitos no texto que indiciem que se trata de uma tentativa de fraude.”

Hackers já estão a conseguir que o ChatGPT produza ciberameaças para atingir qualquer alvo a qualquer momento. Com a ajuda do ChatGPT, os emails de phishing podem conseguir manipular os utilizadores com padrões de comunicação ainda mais convincentes e sem erros gritantes. A criação de infostealers básicos também se pode tornar mais célere e avançada, corrigindo inclusive erros no código. E embora esse código ainda não se compare ao de grupos cibercriminosos estabelecidos, a automação por IA reduz a barreira de entrada a agentes maliciosos menos experientes.
À medida que ferramentas potenciadas por IA como o ChatGPT se tornam mais amplamente disponíveis, é provável que mais cibercriminosos comecem a usá-las. Já se conhecem exemplos disso, como o uso indevido de imagens geradas por IA em campanhas de desinformação. Para a ESET, a maior preocupação é a automação e escalabilidade desta tecnologia.

Apesar de não existirem atualmente APIs oficiais do ChatGPT, existem opções criadas pela comunidade. Segundo a especialista em cibersegurança, isto tem o potencial de industrializar a criação e personalização de páginas web maliciosas, campanhas de phishing direcionadas e manobras de engenharia social, entre outras.

Imagem de alta resolução: https://fotos.aempress.com/WhiteHat/ESET/ChatGPT/

Comments are closed.

    Marcas e Empresas

    All
    121
    Acer
    AEMpress
    AgfaPhoto
    Angelbird
    AquaTech
    Axpo
    BenQ
    Biliti
    Binance
    Black Rock
    Bowers & Wilkins
    Brennenstuhl
    Camping Car Park
    Casa Da Imprensa
    CobraTether
    Cosori
    Cotton Carrier
    Definitive Technology
    Devolo
    ESET
    Evolution
    Feelworld
    GoodRAM
    Gudsen
    Hama
    Hasselblad
    Hollyland
    HP Instant
    InPost
    Invoxia
    Kevin
    Kodak
    LituFoto
    Lume Cube
    Macrium
    Madoqua
    Marantz
    Masimo
    Mental
    Metz
    Newell
    NIU
    Open Cosmos
    Peli
    Predator
    Priberam
    Qnap
    Rapoo
    Reflecta
    Robisa
    Rotel
    Rotolight
    Samyang
    SanDisk
    SantaFilm
    Satcab
    SoundUnited
    Sprig
    Tamron
    Thypoch
    TourBox
    Verizon Connect
    WhiteHat
    XEEN
    Xencelabs
    Yashica
    YoloLiv

    Data

    Outubro 2025
    Setembro 2025
    Agosto 2025
    Julho 2025
    Junho 2025
    Maio 2025
    Abril 2025
    Março 2025
    Fevereiro 2025
    Janeiro 2025
    Dezembro 2024
    Novembro 2024
    Outubro 2024
    Setembro 2024
    Agosto 2024
    Julho 2024
    Junho 2024
    Maio 2024
    Abril 2024
    Março 2024
    Fevereiro 2024
    Janeiro 2024
    Dezembro 2023
    Novembro 2023
    Outubro 2023
    Setembro 2023
    Agosto 2023
    Julho 2023
    Junho 2023
    Maio 2023
    Abril 2023
    Março 2023
    Fevereiro 2023
    Janeiro 2023
    Dezembro 2022
    Novembro 2022
    Outubro 2022
    Setembro 2022
    Agosto 2022
    Julho 2022
    Junho 2022
    Maio 2022
    Abril 2022
    Março 2022
    Fevereiro 2022
    Janeiro 2022
    Dezembro 2021
    Novembro 2021
    Outubro 2021
    Setembro 2021
    Agosto 2021
    Julho 2021
    Junho 2021
    Maio 2021
    Abril 2021
    Março 2021
    Fevereiro 2021
    Janeiro 2021
    Dezembro 2020
    Novembro 2020
    Outubro 2020
    Setembro 2020
    Agosto 2020
    Julho 2020
    Junho 2020
    Maio 2020
    Abril 2020
    Março 2020
    Fevereiro 2020
    Janeiro 2020
    Dezembro 2019
    Novembro 2019
    Outubro 2019
    Setembro 2019
    Agosto 2019
    Julho 2019
    Junho 2019
    Maio 2019
    Abril 2019
    Março 2019
    Fevereiro 2019
    Janeiro 2019
    Novembro 2018
    Outubro 2018

    RSS Feed

Imagem
CONTACTO
  • Home
  • Quem somos
  • O que fazemos
  • Onde estamos
  • Press Releases
  • Blogue
  • English version