34.4 C
Tegucigalpa

Aumentan en un 910% los registros de dominios relacionados con ChatGPT

Lo más reciente

En marzo, OpenAI lanzó una nueva versión de su modelo de lenguaje natural, GPT-4. Y el gran problema de cualquier avance tecnológico masivo es que casi siempre existe el peligro de los ciberataques: cuantos más usuarios, mayor es la superficie de ataque.

Para entender este movimiento, los investigadores de Unit 42, la unidad de Investigación e Inteligencia de Amenazas de Palo Alto Networks, están monitorizando los trending topics, los dominios recién registrados y los dominios ocupados relacionados con ChatGPT, ya que es una de las aplicaciones de consumo más populares y con mayor crecimiento de la historia, que también está atrayendo la atención de los estafadores.

Según el seguimiento de Unit 42, entre noviembre de 2022 y principios de abril de 2023, se produjo un aumento del 910 % en los registros mensuales de dominios relacionados con ChatGPT. Además, se pudo observar un crecimiento del 17,818 % en dominios de ataque relacionados con registros de seguridad DNS en este periodo de tiempo.

Los investigadores también descubrieron que era posible detectar hasta 118 intentos diarios de URL maliciosas relacionadas con ChatGPT, capturadas a partir del tráfico visto en el sistema de filtrado avanzado de URL.

Mientras OpenAI iniciaba su rápido ascenso para convertirse en una de las marcas más famosas dentro de la inteligencia artificial, se observaron varios casos de actores de amenazas que registraban y utilizaban dominios fraudulentos en estado salvaje que utilizaban “openAI” y “ChatGPT” como nombre. dominio (por ejemplo, openai[.]us, openai[.]xyz y chatgpt[.]jobs). La mayoría de estos dominios no han alojado nada malicioso desde principios de abril de 2023, pero es preocupante que no estén controlados por OpenAI u otras empresas auténticas de gestión de dominios y que estén siempre a punto de causar daños.

“Justo después de que Microsoft anunciara su nueva versión de Bing en febrero, se registraron más de 300 dominios relacionados con ChatGPT”, afirma Ramón García, District Sales Manager para Caribe y Centroamérica en Palo Alto Networks.

Al realizar la investigación, se pudieron observar varias URL de phishing que intentaban hacerse pasar por sitios web oficiales de OpenAI. Normalmente, los estafadores crean un sitio web falso que imita la apariencia del sitio web oficial de ChatGPT y luego engañan a los usuarios para que descarguen malware o compartan información confidencial.

Una técnica habitual que utilizan los estafadores para distribuir malware es presentar a los usuarios un botón “DESCARGAR PARA WINDOWS” que, una vez pulsado, descarga malware troyano, que es un programa malicioso que infecta dispositivos como si fuera un programa legítimo sin que las víctimas perciban el riesgo.

Además, los estafadores pueden utilizar la ingeniería social relacionada con ChatGPT para el robo de identidad o el fraude financiero.

A pesar de que OpenAI ofrece a los usuarios una versión gratuita de ChatGPT, los estafadores conducen a las víctimas a sitios web fraudulentos, alegando que deben pagar por estos servicios. Por ejemplo, el sitio web falso de ChatGPT intenta engañar a las víctimas para que faciliten su información confidencial, como datos de tarjetas de crédito y direcciones de correo electrónico.

Los especialistas también han observado que algunos estafadores se aprovechan de la creciente popularidad de OpenAI para obtener criptomonedas. Se pudo identificar a un estafador que abusaba del logotipo de OpenAI y del nombre de Elon Musk para atraer a las víctimas a un evento fraudulento de distribución de criptodivisas.

Los riesgos de los chatbots imitadores

Aunque ChatGPT se ha convertido en una de las aplicaciones más populares de este año, también han aparecido en el mercado un número cada vez mayor de aplicaciones de chatbot copiadoras (imitadoras) de IA.

Algunas de estas aplicaciones ofrecen sus propios modelos lingüísticos de gran tamaño, y otras afirman que ofrecen servicios ChatGPT a través de la API pública anunciada el 1 de marzo. Sin embargo, el uso de chatbots imitadores puede aumentar los riesgos de seguridad.

Antes de la publicación de la API de ChatGPT, existían varios proyectos de código abierto que permitían a los usuarios conectarse a ChatGPT a través de diversas herramientas de automatización.

Dado que ChatGPT no es accesible en determinados países o regiones, los sitios web creados mediante estas herramientas de automatización o API pueden atraer a un número considerable de usuarios de estas zonas. Esto también da a los actores de amenazas la oportunidad de monetizar ChatGPT mediante el proxy de su servicio.

“La inteligencia artificial es una realidad cada vez más presente en las organizaciones que utilizan esta tecnología para automatizar su productividad y la excelencia de sus procesos.

El firewall de nueva generación de Palo Alto Networks y los clientes Prisma Access con filtrado avanzado de URL, seguridad DNS y firmas WildFire reciben protección frente a las estafas relacionadas con ChatGPT. Y todos los indicadores maliciosos mencionados están cubiertos por estos servicios de seguridad”, destaca el experto de Palo Alto Networks. 

spot_img

spot_img
Dale play a Retro Radio

Destacados

Aumentan casos de abuso infantil y trata de personas en Islas de la Bahía

La Comisión Interinstitucional Contra la Explotación Sexual Comercial y Trata de Personas (CICESCT) emitió un preocupante informe sobre el aumento alarmante de casos de abuso infantil y trata de personas en las Islas de la Bahía durante el primer trimestre del año en curso.

Noticias relacionados