Los ciberdelincuentes están utilizando inteligencia artificial para llevar a cabo esquemas más elaborados. Están apuntando a todo, desde ahorros de jubilación hasta secretos corporativos conLos ciberdelincuentes están utilizando inteligencia artificial para llevar a cabo esquemas más elaborados. Están apuntando a todo, desde ahorros de jubilación hasta secretos corporativos con

La IA potencia el cibercrimen mientras las estafas crecen más rápido, más baratas y más difíciles de detectar

Los cibercriminales están utilizando inteligencia artificial para llevar a cabo esquemas más elaborados. Están apuntando a todo, desde ahorros de jubilación hasta secretos corporativos, con métodos que se vuelven cada vez más difíciles de detectar.

La misma tecnología que personaliza anuncios para compradores en línea ahora está siendo utilizada por actores maliciosos para recopilar detalles personales y lanzar estafas personalizadas rápidamente. Muy rápidamente.

Grandes empresas de IA como Anthropic, OpenAI y Google informan que los criminales están aprovechando sus plataformas para orquestar operaciones complejas de phishing, desarrollar software dañino y ejecutar diversos ataques digitales. Los especialistas en seguridad advierten que los criminales también están produciendo clips de audio y video falsos de líderes empresariales para engañar a los empleados y que entreguen información confidencial.

Las empresas y oficinas gubernamentales pronto podrían enfrentar enjambres de sistemas impulsados por IA que pueden detectar debilidades en las redes informáticas y luego planificar y ejecutar ataques con casi ninguna ayuda humana.

La tecnología está cambiando cómo operan los criminales en línea. Alice Marwick dirige la investigación en Data & Society, una organización independiente de investigación tecnológica. Le dijo al Wall Street Journal que el mayor cambio involucra tamaño y alcance. "El verdadero cambio es alcance y escala. Las estafas son más grandes, más dirigidas, más convincentes."

Brian Singer es estudiante de doctorado en la Universidad Carnegie Mellon. Estudia cómo se utilizan los grandes modelos de lenguaje en ciberataques y defensas. ¿Su estimación? La mitad a tres cuartos de los mensajes de spam y phishing mundiales ahora provienen de sistemas de IA.

Los ataques en sí se han vuelto más creíbles. Los sistemas de IA entrenados en comunicaciones empresariales pueden producir miles de mensajes que suenan naturales y coinciden con el estilo de una empresa. Copian cómo escriben los ejecutivos. Mencionan noticias recientes encontradas en registros públicos.

La tecnología también ayuda a los estafadores en el extranjero a ocultar errores de idioma que solían hacer obvios sus intentos. Los criminales pueden suplantar a las víctimas mediante videos falsos y voces copiadas. Utilizan la misma identidad falsa para dirigirse a varias personas a la vez.

John Hultquist es analista principal del Grupo de Inteligencia de Amenazas de Google. Describe el cambio principal como "credibilidad a escala."

Los actores maliciosos también están mejorando en la selección de objetivos. Utilizan IA para revisar las redes sociales y encontrar personas que enfrentan dificultades importantes en la vida. Divorcio, muertes familiares, pérdida de empleo y situaciones que podrían hacer que alguien sea más vulnerable a trucos románticos, fraude de inversión u ofertas de trabajo falsas.

Los mercados de la dark web reducen la barrera de entrada

La barrera de entrada para el cibercrimen ha disminuido. Los mercados clandestinos ahora venden o alquilan herramientas de IA para trabajo criminal por tan solo $90 al mes. Nicolas Christin dirige el departamento de software y sistemas sociales de Carnegie Mellon.

Dijo que estas plataformas vienen con diferentes niveles de precios y ayuda al cliente. "Los desarrolladores venden suscripciones a plataformas de ataque con precios escalonados y soporte al cliente."

Estos servicios tienen nombres como WormGPT, FraudGPT y DarkGPT. Pueden crear software dañino y campañas de phishing. Algunos incluso incluyen materiales de enseñanza sobre técnicas de hacking.

Margaret Cunningham es vicepresidenta de seguridad y estrategia de IA en Darktrace, una empresa de seguridad. Ella dice que es simple. "No necesitas saber cómo codificar, solo dónde encontrar la herramienta."

Hay un desarrollo reciente llamado vibe-coding o vibe-hacking. Podría permitir a aspirantes a criminales usar IA para crear sus propios programas maliciosos en lugar de comprarlos de fuentes clandestinas. Anthropic reveló a principios de este año que había detenido varios intentos de usar su IA Claude para crear ransomware por "criminales con pocas habilidades técnicas."

Las operaciones criminales en sí están cambiando. El cibercrimen ha funcionado como un mercado empresarial durante años, según los expertos. Una operación típica de ransomware involucraba diferentes grupos. Intermediarios de acceso que irrumpían en redes empresariales y vendían la entrada. Equipos de intrusión que se movían por los sistemas robando datos. Y proveedores de ransomware como servicio que liberaban el malware, manejaban negociaciones y dividían el dinero.

Velocidad y automatización reconfiguran las redes criminales

La IA ha aumentado la velocidad, tamaño y disponibilidad de este sistema. El trabajo previamente realizado por personas con conocimientos técnicos ahora puede ejecutarse automáticamente. Esto permite que estos grupos operen con menos personas, menos riesgo y mayores ganancias. "Piénsalo como la siguiente capa de industrialización. La IA aumenta el rendimiento sin requerir más mano de obra calificada," explica Christin.

¿Puede la IA lanzar ataques completamente por sí sola? Todavía no. Los expertos comparan la situación con el impulso hacia vehículos completamente autónomos. El primer 95% se ha logrado. Pero la parte final que permitiría a un automóvil conducir en cualquier lugar, en cualquier momento por sí mismo permanece fuera de alcance.

Los investigadores están probando las habilidades de hacking de la IA en entornos de laboratorio. Un equipo de Carnegie Mellon, apoyado por Anthropic, recreó la famosa violación de datos de Equifax usando IA a principios de este año. Singer lideró el trabajo en el Instituto de Seguridad y Privacidad CyLab de Carnegie Mellon. Lo llama "un gran salto."

Los criminales explotan la IA con propósitos dañinos. Pero las empresas de IA dicen que las mismas herramientas pueden ayudar a las organizaciones a fortalecer sus defensas digitales.

Anthropic y OpenAI están construyendo sistemas de IA que pueden examinar continuamente el código de software para localizar debilidades que los criminales podrían explotar. Sin embargo, las personas aún deben aprobar cualquier corrección. Un programa de IA reciente desarrollado por investigadores de Stanford tuvo mejor desempeño que algunos evaluadores humanos al buscar problemas de seguridad en una red.

Incluso la IA no detendrá todas las violaciones. Por eso las organizaciones deben enfocarse en crear redes resistentes que sigan funcionando durante los ataques, dice Hultquist.

Si estás leyendo esto, ya estás adelante. Mantente ahí con nuestro boletín.

Oportunidad de mercado
Logo de Sleepless AI
Precio de Sleepless AI(AI)
$0.03899
$0.03899$0.03899
+0.43%
USD
Gráfico de precios en vivo de Sleepless AI (AI)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.