Los ciberdelincuentes estĂĄn encantados con la IA: asĂ la estĂĄn utilizando segĂșn un estudio de Microsoft y OpenAI
Era cuestiĂłn de tiempo que los ciberdelincuentes comenzaran a utilizar herramientas de inteligencia artificial para hacer mĂĄs efectivos sus ataques. No es ningĂșn secreto que los actores malintencionados han tenido dificultades a la hora de ejecutar algunas de sus campañas. En ocasiones, el cĂłdigo utilizado era detectado por sistemas antivirus y los correos electrĂłnicos que pretendĂan suplantar la identidad de compañĂas u organismos mostraban defectos evidentes para los usuarios.
Pues bien, segĂșn Microsoft y OpenAI esto estĂĄ cambiando en diferentes niveles. Los ciberdelincuentes estĂĄn aprovechando las bondades de los grandes modelos de lenguaje (LLM) como GPT-4 para mejorar sus tĂ©cnicas. AsĂ como cualquiera de nosotros puede recurrir a herramientas como ChatGPT para crear textos en diferentes idiomas e incluso programar con mayor facilidad, los piratas informĂĄticos pueden utilizarlos para actividades ilegales, aunque con el riesgo de ser descubiertos.
Ciberdelincuentes descubiertos
Las mencionadas compañĂas anunciaron este miĂ©rcoles que detectaron varios grupos de ciberdelincuentes vinculados a Rusia, Corea del Norte, IrĂĄn y China que habĂan estado utilizando sus servicios para un amplio abanico de tareas sospechosas. Se trata de hallazgos que llegan despuĂ©s de una profunda investigaciĂłn destinada a descubrir “amenazas emergentes en la era de la inteligencia artificial”. Veamos algunos detalles de los grupos mencionados por Microsoft y OpenAI en su estudio.
Strontium. Ha sido catalogado como un “actor de inteligencia militar ruso” que impulsa ataques de interĂ©s tĂĄctico y estratĂ©gico para el gobierno al que responde. Se cree que estĂĄ relacionado a actividades militares en Ucrania. El estudio señala que Strontium ha recurrido a los modelos de IA para tareas bĂĄsicas como automatizar y optimizar operaciones tĂ©cnicas, pero tambiĂ©n para otras mĂĄs avanzadas, como comprender protocolos de comunicaciĂłn por satĂ©lite y tecnologĂas de radar.
Emerald Sleet. En este caso se habla de un grupo norcoreano que utilizĂł los LLM para identificar vĂctimas e incluso encontrar vulnerabilidades en diferentes sistemas para ejecutar ataques. Una de ellas ha sido la vulnerabilidad CVE-2022-30190 de una herramienta de soporte de la propia Microsoft. Asimismo, segĂșn el informe, este grupo ha utilizado los modelos de IA para mejorar la redacciĂłn y generaciĂłn de contenidos que probablemente podrĂan ser utilizados en campañas de phishing.
Charcoal Typhoon. AquĂ se habla de un actor malintencionado vinculado al gobierno chino con un amplio abanico de objetivos que incluyen sectores gubernamentales, tecnolĂłgicos, infraestructura de comunicaciones e infraestructura energĂ©tica. Al igual que los actores ya mencionados, este grupo ha utilizado los modelos de IA para comprender mejor tecnologĂas y plataformas que podrĂan ser utilizadas para realizar ataques. TambiĂ©n se dice que ha utilizado estas herramientas para mejorar el cĂłdigo de malware, asĂ como para prĂĄcticas de ingenierĂa social.
Crimson Sandstorm. Por Ășltimo tenemos a un grupo que Microsoft y OpenAI consideran que estĂĄ conectado al Cuerpo de la Guardia Revolucionaria IslĂĄmica (IRGC) y que ha estado activo desde al menos 2017. Sus ataques en el pasado se han dirigido a los sectores del transporte marĂtimo, la defensa y la atenciĂłn mĂ©dica. Una de las prĂĄcticas mĂĄs destacadas de este grupo con modelos de IA ha sido utilizarlos para intentar evadir los sistemas de seguridad de sus potenciales vĂctimas.
Si bien en todos los casos se trata de actores malintencionados que aparentemente llevan impulsado actividades ilegales desde hace tiempo, Microsoft y OpenAI señalan que todavĂa no han conseguido detectar ningĂșn “ataque significativo” especĂfico utilizando LLM. En cualquier caso, ambas compañĂas han decidido publicar su investigaciĂłn para exponer cualquier tipo de movimiento en su etapa inicial. Asimismo, han optado por bloquear las cuentas asociadas a los mencionados grupos.
Cabe señalar que tanto ChatGPT como DALL·E y otros productos de OpenAI estĂĄn sujetos a una polĂtica de uso que prevĂ© sanciones para aquellos usuarios que cometan infracciones. La propia compañĂa explica que recurre a diferentes mĂ©todos para evaluar actividades potencialmente sospechosas. “Violar nuestras polĂticas podrĂa resultar en acciones contra su cuenta, hasta la suspensiĂłn o cancelaciĂłn”, dice la compañĂa en la pagina de polĂtica de uso actualizada el pasado 10 de enero.
ImĂĄgen | Jonathan Kemper Markus Spiske
No hay comentarios.: