Los ciberdelincuentes estĂĄn encantados con la IA: asĂ­ la estĂĄn utilizando segĂșn un estudio de Microsoft y OpenAI

Los ciberdelincuentes estĂĄn encantados con la IA: asĂ­ la estĂĄn utilizando segĂșn un estudio de Microsoft y OpenAI
los ciberdelincuentes estĂĄn encantados con la ia: asĂ­ la estĂĄn utilizando segĂșn un estudio de microsoft y openai

Era cuestiĂłn de tiempo que los ciberdelincuentes comenzaran a utilizar herramientas de inteligencia artificial para hacer mĂĄs efectivos sus ataques. No es ningĂșn secreto que los actores malintencionados han tenido dificultades a la hora de ejecutar algunas de sus campañas. En ocasiones, el cĂłdigo utilizado era detectado por sistemas antivirus y los correos electrĂłnicos que pretendĂ­an suplantar la identidad de compañías u organismos mostraban defectos evidentes para los usuarios.


Pues bien, segĂșn Microsoft y OpenAI esto estĂĄ cambiando en diferentes niveles. Los ciberdelincuentes estĂĄn aprovechando las bondades de los grandes modelos de lenguaje (LLM) como GPT-4 para mejorar sus tĂ©cnicas. AsĂ­ como cualquiera de nosotros puede recurrir a herramientas como ChatGPT para crear textos en diferentes idiomas e incluso programar con mayor facilidad, los piratas informĂĄticos pueden utilizarlos para actividades ilegales, aunque con el riesgo de ser descubiertos.


Ciberdelincuentes descubiertos


Las mencionadas compañías anunciaron este miĂ©rcoles que detectaron varios grupos de ciberdelincuentes vinculados a Rusia, Corea del Norte, IrĂĄn y China que habĂ­an estado utilizando sus servicios para un amplio abanico de tareas sospechosas. Se trata de hallazgos que llegan despuĂ©s de una profunda investigaciĂłn destinada a descubrir “amenazas emergentes en la era de la inteligencia artificial”. Veamos algunos detalles de los grupos mencionados por Microsoft y OpenAI en su estudio.


Strontium. Ha sido catalogado como un “actor de inteligencia militar ruso” que impulsa ataques de interĂ©s tĂĄctico y estratĂ©gico para el gobierno al que responde. Se cree que estĂĄ relacionado a actividades militares en Ucrania. El estudio señala que Strontium ha recurrido a los modelos de IA para tareas bĂĄsicas como automatizar y optimizar operaciones tĂ©cnicas, pero tambiĂ©n para otras mĂĄs avanzadas, como comprender protocolos de comunicaciĂłn por satĂ©lite y tecnologĂ­as de radar.


Emerald Sleet. En este caso se habla de un grupo norcoreano que utilizĂł los LLM para identificar vĂ­ctimas e incluso encontrar vulnerabilidades en diferentes sistemas para ejecutar ataques. Una de ellas ha sido la vulnerabilidad CVE-2022-30190 de una herramienta de soporte de la propia Microsoft. Asimismo, segĂșn el informe, este grupo ha utilizado los modelos de IA para mejorar la redacciĂłn y generaciĂłn de contenidos que probablemente podrĂ­an ser utilizados en campañas de phishing.


Charcoal Typhoon. Aquí se habla de un actor malintencionado vinculado al gobierno chino con un amplio abanico de objetivos que incluyen sectores gubernamentales, tecnológicos, infraestructura de comunicaciones e infraestructura energética. Al igual que los actores ya mencionados, este grupo ha utilizado los modelos de IA para comprender mejor tecnologías y plataformas que podrían ser utilizadas para realizar ataques. También se dice que ha utilizado estas herramientas para mejorar el código de malware, así como para pråcticas de ingeniería social.


Crimson Sandstorm. Por Ășltimo tenemos a un grupo que Microsoft y OpenAI consideran que estĂĄ conectado al Cuerpo de la Guardia Revolucionaria IslĂĄmica (IRGC) y que ha estado activo desde al menos 2017. Sus ataques en el pasado se han dirigido a los sectores del transporte marĂ­timo, la defensa y la atenciĂłn mĂ©dica. Una de las prĂĄcticas mĂĄs destacadas de este grupo con modelos de IA ha sido utilizarlos para intentar evadir los sistemas de seguridad de sus potenciales vĂ­ctimas.


Si bien en todos los casos se trata de actores malintencionados que aparentemente llevan impulsado actividades ilegales desde hace tiempo, Microsoft y OpenAI señalan que todavĂ­a no han conseguido detectar ningĂșn “ataque significativo” especĂ­fico utilizando LLM. En cualquier caso, ambas compañías han decidido publicar su investigaciĂłn para exponer cualquier tipo de movimiento en su etapa inicial. Asimismo, han optado por bloquear las cuentas asociadas a los mencionados grupos.


Cabe señalar que tanto ChatGPT como DALL·E y otros productos de OpenAI estĂĄn sujetos a una polĂ­tica de uso que prevĂ© sanciones para aquellos usuarios que cometan infracciones. La propia compañía explica que recurre a diferentes mĂ©todos para evaluar actividades potencialmente sospechosas. “Violar nuestras polĂ­ticas podrĂ­a resultar en acciones contra su cuenta, hasta la suspensiĂłn o cancelaciĂłn”, dice la compañía en la pagina de polĂ­tica de uso actualizada el pasado 10 de enero.


ImĂĄgen | Jonathan Kemper Markus Spiske


No hay comentarios.:

Con tecnologĂ­a de Blogger.