Los piratas informáticos de China, Rusia y otros países utilizaron sistemas OpenAI, según el informe.

Los piratas informáticos que trabajan para estados-nación han utilizado los sistemas de OpenAI para crear sus ataques cibernéticos, según una investigación publicada el miércoles por OpenAI y Microsoft.

Las empresas creen que su investigación, publicada en sus sitios web, documenta por primera vez cómo los piratas informáticos vinculados a gobiernos extranjeros utilizan inteligencia artificial generativa en sus ataques.

Pero en lugar de utilizar la IA para generar ataques exóticos, como temían algunos en la industria tecnológica, los piratas informáticos la utilizaron de formas mundanas, como redactar correos electrónicos, traducir documentos y depurar códigos informáticos, dijeron las empresas.

«Ellos son simplemente usándolo como lo hacen todos los demás, para tratar de ser más productivos en lo que están haciendo”, dijo Tom Burt, quien supervisa los esfuerzos de Microsoft para monitorear y detener los principales ataques cibernéticos.

Microsoft ha comprometido 13 mil millones de dólares para OpenAI, y el gigante tecnológico y la nueva empresa son socios cercanos. Compartieron inteligencia sobre amenazas para documentar cómo cinco grupos de piratas informáticos con vínculos con China, Rusia, Corea del Norte e Irán utilizaron la tecnología de OpenAI. Las empresas no dijeron qué tecnología OpenAI se utilizó. La startup dijo que bloqueó el acceso después de enterarse del uso.

Desde que OpenAI lanzó ChatGPT en noviembre de 2022, los expertos en tecnología, la prensa y los funcionarios gubernamentales han temido que los adversarios puedan utilizar sus herramientas más poderosas como armas, buscando formas nuevas y creativas de explotar las vulnerabilidades. Al igual que otras cosas con la IA, la realidad puede estar más subestimada.

“¿Está proporcionando algo nuevo e innovador que está acelerando a un adversario, más allá de lo que podría hacer un mejor motor de búsqueda? No he visto ninguna evidencia de eso”, dijo Bob Rotsted, quien dirige la inteligencia sobre amenazas a la ciberseguridad para OpenAI.

Dijo que OpenAI limita los lugares donde los clientes pueden registrarse para obtener cuentas, pero que los perpetradores sofisticados podrían evadir la detección mediante diversas técnicas, como enmascarar su ubicación.

«Se registran como cualquier otra persona», dijo Rotsted.

Microsoft dijo que un grupo de piratas informáticos vinculado al Cuerpo de la Guardia Revolucionaria Islámica de Irán utilizó sistemas de inteligencia artificial para investigar formas de evitar los escáneres de virus y generar correos electrónicos de phishing. Los correos electrónicos incluían “uno que pretendía ser de una agencia de desarrollo internacional y otro que intentaba atraer a feministas prominentes a un sitio web sobre feminismo creado por un atacante”, dijo la compañía.

En otro caso, un grupo afiliado a Rusia que intenta influir en la guerra en Ucrania utilizó los sistemas de OpenAI para realizar investigaciones sobre protocolos de comunicaciones por satélite y tecnología de imágenes de radar, dijo OpenAI.

Microsoft rastrea a más de 300 grupos de piratas informáticos, incluidos ciberdelincuentes y estados nacionales, y los sistemas propietarios de OpenAI han hecho que sea más fácil rastrear e interrumpir su uso, dijeron los ejecutivos. Dijeron que si bien había formas de identificar si los piratas informáticos estaban utilizando tecnología de inteligencia artificial de código abierto, la proliferación de sistemas abiertos ha dificultado la tarea.

«Cuando el trabajo es de código abierto, no siempre es posible saber quién está implementando esa tecnología, cómo la está implementando y cuáles son sus políticas para el uso responsable y seguro de la tecnología», dijo Burt.

Microsoft no descubrió ningún uso de inteligencia artificial generativa en el ataque ruso a altos ejecutivos de Microsoft que la compañía reveló el mes pasado, dijo.

caídas de metz contribuyó con informes desde San Francisco.