Asegurar el centro de datos de IA

El verano pasado se informó de que a OpenAI, la empresa responsable de ChatGPT, le habían robado información sobre el diseño del chatbot.

Según el New York Times, el agresor obtuvo detalles sobre cómo la empresa construye sus herramientas de IA fisgoneando en un foro utilizado por los empleados de OpenAI.

Pero aunque no se cree que los sistemas utilizados para construir y ejecutar la IA fueran pirateados, el incidente demostró cómo los sistemas de IA -y los centros de datos utilizados para albergarlos y entrenarlos- son objetivos principales para los ciberatacantes.

La razón es sencilla: a medida que la IA se integra más en nuestras vidas, más valiosos son los algoritmos que la sustentan y los conjuntos de datos con los que se entrenan. Y no sólo las enormes cantidades de información que procesan los proveedores de IA y sus plataformas son extremadamente valiosas para los ciberdelincuentes y los actores de amenazas maliciosas, sino que también existe el riesgo de que los atacantes intenten hacerse con los secretos y el código fuente que impulsan la IA.

Atacar la IA

Porque, como ocurre con cualquier tipo de nueva tecnología, software o producto, hay quien quiere hacerse con él por todos los medios. Eso puede incluir piratear el centro de datos donde se aloja, ya sea para hacerse con la propiedad intelectual necesaria para construir su propia versión, robar información o llevar a cabo una serie de otros actos maliciosos.

«El valor de los datos alojados en estos centros de datos es cada vez mayor, por lo que se están convirtiendo en un objetivo cada vez más importante, y cada vez más partes del mundo se ejecutan en infraestructuras que se encuentran en estos entornos», afirma Paul Shaver, responsable de seguridad de tecnología operativa global de Google Cloud Security.

«Se han convertido en infraestructuras críticas con bastante rapidez en la forma en que nos inclinamos a aprovechar cada vez más la nube y la tecnología de IA»

Al igual que con otras formas de infraestructura crítica, los centros de datos que albergan herramientas de IA se convierten rápidamente en un objetivo muy tentador para los ciberatacantes. Y mientras que las formas más tradicionales de infraestructuras críticas, como la energía, el procesamiento de alimentos y los sistemas de suministro de agua pueden funcionar en sistemas protegidos por aire, la propia naturaleza de la IA significa que los centros de datos que la alimentan están directamente frente a Internet. Aunque necesario, esto significa que esta forma de infraestructura crítica es potencialmente más vulnerable a intrusiones no autorizadas.

Aumenta la superficie de ataque», afirma Shaver. «Estás poniendo más en Internet con más conectividad en estos entornos, lo que presenta otro vector de ataque que necesita ser monitoreado, controlado y actualizado»

Naturalmente, los ciberdelincuentes son conscientes de esta superficie de ataque ampliada en torno a los centros de datos que alojan IA y están tratando de aprovecharla. Y con muchos sistemas de IA alojados en infraestructuras basadas en la nube, los hackers intentarán explotar las mismas técnicas que utilizan para atacar aplicaciones basadas en la nube: como el uso de ataques de suplantación de identidad o phishing para hacerse con credenciales legítimas, o quizás incluso la distribución de malware para proporcionarles una puerta trasera secreta al sistema. Y cada vez utilizan más herramientas de IA para ayudar a llevar a cabo los ataques.

«Los atacantes están aprovechando la IA para identificar formas de explotar estos sistemas, para escribir correos electrónicos de phishing y para escribir código malicioso», dice Shaver.

Pero también hay otro vector de amenaza en el que pensar a la hora de proteger los centros de datos que almacenan los modelos: la cadena de suministro.

«Porque por su propia naturaleza, los LLM y la IA dependen en gran medida de integraciones y API, lo que significa que hay muchas conexiones y marcos de terceros», dice Michael Adjei, director de ingeniería de sistemas de Illumio.

«El problema es que la mayoría son nuevos. Si tienes algo que es nuevo, que no ha sido sometido a pruebas de estrés, es un blanco fácil para las bandas cibernéticas. Sobre todo si se ha invertido mucho en I+D para llegar al punto en el que la propiedad intelectual es comercial», explica.

Muévete rápido y rompe cosas (y olvídate de protegerlas)

Es una historia tan antigua como la tecnología: cuando algo es nuevo y emocionante, las empresas están deseando lanzar su nuevo producto lo antes posible, especialmente si compiten con sus rivales por una cuota de mercado.

Pero la velocidad a la que se lanzan los productos al mercado puede acarrear problemas, sobre todo en lo que respecta a la seguridad de los sistemas. Desgraciadamente, es poco probable que una organización que quiera asegurarse de ser la más rápida en salir al mercado pruebe todos los aspectos de su producto, por no hablar de examinar las herramientas y empresas utilizadas en su cadena de suministro. Y eso crea oportunidades para los atacantes oportunistas.

«Si soy un Estado-nación y veo que a tu empresa le va bien, dedicaré recursos a intentar robar esa información, en lugar de construirla desde cero», afirma Adjei. «Si saben que funciona, pueden robarla y hacerla suya»

La rapidez con la que la IA y los LLM se hicieron públicos y se convirtieron en herramientas de uso generalizado por parte de las empresas provocó una escasez de GPU, ya que los proveedores de IA se apoderaron de ellas para permitir el procesamiento de alta potencia necesario para ejecutar y entrenar sus modelos.

Todavía hay solo un puñado de grandes empresas -encabezadas por Nvidia y AMD- que fabrican y suministran GPU adecuadas para los centros de datos de IA. Un atacante astuto y con recursos podría aprovecharse de ello corrompiendo la cadena de suministro de forma que le proporcionara acceso directo a los centros de datos.

«Si tuviera que priorizar las mayores preocupaciones, diría que la mayoría de las grandes empresas utilizan determinados proveedores de LLM y todos ellos utilizan determinado hardware: las GPU más elegantes, nuevas y brillantes. Si puedes conocer esos proveedores de IA y el hardware, entonces quizá un atacante podría plantar algo en la cadena de suministro», sugiere Itamar Golan, CEO y cofundador de Prompt Security.

«Podrías envenenar potencialmente el hardware utilizado para entrenar a los LLM. Si puedes entrar en la cadena de suministro de las GPU, puedes hacerlas vulnerables a ciertas entradas y palabras clave, y ahora puedes tomar el control desde el nivel de hardware. Es algo a tener en cuenta»

Envenenamiento del suministro de datos

El envenenamiento de datos se produce cuando un actor malicioso inserta intencionadamente datos falsos en los datos de entrenamiento de una IA con el objetivo de manipular o cambiar el funcionamiento del modelo. La mayoría de las veces, de una forma diseñada para perturbar el funcionamiento de la IA o engañarla para que divulgue datos sensibles o perjudiciales.

«Pueden hacerlo de muchas maneras. Pueden piratear tu sistema y añadir muestras falsas. Pueden utilizar lo que tú añades, como los comentarios de los clientes, pero sesgarlo intencionadamente hacia un comportamiento que no sea la media. Pero al final, tu modelo se está entrenando con datos sesgados o malintencionados», explica Golan.

«Las consecuencias pueden ir desde simplemente no generar buenos resultados porque el conjunto de entrenamiento está impactado, hasta ser capaz de generar contenido dañino. Podría ser vulnerable a un token secreto que se puede utilizar para tomar el control del modelo y otras capacidades maliciosas sofisticadas.»

Por tanto, es esencial proteger los centros de datos que se utilizan para entrenar los modelos de IA, sobre todo a medida que su uso se generaliza en las empresas y la sociedad.

«La IA se ha convertido en algo omnipresente y no podemos evitarla, por lo que los proveedores tienen una mayor responsabilidad a la hora de garantizar su protección», afirma Adjei.

«Ya sea que se trate de estados-nación que quieren robar su modelo, o un actor de amenaza que quiere usar inyecciones rápidas para manipular su modelo, ese riesgo es real»

Entonces, ¿qué medidas deben tomar los operadores de centros de datos de IA para garantizar que su infraestructura permanezca protegida contra ciberataques, envenenamiento de datos y otras amenazas? En muchos sentidos, los operadores deberían seguir las mismas estrategias de ciberseguridad que los que aseguran cualquier otro sistema o infraestructura.

«Pensamos en la IA como esta cosa nueva -y en gran medida lo es- pero la tecnología en su conjunto tiene el mismo ciclo de vida de buena higiene de seguridad, buenas detecciones, probando esas capacidades contra escenarios de ataque del mundo real basados en el panorama de amenazas», dice Shaver.

«No estamos reinventando la rueda, sólo que la rueda va más deprisa. Así pues, se trata de prestar atención al panorama de las amenazas, desarrollar la higiene de la seguridad y las defensas frente a lo que hacen los atacantes. Los ataques cambian, los exploits cambian, pero el ciclo de vida de la protección de la IA no es diferente», concluye.

(datacenterdynamics.com)

Les estaremos informando con mucho más detalle, en el marco del informe especial: “Soluciones de infraestructura de Data centers y edge computing, componentes activos (UPS, AAC, generadores, tableros eléctricos, PDU) y pasivos (cables, gabinetes, pisos, accesorios, conectores). Climatización y Refrigeración. Ciberseguridad, seguridad (perimétrica y de data) y controles (cámaras, extinguidores
de gas, tableros de acceso). Energía limpia: generadores solares de energía para Data centers. Equipamiento integral para y hacia la nube. Cableado y gestión de cableado estructurado.. Buenas prácticas ambientales», que estamos preparando para nuestra edición 223 y publicaremos en el mes de marzo.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Digiqole Ad
...

Notas Relacionadas