Edge Computing y centros de datos en la era de la IA
A medida que los grandes modelos de lenguaje (LLM) como ChatGPT y el aprendizaje automático (ML) generan un revuelo aparentemente interminable en los medios y la industria en torno a la promesa de la IA generativa, el crecimiento de estas tecnologías trae consigo una enorme cantidad de desafíos para el sector de los centros de datos.
Junto con la IA, tecnologías como el aprendizaje automático y el Internet de las cosas (IoT) requerirán centros de datos que tengan un gran ancho de banda y soluciones energéticas innovadoras. A medida que aumenta la necesidad de capacidad informática y mayor conectividad, también aumenta la dependencia de los operadores de sistemas de los centros de datos para procesar y almacenar de manera eficiente enormes cantidades de información y, al mismo tiempo, mantener un rendimiento excepcional.
Los sistemas de Edge Computing que utilizan algoritmos avanzados de IA pueden ejecutar el procesamiento de datos y la toma de decisiones en tiempo real dentro de una red para maximizar el rendimiento general. El Edge Computing también puede ayudar a habilitar el procesamiento de datos en tiempo real que se requiere para impulsar la IA. Con la IA generativa, los LLM, el IoT, la adopción de la nube, el procesamiento de datos en tiempo real y la demanda de aplicaciones de baja latencia que impulsan la capacidad informática a niveles sin precedentes, se proyecta que el mercado de el Edge Computing aumentará de aproximadamente $ 34 mil millones en 2024 a más de $ 700 mil millones en 2033.
Dado el ascenso meteórico de la IA generativa, la industria de los centros de datos ha tenido que adaptarse rápidamente para dar cabida al aumento de la capacidad informática y abordar la mayor demanda de soluciones energéticas eficaces para facilitarlo todo.
La clave para liberar el potencial de la IA probablemente dependerá de la eficacia del Edge Computing. Mediante una arquitectura de tecnología de la información (TI) distribuida, el Edge Computing procesa los datos en la periferia de la red, lo más cerca posible de su fuente original. Esto puede reducir la latencia y mejorar el rendimiento, al tiempo que reduce el consumo de energía, un antiguo adversario de los operadores de centros de datos a gran escala.
Abordar los desafíos de la implementación de modelos Edge
Para diseñar e implementar con éxito modelos de Edge Computing el sector de los centros de datos deberá abordar algunos desafíos. A medida que las organizaciones comiencen a depender menos de los centros de datos centralizados tradicionales para recopilar, procesar y almacenar datos, el Edge Computing tiene la capacidad de transformar la forma en que se realizan los negocios. Por ejemplo, a medida que las redes de energía se vuelven más ampliamente distribuidas, el Edge Computing puede proporcionar el procesamiento de datos de baja latencia necesario para facilitar las decisiones de generación y distribución de energía en tiempo real para satisfacer las demandas de manera óptima.
Un ecosistema de centros de datos menos centralizado también ofrece beneficios a nivel de consumidor. Sin embargo, la dependencia de los consumidores de aplicaciones que procesan grandes volúmenes de datos de rápido movimiento también está impulsando la necesidad de que los desarrolladores de centros de datos aborden desafíos logísticos. Estos incluyen establecer centros de datos cerca de vecindarios, instalaciones y áreas densamente pobladas que estén más cerca de las fuentes de datos. Esto es particularmente importante para las aplicaciones que requieren latencias muy bajas, como la transmisión en vivo, la realidad aumentada (RA) y los vehículos autónomos.
Como estas aplicaciones generan más demanda en la infraestructura de Edge Computing, surge otro desafío: mitigar el calor generado por los equipos de TI y las fuentes de alimentación dentro de estas instalaciones. Para hacer frente a los elevados niveles de calor que se generan, los desarrolladores tienen la tarea de implementar sistemas de energía eficientes que incluyan características como rectificadores de conducción o refrigerados por líquido de alta eficiencia, refrigeración por inmersión y soluciones de contención del calor. La mitigación del calor es fundamental para la eficiencia operativa del centro de datos y para evitar daños en los equipos o, peor aún, fallas del sistema.
Las consecuencias de los equipos dañados y las interrupciones del servicio pueden ser significativas. Según una encuesta de Uptime Institute, más de la mitad de los operadores de centros de datos encuestados sufrieron una interrupción del servicio entre 2020 y 2023. Y el coste de las interrupciones más graves sigue siendo alto, ya que el 54 por ciento de los encuestados afirmó que su interrupción más grave les costó más de 100.000 dólares. Además, casi uno de cada seis operadores afirmó haber experimentado una interrupción del servicio que le costó más de un millón de dólares.
Estas estadísticas alarmantes subrayan la importancia de los sistemas de energía resilientes de los centros de datos y la necesidad de que los problemas potenciales se controlen y se solucionen de forma remota y en cualquier momento. A medida que el Edge Computing impulsa la necesidad de centros de datos más dispersos, se ha otorgado una importancia especial a la supervisión y el diagnóstico remotos. Además, nunca ha sido mayor la necesidad de técnicos de servicio experimentados y disponibles de inmediato para ayudar a mantener el tiempo de actividad en estas redes críticas de borde. Esto requiere que los operadores de centros de datos establezcan un enfoque claro y estratégico para gestionar el complejo proceso de escalar los recursos según sea necesario.
Por último, la seguridad de los datos es otro aspecto fundamental de los procesos de Edge Computing, ya que varias ubicaciones de Edge pueden generar una mayor susceptibilidad a los ciberataques. Los operadores deben asegurarse de que sus ubicaciones de Edge cumplan con las medidas de privacidad y cumplimiento de datos estándar de la industria. También deben implementarse protocolos de seguridad, incluidos el control de acceso, la detección de amenazas y el cifrado de datos. También es fundamental supervisar y auditar continuamente los dispositivos y redes de Edge para garantizar la detección oportuna de amenazas o ataques.
Adopción de un enfoque holístico para la conectividad Edge a nivel nacional
Las partes interesadas en el ecosistema del Edge Computing, que incluyen a los gobiernos, los proveedores de servicios y los desarrolladores de aplicaciones, deben trabajar juntas para aprovechar al máximo los beneficios del Edge Computing. Para respaldar la amplia capacidad informática que exige la IA y abordar los desafíos que presenta la tecnología, será necesario adoptar un enfoque holístico y colaborativo en materia de arquitectura de red, diseño de infraestructura y gestión de sistemas.
(datacenterdynamics.com)
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Soluciones de infraestructura de Data centers y edge computing, componentes activos (UPS, AAC, generadores, tableros eléctricos, PDU) y pasivos (cables, gabinetes, pisos, accesorios, conectores), ciberseguridad, seguridad (perimétrica y de data) y controles (cámaras, extinguidores de gas, tableros de acceso). Energía limpia: generadores solares de energía para Data centers. Equipamiento integral para y hacia la nube. Cableado y gestión de cableado estructurado. Buenas prácticas ambientales», que estamos preparando para nuestra edición 212 y publicaremos en el mes de enero.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.