Национальная лаборатория Джефферсона в США работает над новой системой на базе искусственного интеллекта, чтобы улучшить эффективность дата-центров и сократить затраты.
Основная цель проекта — повысить надежность вычислительных систем и минимизировать время простоя.

Ключевой элемент разработки — это «DIDACT» (Digital Data Center Twin), система, использующая машинное обучение для обнаружения аномалий в работе серверов.
Она проводит анализ данных в реальном времени, отслеживая ошибки и сигнализируя администраторам о потенциальных сбоях, что позволяет им быстро решать проблемы до того, как они станут серьезными.
«DIDACT» применяет метод непрерывного обучения, благодаря которому нейросети постоянно адаптируются к новым условиям.
Чтобы повысить точность, используется соревновательная модель, в которой несколько алгоритмов обучаются на актуальных данных, а затем выбирается наиболее точный вариант.
Это обеспечивает постоянное улучшение предсказаний и надежности оборудования.
Дата-центры, аналогичные тем, что используются в лаборатории, обрабатывают огромные объемы данных, например, физические эксперименты в ускорителях частиц генерируют десятки петабайт в год.
Надежность серверов критически важна для ученых, и автоматизированный мониторинг поможет избежать задержек в исследованиях.
Разработчики «DIDACT» не только планируют выявлять сбои, но и оптимизировать энергопотребление дата-центров.
В перспективе система сможет управлять охлаждением серверов и регулировать нагрузку процессоров, снижая потребление ресурсов без потери производительности.