Как меняются архитектуры питания дата-центров
От 12В к 48В и дальше — к 800В
Энергетическая архитектура дата-центров переживает крупнейшую трансформацию за десятилетия. Если раньше стандартом распределения питания была модель на 12В постоянного тока, то в последние годы индустрия сделала шаг к 48В системам. Это позволило снизить потери и сократить потребность в меди, обеспечивая подачу больших токов без чрезмерного увеличения проводников.
Сегодня на горизонте уже 800В архитектуры, такие как стоечное решение Kyber от Nvidia. По словам экспертов, они позволят ещё больше повысить эффективность, уменьшить тепловые потери и существенно снизить объем меди в конструкциях дата-центров.
Роль силовых полупроводников
Главная причина, почему такие изменения стали возможны, — прогресс в области силовой электроники. Использование карбида кремния (SiC) и нитрида галлия (GaN) расширяет диапазон рабочих напряжений и делает возможной надёжную работу на уровнях, ранее считавшихся недостижимыми для массовой эксплуатации.
«Чем ближе этап преобразования к процессору, тем выше ток и больше требуется силовых полупроводников», — пояснил Боб Кэрролл, бывший глава R&D в Infineon.
По его словам, кремний остаётся основой на низковольтных этапах, GaN применяется в средневольтных решениях, а SiC — на самых высоких напряжениях. Даже при росте эффективности общее потребление полупроводников не снижается, поскольку потребности в мощности увеличиваются быстрее.
От блоков питания к интегрированным выпрямителям
По данным Barclays, традиционная модель стоечных блоков питания уходит в прошлое. На смену им приходят крупные выпрямители, которые способны напрямую преобразовывать переменное напряжение сети в постоянное для подачи в вычислительные стойки. Это открывает возможности для радикального пересмотра всей инфраструктуры питания дата-центров.
Для производителей блоков питания такой сдвиг несёт риски: привычные конструкции теряют актуальность. Однако это создаёт простор для новых решений на базе передовых полупроводников, где Infineon и STMicro уже предлагают конкурентные продукты.
Проблема надёжности GaN
Несмотря на преимущества GaN в эффективности, остаётся проблема надёжности. Плотность дефектов пока велика, и использование в критически важных средах несёт риск.
«Если один компонент выходит из строя, возможно, придётся менять целые карты GPU», — предупреждает Кэрролл.
Для индустрии дата-центров, где простои стоят миллионы долларов, такие угрозы становятся ключевым сдерживающим фактором для массового внедрения GaN.
Игроки рынка: Infineon и конкуренты
Barclays выделяет Infineon как лидера, обладающего вертикально интегрированным портфелем и системным подходом. Компания активно развивает решения на базе SiC и GaN, позиционируя себя как поставщика для AI-дата-центров нового поколения.
STMicroelectronics также имеет соответствующие продукты, но аналитики отмечают, что компании нужно действовать быстрее, чтобы не упустить долю рынка на фоне бурного роста спроса на эффективные архитектуры питания.
Будущее питания дата-центров
Переход к 800В системам меняет правила игры: он обещает повысить эффективность, снизить издержки на материалы и упростить архитектуру. Но он также требует новых стандартов надёжности и пересмотра всей экосистемы силовой электроники.
Эксперты ожидают, что в ближайшие 5–10 лет именно архитектуры питания станут одним из ключевых драйверов производительности и устойчивости дата-центров, обслуживающих бурно растущий рынок искусственного интеллекта.

Охлаждение — бутылочное горлышко. Без жидкостного хладоносителя 100 кВт/стойку — фантастика.
Переход диктуется не только мощностью, но и ценой энергии. С постоянкой проще ставить локальную генерацию (солнечные + PCS), а ИБП нового поколения работают в «онлайн‑режиме» с КПД 97–98%. В сумме это экономит мегаватты.
Edge-узлы тоже растут. Питание там — половина CAPEX.
Кто-то уже внедрял 380V DC? Интересно, как по отказоустойчивости и пожарным нормам.
Есть пилоты у гиперскейлеров. Плюс — меньше преобразований, минус — требования к персоналу и изоляции. Сертификация сложнее.
Графовые ИИ-кластеры едят пиковой мощностью. Без «умного» распределения и оркестрации нагрузки SLA не удержать.
Классическая дистрибуция 230/400В → ИБП → PDU слишком неэффективна при плотностях свыше 30–40 кВт/стойку. Открытая архитектура с 48В DC на шине и опорой на высокоэффективные ректifiers даёт выигрыш по потерям и теплу. Плюс модульные батарейные шкафы рядом с залом снижают длину пути. Сетевая часть тоже меняется: больше прямого охлаждения жидкостью, потому что воздушные коридоры уже на пределе. Главное — совместимость с существующей инфраструктурой и безопасное переключение без простоя.
На ИИ-нагрузках старые схемы питания уже не тянут. Переезд на 48В — логичен.