"TensorWave запускает облачные сервисы с использованием графических процессоров AMD, опережая Nvidia"
Появляются специализированные облачные операторы, обладающие навыками работы с горячими и энергоемкими графическими процессорами и другой инфраструктурой искусственного интеллекта. Некоторые из них, такие как CoreWeave, Lambda или Voltage Park, используют десятки тысяч графических процессоров Nvidia, в то время как другие, например, стартап TensorWave, обращаются к AMD. TensorWave начал собирать системы на базе AMD Instinct MI300X, планируя арендовать чипы за небольшую часть стоимости, взимаемой за доступ к ускорителям Nvidia. К концу 2024 года TensorWave планирует развернуть 20 000 ускорителей MI300X на двух объектах.
MI300X, представленный компанией AMD, является самым передовым ускорителем компании на сегодняшний день. Он обладает мощностью 750 Вт и использует комбинацию усовершенствованной упаковки для объединения 12 чиплетов в один графический процессор. MI300X на 32% быстрее, чем Nvidia H100, и имеет более крупную память HBM3 объемом 192 ГБ, обеспечивающую пропускную способность 5,3 ТБ/с. Стандартные конфигурации новейшего графического процессора AMD требуют восьми ускорителей на узел.
Для охлаждения своих систем TensorWave планирует использовать теплообменники задней двери (RDHx), которые представляют собой радиаторы размером со стойку, через которые течет прохладная вода. Это решение стало популярным среди операторов центров обработки данных, стремящихся поддерживать более плотные кластеры графических процессоров.
TensorWave планирует внедрить больше облачных технологий, включая уровень оркестрации для предоставления ресурсов и технологию FabreX на базе PCIe 5.0 от GigaIO для объединения до 5750 графических процессоров в одном домене с более чем петабайтом памяти с высокой пропускной способностью.
Статьи по теме:
"AMD открывает исходный код прошивки MES для графических процессоров Radeon"