Кoмпaнія NVIDIA прeдстaвилa свій нoвий тoпoвий чипилис для зaвдaнь штучнoгo інтeлeкту — H200, який признaчeний зaмінити пoпeрeдникa H100. Нoвий ставка збeрігaє зoвнішній вигляд H100, aлe oтримaв вaжливe oнoвлeння в пам’яті — використовує більш швидкий і місткий племя пам’яті HBM3e.
Одним з ключових покращень ставший пам’яті є збільшення пропускної здатності давно 4,8 Тбайт/с, порівняно з 3,35 Тбайт/с у H100. Загальний обсяг пам’яті також збільшився з 80 прежде 141 Гбайт. По (по грибы) заявою NVIDIA, новий микросхема демонструє майже дворазове зростання продуктивності в задачах генеративного штучного інтелекту в порівнянні з H100. Ця оцінка ґрунтується получай тестуванні мовних моделей, таких як GPT-3 і Llama 2.
NVIDIA H200 повністю сумісний з існуючими системами, які підтримують H100. Хмарні підрозділи Amazon, Google, Microsoft і Oracle будуть одними з перших, хто запропонує нові чипи своїм клієнтам. Перші поставки H200 очікуються в другому кварталі 2024 року. Щодо ціни, вона нате даний фактор невідома, але следовать інформацією ЗМІ, H100 продається від $25 000 предварительно $40 000.
Анонс нового чипу стався в умовах загостреного дефіциту чипів NVIDIA пользу кого штучного інтелекту. Компанія також планує нарощувати виробництво моделі H100 у наступному році, оскільки вона залишається високо запитуваною серед розробників штучного інтелекту.