Американская компания Amazon, через своё подразделение Amazon Web Services (AWS), активно развивается в области облачных услуг и стремится сократить зависимость от компонентов и программного обеспечения Nvidia. В следующем месяце ожидается презентация новых ИИ-ускорителей Trainium 2, которые будут предназначены для обучения больших языковых моделей, то есть нейросетей, сообщает Financial Times.
На данный момент ускорители Amazon из серии Inferentia уже на 40% дешевле аналогичных решений от Nvidia при генерации ответов ИИ-сервисов. Это может стать ключевым фактором при выборе вычислительной платформы, особенно с учётом того, что капитальные затраты Amazon в данной области могут достигнуть $75 миллиардов в этом году.
Эксперты отмечают, что крупные облачные провайдеры стремятся создать полностью интегрированную структуру собственных чипов, что позволяет снизить затраты, увеличить прибыль и усилить контроль над доступностью чипов и развитием бизнеса. Разработка собственных чипов также помогает Amazon снизить потребление электроэнергии и повысить эффективность центров обработки данных.
Специалисты из TechInsights сравнивают чипы Nvidia с универсальными автомобилями, тогда как решения Amazon напоминают компактные хэтчбеки, адаптированные для узкого спектра задач. Несмотря на то, что Amazon не делится данными о производительности своих новых ускорителей, считается, что Trainium 2 превзойдут предшественников по быстродействию вчетверо. Появление альтернатив Nvidia уже вызывает положительные отклики среди клиентов AWS, включая такие компании, как Anthropic, Databricks, Deutsche Telekom, Ricoh и Stockmark.
Как сообщалось ранее – Мать бойца РФ, три недели оборонявшегося в окопе, получила сообщение от сына