OpenAI виходить за межі Azure: розширення інфраструктури ШІ
15:53, 22.07.2025
У січні 2025 року закінчився ексклюзивний контракт між Microsoft і OpenAI, згідно з яким OpenAI була зобов'язана використовувати тільки потужності хмарної платформи Azure для навчання і розміщення своїх моделей, включаючи ChatGPT.
З нового року правила змінилися: тепер діє принцип «першої відмови» — якщо ресурсів Microsoft виявляється недостатньо, OpenAI отримує право залучати сторонніх постачальників.
Перехід до мультихмарної архітектури
OpenAI швидко скористалася можливістю диверсифікувати свою інфраструктуру. Крім триваючої співпраці з Microsoft, компанія уклала угоди з CoreWeave, Oracle Cloud, Google Cloud і рядом інших провайдерів обчислювальних потужностей. Такий крок дозволяє масштабувати навчання моделей до безпрецедентних обсягів і вийти на рубіж в 1 мільйон GPU до кінця 2025 року.
Однак розширення має і свої технологічні виклики. OpenAI вже використовує розподілене навчання на декількох дата-центрах, що вимагає високої синхронізації та стійкості інфраструктури.
Конкуренти не відстають
Плани OpenAI досягти 1 мільйона GPU до кінця року — не унікальні. Конкуренти нарощують потужності з не меншою швидкістю. Meta націлена на 1,3 мільйона GPU в аналогічний термін. У той же час компанія xAI, заснована Ілоном Маском, викупила старий промисловий об'єкт в Мемфісі, де збирається розмістити до мільйона графічних прискорювачів на додаток до вже працюючих 200 тисяч.