Apple отказывается тратить сотни миллионов на собственные кластеры NVIDIA H100 и вместо этого встраивает готовые нейросети — в частности Gemini от Google — в свои M‑чипы с унифицированной памятью. CPU, GPU и Neural Engine живут на одном кристалле, поэтому не нужно копировать терабайты данных между модулями. Инференс ускоряется, обучение – нет, но для бизнеса важнее скорость вывода функции в iOS и macOS, чем цифры H100.
На Mac Studio модель среднего размера отрабатывает за доли секунды, чего хватает для классификации, генерации текста и прочих бизнес‑задач. Apple получает быстрый ROI, экономит $2–3 млрд капитала и может перекинуть деньги в стартапы‑агрегаторы готовых AI‑решений, рост которых прогнозируют +12 % к 2027 году.
Недостаток очевиден: без собственного обучения компания зависит от внешних поставщиков. Если Google изменит условия доступа или ускорится в разработке новых функций, Apple может отстать. Тем не менее сейчас это выгоднее, чем строить собственный GPU‑ферминг и заниматься обучением «с нуля».