Во втором квартале 2026 года Tesla намерена практически удвоить свои ресурсы для обучения нейросетей, что подтверждает стремительное масштабирование вычислительных мощностей, необходимых для прогресса в области автономного управления и гуманоидной робототехники.
Как отмечает инсайдер Сойер Мерритт, подобное расширение позволит кратно ускорить циклы дообучения систем Full Self-Driving (FSD), антропоморфных роботов Optimus, а также передовых моделей обработки визуальных данных и языковых алгоритмов, что в конечном счете сократит время вывода новых версий ПО на рынок.

Согласно официальным данным, Tesla продолжает активно развивать кластеры на базе ускорителей H100 и собственную архитектуру Dojo. Это необходимо для обеспечения сквозного обучения нейронных сетей, повышения пропускной способности при обработке массивов данных, а также более эффективной «тонкой» настройки моделей через обучение с подкреплением на основе человеческих оценок.
Как отмечалось в ходе обсуждений с инвесторами на Tesla AI Day, увеличение парка GPU напрямую влияет на частоту проведения экспериментов и позволяет обучать модели в более широком контексте. Такой подход создает прочный фундамент для роста бизнеса за счет внедрения новых программных решений и повышения доходности автономных транспортных систем.
В финансовом отчете за четвертый квартал 2025 года компания официально подтвердила запуск Cortex 2 — масштабного суперкомпьютерного кластера, расположенного на территории Gigafactory Texas. Ранее представители Tesla уже заявляли о намерении более чем вдвое увеличить количество графических процессоров Nvidia H100, выделенных под нужды ИИ-разработок, в течение первой половины 2026 года.
Источник: iXBT


