Брант Робертсон из Калифорнийского университета в Санта-Крусе ощущает растущее давление: спрос на графические процессоры (GPU) превышает возможности инфраструктуры. Грант Национального научного фонда (NSF) позволил создать кластер, но стареющее оборудование и рост числа исследователей усугубляют ситуацию. Планы США сократить финансирование NSF на 50% делают положение критическим.
«Исследователи хотят заниматься анализом на основе ИИ и машинного обучения, где GPU — единственный инструмент», — отмечает Робертсон. Университеты осторожны с рисками, поэтому учёные должны сами доказывать перспективы развития области.
Модель Morpheus переводят со свёрточных нейронных сетей на трансформеры — архитектуру больших языковых моделей (LLM). Это позволит анализировать в разы большие площади неба. Параллельно создаются генеративные ИИ-модели, обученные на данных космических телескопов, которые улучшают качество снимков земных обсерваторий, искажаемых атмосферой. Вывести восьмиметровое зеркало на орбиту сложно, поэтому программная обработка данных обсерватории Рубин — лучшая альтернатива.
Вместе с Райаном Хаузеном Робертсон разрабатывал модель для выявления галактик. Ранний ИИ-анализ данных телескопа «Джеймс Уэбб» обнаружил множество дисковых галактик, что потребовало пересмотра теорий о развитии Вселенной.
К данным будущего телескопа «Роман» добавятся 57 Гбайт снимков от «Джеймса Уэбба». В 2026 году начнёт работу обсерватория Веры Рубин, собирающая по 20 Тбайт данных за ночь. Для сравнения: «Хаббл» передаёт всего 1–2 Гбайт в сутки. Те времена, когда показания изучались вручную, прошли; астрономы переходят на GPU для работы с массивами такого масштаба.
NASA запустит телескоп «Нэнси Грейс Роман» в сентябре 2026 года раньше графика. За время работы он передаст 20 000 Тбайт данных, усиливая спрос на мощные вычислительные системы.
Робертсон 15 лет сотрудничает с Nvidia, применяя GPU к задачам изучения космоса. Он начинал с симуляций взрывов сверхновых, а теперь разрабатывает инструменты анализа потоков данных от новейших обсерваторий.
Произошла эволюция: от изучения отдельных объектов — к анализу больших массивов данных на центральных процессорах, а затем — к тем же видам анализа, но уже с ускорением на GPU, — рассказывает учёный.
