Как ИИ предсказывает погоду
Самые передовые ИИ в метеорологии? Да, и здесь тоже. Рассказываем о модели FourCastNET, которая прогнозирует погоду на основе анализа данных за 40 лет
12 августа 2025Самые передовые ИИ в метеорологии? Да, и здесь тоже. Рассказываем о модели FourCastNET, которая прогнозирует погоду на основе анализа данных за 40 лет
12 августа 2025Вопрос, которым многие задаются перед выходом из дома: что надеть, чтобы не замёрзнуть, не промокнуть и не зажариться? Мы задумались: а как вообще формируется и считается прогноз погоды? Циклоны, скорость ветра, температура, долгосрочный прогноз — откуда эти данные? Ведь где данные, там и ИИ.
Раньше люди молились богам о дожде, потом долго придерживались философских идей Аристотеля из труда Meteorologica, а в XVI–XVII веках изобрели термометр и барометр. Но осознание того, что погода подчиняется масштабным атмосферным процессам, пришло только в XVIII веке.
Тогда создали несколько метеорологических станций для наблюдений за погодой. Прогнозов на основе этих наблюдений ещё не делали, а просто складывали данные в архив. Толчком к развитию прогнозирования стало, как ни странно, изобретение телеграфа (середина XIX века). Теперь можно было быстро сообщить наблюдательной станции за несколько сотен километров, что здесь идёт дождь или есть тучки. Тогда начали применять синоптический метод: после обмена данными с разных станций их наносили на географические карты и анализировали штормовые системы.
Наконец, в XX веке появились радиозонды и сбор данных со спутников. Данные стали чуть точнее, прогнозы тоже. Но всё же хотелось большего.
Очередной скачок произошёл, когда открыли новый метод расчёта погоды — численное прогнозирование. В научном мире эти расчёты приняли не сразу, но несколько учёных, которые всё же поверили в перспективность вычислений и технологический прорыв 1950-х, сыграли решающую роль. Сегодня численное прогнозирование погоды лежит в основе компьютерного вычисления погодных явлений.
При помощи суперкомпьютеров, которые делают прогнозы на основе цифровых математических моделей атмосферы. Они обрабатывают большие наборы данных и выполняют многоступенчатые физико-математические вычисления. Такой процесс и называется численным прогнозированием погоды — Numerical Weather Prediction, NWP.
Основные данные для NWP поступают со спутников, кораблей, самолётов и аэрологических зондов. Наземные метеостанции тоже используются, но их вклад в точность прогноза меньше 10%.
Сфера с ячейками иллюстрирует сетку атмосферы, которую используют в численных климатических моделях. Они состоят из двух частей:
1. Динамическое ядро — вычисляет циркуляцию атмосферы между соседними ячейками во всех трёх направлениях пространства.
2. Остальные динамические процессы, влияющие на функционирование климата и сгруппированные по параметризациям (турбулентность, облака, радиация).
Статистические распределения этих процессов однородны по горизонтали в ячейке, а их параметризация приводит к вертикальному обмену между слоями в одном столбце.
Например, все современные прогностические модели используют сотни дорогостоящих GPU. А один GPU стоит около миллиона рублей.
Так что на основе такой модели прогнозы считают крупные компании, которые часто и оказываются представителями стран. Самая крупная, популярная и старшая из них — Европейский центр среднесрочных прогнозов погоды (ECMWF).
Последние несколько лет происходит революция в метеорологии, в процессе которой NWP постепенно сменяется нейросетевыми моделями прогнозирования.
FourCastNET — это модель на базе глубокого обучения, которая делает глобальные прогнозы погоды. Она разработана компанией NVIDIA и работает на мощных графических процессорах, которые обеспечивают высокую скорость вычислений.
Вместо того чтобы решать сложные дифференциальные уравнения, как это делают NWP, FourCastNet обучается на огромных массивах исторических данных о погоде.
Нейросеть обучена на наборе данных ERA5. Это цифровые архивы погодной информации за период с 1979 по 2015 год с временным разрешением один час и пространственным — 25 км. Такая база предоставлена ECMWF. ERA5 считается лучшей оценкой состояния атмосферы, поскольку использует метод ассимиляции данных — сочетание наблюдений и численного прогноза.
Модель прошла этап предварительного обучения (pre-training), а затем — дообучения (fine-tuning).
На этапе предварительного обучения использовалась схема, в которой на вход подаётся состояние атмосферы во время t, а модель предсказывает состояние на момент t + Δt.
Затем модель проходит этап дообучения, чтобы повысить точность и устойчивость прогнозов. На вход подаётся состояние в момент k, и модель прогнозирует значение в момент k + 1. Здесь же рассчитывается функция потерь (loss). Полученное значение снова передаётся в модель, чтобы предсказать следующий шаг — k + 2.
После этого рассчитывается новая функция потерь, и итоговая ошибка считается как сумма двух потерь. Градиенты при этом полностью распространяются назад по всем шагам.
Самое сложное и нестабильное в прогнозировании — осадки. У них есть очень резкие и локализованные особенности, а распределение сильно отличается от других атмосферных переменных.
Поэтому в архитектуре модели они рассматриваются как отдельная диагностическая переменная, под которую обучается отдельная диагностическая модель.
Архитектура FourCastNet — это стек из блоков адаптивных нейронных операторов Фурье (AFNO).
На вход поступают данные, которые сначала проходят через слой встраивания (embedding), а затем — через пространственное смешивание (spatial mixing), которое происходит в пространстве Фурье.
После этого данные проходят через ещё один слой — смешивания каналов (channel mixing), который объединяет информацию по каналам с помощью многослойного перцептрона (MLP). Затем выходные данные поступают на линейный декодер,
который преобразует их обратно в тензор такой же формы, как у входа, но уже на момент времени t + Δt.
Инференс (вывод) в модели FourCastNet происходит авторегрессивно. То есть выходные данные на одном временном шаге подаются обратно на вход модели, чтобы предсказать следующий временной шаг. На каждом шаге также отдельно диагностируются осадки на основе выходов архитектуры AFNO.
Конечно! И их довольно много: Pangu-Weather (2023), GraphCast (2023) и, например, Aurora (2025). На Aurora давайте остановимся подробнее.
Aurora — это модель машинного обучения, которая строит прогнозы для любых параметров земной системы с любым заданным пространственным разрешением.
Модель состоит из трёх компонентов:
1. Энкодер (кодировщик) — преобразует входные данные в единое внутреннее 3D-представление.
2. Процессор — моделирует развитие этих данных во времени.
3. Декодер (декодировщик) — преобразует внутреннее представление обратно в физические прогнозы.
Процессор реализован на основе трёхмерного Swin Transformer, а энкодер и декодер — на основе архитектуры Perceiver, гибкой модели для обработки данных.
Прогнозы на разные сроки вперёд — 6, 12 или 24 часа — создаются за счёт того, что предыдущие предсказания подаются обратно на вход модели. Это называется авторекурсией.
Aurora проходит более качественное обучение, за счёт чего сильно опережает конкурентов по точности прогнозов. В отличие от «коллег», она обучена не только на ERA5.
Претрейн включает работу с комбинацией прогнозов, аналитических данных, результатов повторного анализа и климатических симуляций. Это один из самых затратных по времени и финансам процесс, он требует значительных ресурсов и больших объёмов данных. Длится он примерно 2,5 недели.
Цель предварительного обучения — минимизировать среднюю абсолютную погрешность (MAE) для прогноза следующего шага (с опережением в 6 часов) на протяжении 150 тысяч шагов с использованием 32 графических процессоров NVIDIA A100.
Потом модель проходит fine-tuning — более тонкую настройку, во время которой учится на нескольких практических задачах. Каждая задача покрывает разные риски и имеет вариативную степень точности:
для прогнозов атмосферной химии и качества воздуха — точность до 44 км;
для моделирования волн — до 25 км;
для отслеживания ураганов — тоже до 25 км;
для прогнозов погоды — самая высокая точность, 10 км.
Aurora учится выявлять общие закономерности динамики, которые управляют атмосферными и океаническими потоками, а также связанными с ними вторичными процессами. Fine-tuning обходится гораздо дешевле претрейна и может проводиться на меньшем количестве данных.
Сегодня Deep Learning модели глобального прогноза демонстрируют сравнимую или даже лучшую точность относительно традиционных NWP не только на реанализе. Такие системы, как AIFS от ECMWF, теперь публикуются в pre-operational-режиме наравне с физическими моделями, что говорит о начале реальной интеграции AI-решений в рабочие процессы ведущих метеоцентров.
Однако никуда не исчез резонный вопрос для фундаментальной науки: улавливают ли такие модели физику атмосферы и действительно ли способны прогнозировать эволюцию настолько сложной системы? Постепенно появляются исследования, проверяющие Deep Learning модели на физичность.
Хочу отметить, что мы не говорим сейчас о physics-informed neural networks (PINNs). Так вот, в некоторых случаях Deep Learning модели действительно схватывают фундаментальные динамические механизмы атмосферы без явного «зашивания» физики в обучение, например Pangu Weather верно воспроизводит Matsuno-Gill Response. Однако также есть ряд весомых несоответствий прогнозов DL-моделей с физикой, поэтому речи о полноценном эмуляторе или цифровом двойнике атмосферы пока не идёт.
Можно сказать, что скепсис учёных плавно сменяется осторожным оптимизмом, и в течение ближайших лет DL-модели несомненно перейдут из экспериментального статуса к роли стандартного инструмента в глобальном прогнозе. Скорее всего, сначала они будут работать как составляющая гибридных решений DL-NWP, которые позволили бы сохранить все преимущества AI-подхода без ущерба физичности.
Здесь больше претрейн и обучение нейросетевых моделей. Разработка и внедрение прогностических моделей на основе нейросетей открывают новые горизонты в области метеопрогнозирования и смежных дисциплин. Высокая точность и скорость сильно влияют на прогнозирование экстремальных погодных явлений, адаптацию к изменениям климата, оптимизацию сельского хозяйства и управление энергетическими системами.
В перспективе модель может стать основой для следующего поколения климатических и погодных симуляций. Ожидается её дальнейшее развитие: расширение источников данных, интеграция более сложных физических процессов и повышение точности долгосрочных прогнозов.
А ещё очень точно предсказывать погоду умеет Яндекс: модель «Метеум» от Яндекс Погоды объединяет данные со спутников в режиме реального времени, суперкомпьютеры для обработки NWP-данных — и способности инженеров Яндекса. Чтобы вы всегда знали, когда взять с собой зонт. Причём с точностью до минуты — и до квартала, а не по сетке 9 × 9 км, как в глобальных моделях.