Состояние активности: все сервисы функционируют

Дебаты о масштабировании искусственного интеллекта продолжатся в 2025 году

По мере приближения 2025 года сообщество ИИ по-прежнему расходится во мнениях относительно того, что действительно движет прогрессом в области искусственного интеллекта.

Гэри Маркус начал год со свойственного ему скептицизма. "OpenAI продолжит демонстрировать продукты за месяцы, а возможно, и за годы до того, как они станут надежными и широко доступными по доступной цене", - пишет он, предсказывая скромную отдачу от моделей ИИ и предупреждая, что сильно разрекламированные "агенты" ИИ не оправдают своих обещаний в 2025 году, потому что они "далеки от надежности, за исключением, возможно, очень узких вариантов использования".

Исследователь искусственного интеллекта Франсуа Шоле - который недавно покинул Google после десяти лет работы, чтобы основать собственную компанию, и чей бенчмарк ARC-AGI недавно произвел фурор после того, как модель o3 от OpenAI хорошо показала себя в it-сфере, - предполагает, что увеличение объема вычислений и данных для решения проблемы не является решением. Фактически, утверждает он, любой, кто действительно разбирается в интеллекте, мог бы разработать AGI, потратив всего миллион долларов на обучение.

Тоби Полен, который покинул DeepMind, чтобы присоединиться к xAI Илона Маска в качестве члена-основателя, выступил против Шолле. По словам Полена, DeepMind раньше разделяла мнение Шолле о том, что массовый масштаб не нужен, но факты продолжали указывать в противоположном направлении. Однако даже огромный кластер xAI, запланированный на 200 000 графических процессоров Nvidia, еще не выполнил обещание Маска создать "самый мощный ИИ в мире по всем показателям" к концу 2024 года.

Тим Деттмерс из Allen AI недавно наметил три возможных пути: традиционное масштабирование центров обработки данных (жизнеспособное еще около двух лет), динамическое масштабирование (ведущее либо к специализированным, либо к гибким моделям) и переработка знаний (которая может следовать совершенно иным правилам, чем другие подходы к масштабированию). Но в конечном итоге Детмерс видит, что назревает "идеальный шторм" - сочетание физических ограничений и уменьшающейся отдачи, которое может означать конец эры масштабирования.

Новые рубежи, но все те же дебаты

Новый рубеж в этих дебатах открылся благодаря масштабированию вычислений во время тестирования, подходу, лежащему в основе o-моделей OpenAI. Исследователи "Обнимашек" недавно подтвердили эту стратегию, которая переводит огромные вычислительные мощности на стадию вывода, а не на предварительную подготовку. Несмотря на обнадеживающие результаты, высокие затраты на запуск o3 в бенчмарках, таких как ARC, предполагают, что мы меняем одну задачу масштабирования на другую.
Это не просто академические дебаты. Стремительный рост стоимости крупных технологических компаний и компаний, занимающихся искусственным интеллектом, таких как OpenAI и Nvidia, был основан на обещании, что масштабирование равно прогрессу. Если скептики по масштабированию правы, мы не просто стоим перед техническим тупиком - мы можем столкнуться с масштабной коррекцией оценок технологий, которая вызовет шок на финансовых рынках.