Развитие технологий искусственного интеллекта, по сообщениям некоторых СМИ, вышло на плато, что даже для специалистов стало большой неожиданностью. Прорывные успехи GPT-4 и его предшественников породили самые смелые ожидания, но результаты новых версий модели показывают, что они ненамного лучше, чем у предыдущих. Причина? Попросту говоря, ИИ не хватает "учебников" для обучения.
Напомним, что прежде чем нейросеть выпускать в "люди", ее надо обучить на примерах. Таким моделям, как GPT, требуется огромный массив текстов и другой информации. И чем их больше, тем лучше работает система. Разработчики использовали доступные данные из соцсетей и интернет-ресурсов, таких, в частности, как бывший Twitter (сейчас X, заблокирован в РФ) и YouTube. Но эти источники небезграничные, а потому обучать ИИ становится намного сложнее.
Разработчики идут на разные уловки, скажем, для обучения ИИ применяют так называемые синтетические данные, тренируя его на специальных задачах повышенной сложности.
Еще одна проблема ИИ - дефицит энергии. Ожидается, что потребности центров обработки данных в энергии вырастут в разы за ближайшие десять лет. Уже сейчас Amazon и Google делают инвестиции в атомную энергетику, чтобы обеспечить ресурсы для своих центров данных.
Словом, для дальнейшего развития ИИ-индустрии необходимо искать новые способы обучения и разработки моделей, а также пересматривать подходы к использованию и распределению ресурсов.
Источник: rg.ru