Как использовать большие языковые модели, не разоряясь

Генеративный ИИ продолжает доминировать в заголовках. В начале нас всех захватила новизна. Но сейчас мы далеко ушли от развлечений – мы видим его реальное влияние на бизнес. И каждый ныряет в это с головой.

Microsoft, AWS и Google развязали полномасштабную «гонку вооружений в области ИИ» в погоне за доминированием. Компании спешно меняют курс, опасаясь отстать или упустить огромную возможность. Ежеминутно появляются новые компании, основанные на больших языковых моделях (LLM), подпитываемые венчурным капиталом в погоне за следующей ставкой.

Но с каждой новой технологией приходят вызовы. Достоверность моделей и предвзятость, а также стоимость обучения — среди самых обсуждаемых тем на сегодня. Вопросы идентичности и безопасности, хотя и связаны со злоупотреблением моделями, а не с проблемами, присущими технологии, также начинают появляться в заголовках.

Высокая стоимость работы моделей — серьезная угроза инновациям

Генеративный ИИ также вернул хорошо забытую дискуссию об открытом и закрытом исходном коде. Хотя оба имеют место в бизнесе, открытый исходный код предлагает более низкие затраты на развертывание и запуск в производство. Они также обеспечивают отличную доступность и выбор. Однако сейчас мы видим изобилие открытых моделей, но недостаточный прогресс в технологиях для их развертывания жизнеспособным способом.

Но, несмотря на все это, остается проблема, которая по-прежнему требует гораздо больше внимания: высокая стоимость запуска этих крупных моделей в производстве (расходы на вывод) представляет серьезную угрозу инновациям. Генеративные модели исключительно большие, сложные и требовательные к вычислительным мощностям, что делает их намного дороже для запуска, чем другие виды моделей машинного обучения.

Представьте, что вы создали приложение для дизайна интерьера, которое помогает клиентам представить свою комнату в разных стилях оформления. С небольшой доработкой модель Stable Diffusion может сделать это довольно легко. Вы останавливаетесь на сервисе, который берет 1,50 доллара за 1000 изображений, что может показаться не так уж и много, но что произойдет, если приложение станет вирусным? Предположим, у вас 1 миллион активных ежедневных пользователей, каждый из которых создает по 10 изображений. Теперь ваши расходы на вывод составляют 5,4 миллиона долларов в год.

Стоимость LLM: вывод — это навсегда

Итак, если вы компания, развертывающая генеративную модель или LLM в качестве основы вашего приложения, вся ваша ценовая политика, планы роста и бизнес-модель должны учитывать эти затраты. К тому времени, когда ваше ИИ-приложение запускается, обучение более или менее является потерянными затратами, но вывод — это навсегда.

Есть много примеров компаний, запускающих эти модели, и со временем им станет все сложнее поддерживать эти затраты.

Но в то время как проприетарные модели достигли большого прогресса за короткий срок, они не единственный вариант. Модели с открытым исходным кодом также демонстрируют большие обещания в плане гибкости, производительности и экономии затрат — и могут стать жизнеспособным вариантом для многих новых компаний в будущем.

Гибридный мир: важны модели с открытым исходным кодом и проприетарные модели

Нет сомнений, что мы прошли путь от нуля до 60 за короткое время с проприетарными моделями. Только за последние несколько месяцев мы увидели запуск OpenAI и Microsoft GPT-4, Bing Chat и бесконечных плагинов. Google также вступил в игру с введением Bard. Прогресс в этом направлении был ничем иным, как впечатляющим.

Однако, вопреки распространенному мнению, что генеративный ИИ — это игра «победитель получает все», это не так. В самом деле, эти модели, хотя и инновационные, лишь слегка касаются поверхности того, что возможно. И самые интересные инновации еще впереди, и они будут с открытым исходным кодом. Как мы видели в мире программного обеспечения, мы достигли точки, когда компании применяют гибридный подход, используя проприетарные и открытые модели там, где это имеет смысл.

Уже есть доказательства того, что открытый исходный код сыграет важную роль в распространении генеративного ИИ. Есть новейший и лучший LLaMA 2 от Meta*. Затем есть LLaMA, мощная, но небольшая модель, которую можно переобучить за скромную сумму (около 80 000 долларов) и настроить инструкции примерно за 600 долларов. Эту модель можно запустить где угодно, даже на Macbook Pro, смартфоне или Raspberry Pi.

Тем временем, Cerebras представила семейство моделей, а Databricks выпустила Dolly, открытую модель в стиле ChatGPT, которая также гибкая и недорогая для обучения.

Модели, стоимость и возможности открытого исходного кода

Причина, по которой мы начинаем видеть взлет открытых моделей, заключается в их гибкости; по сути, вы можете запускать их на любом железе при наличии правильных инструментов. Такого уровня контроля и гибкости не дают закрытые проприетарные модели.

И все это произошло за короткое время, и это только начало.

Мы получили отличные уроки от сообщества открытого исходного кода в программном обеспечении. Если мы сделаем модели ИИ открыто доступными, мы сможем лучше стимулировать инновации. Мы можем создать глобальное сообщество разработчиков, исследователей и новаторов, чтобы внести вклад, улучшить и настроить модели на благо общества.

Если нам это удастся, у разработчиков будет выбор запускать ту модель, которая подходит для их конкретных потребностей — будь то модель с открытым исходным кодом, готовая к использованию или настраиваемая. В этом мире возможности действительно безграничны.

*Meta признана экстремистcкой организацией в России.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *