Hugging Face объединяется с Google для ускорения разработки открытого ИИ

Так как предприятия различных отраслей стремятся воплотить в жизнь свои идеи в области ИИ, поставщики стараются предоставить им все необходимые ресурсы в одном месте. В качестве примера можно привести новое стратегическое сотрудничество между Google и Hugging Face, которое предоставляет разработчикам упрощенный способ использования облачных сервисов Google и ускоряет разработку открытых приложений генеративного искусственного интеллекта.

В рамках этого сотрудничества команды, использующие модели с открытым исходным кодом от Hugging Face, смогут обучать и обслуживать их в Google Cloud. Это означает, что они получат все, что Google Cloud может предложить для ИИ, — от специально разработанной платформы Vertex AI до тензорных процессоров (TPU) и графических процессоров (GPU).

«Начиная с оригинальной статьи Transformer и заканчивая T5 и Vision Transformer, Google находится на переднем крае прогресса в области искусственного интеллекта и развития движения за открытую науку. Благодаря новому партнерству пользователи Hugging Face и клиенты Google Cloud смогут легко использовать новейшие открытые модели вместе с ведущей оптимизированной инфраструктурой и инструментами ИИ… что значительно расширит возможности разработчиков по созданию собственных моделей искусственного интеллекта», — говорится в заявлении Клемента Деланга (Clement Delangue), генерального директора Hugging Face.

За последние годы Hugging Face стала GitHub для искусственного интеллекта, являясь основным хранилищем для более чем 500 000 моделей искусственного интеллекта и 250 000 наборов данных. Более 50 000 организаций полагаются на эту платформу в своей работе в области ИИ. В то же время Google Cloud стремится обслуживать предприятия с помощью своей инфраструктуры и инструментов, ориентированных на искусственный интеллект, а также вносит свой вклад в открытые исследования в области ИИ.

Благодаря партнерству двух компаний сотни тысяч пользователей Hugging Face, которые ежемесячно работают в Google Cloud, получат возможность обучать, настраивать и обслуживать свои модели с помощью Vertex AI, комплексной платформы MLOps для создания новых генеративных приложений ИИ.

Этот сервис будет доступен в несколько кликов с основной платформы Hugging Face, а также будет включать в себя возможность обучения и развертывания моделей в движке Google Kubernetes Engine (GKE). Это даст разработчикам возможность обслуживать свои рабочие нагрузки с помощью инфраструктуры «сделай сам» и масштабировать модели с помощью контейнеров глубокого обучения на GKE, специфичных для Hugging Face.

В рамках этого разработчики, обучающие модели, также смогут использовать аппаратные возможности, предлагаемые Google Cloud, включая TPU v5e, виртуальные машины A3 на базе графических процессоров Nvidia H100 Tensor Core и виртуальные машины C3 на базе процессоров Intel Sapphire Rapid.

«Модели можно будет легко развернуть для производства в Google Cloud с конечными точками вывода. Разработчики искусственного интеллекта смогут ускорить свои приложения с помощью TPU в пространстве Hugging Face. Организации смогут использовать свой аккаунт в Google Cloud, чтобы легко управлять использованием и оплатой подписки на Enterprise Hub», — написали в совместном блоге Джефф Будье (Jeff Boudier), руководитель отдела продуктов и развития компании Hugging Face, и Филипп Шмид (Philipp Schmid), технический руководитель компании.

Хотя о сотрудничестве было объявлено только что, важно отметить, что новые возможности, включая Vertex AI и варианты развертывания GKE, пока недоступны.

Компания надеется сделать эти возможности доступными для пользователей Hugging Face Hub в первой половине 2024 года.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *