Научить забывать? Как обуздать непокорного чат-бота

Когда австралийский политик Брайан Худ заметил, что ChatGPT сообщает людям, что он осужденный преступник, он пошел по старому пути и пригрозил судебным иском создателю чат-бота, компании OpenAI.

Его дело подняло потенциально огромную проблему, связанную с такими ИИ-программами: как быть, если они будут ошибаться, причиняя реальный вред?

Чат-боты основаны на моделях ИИ, обученных на огромных массивах данных, и их переобучение требует огромных затрат и времени, поэтому ученые ищут более целенаправленные решения.

По словам Худа, он разговаривал с представителями OpenAI, которые «не особо помогли».

Но его жалоба, которая стала достоянием мировой прессы в апреле, была в значительной степени урегулирована, когда была выпущена новая версия их программного обеспечения, которая не выдавала прежних ложных результатов, хотя он так и не получил никаких объяснений.

«По иронии судьбы, огромная огласка, которую получила моя история, фактически внесла исправления в общественную историю», — сказал Худ, мэр города Хепберн в штате Виктория, агентству AFP на этой неделе.

Компания OpenAI не ответила на просьбы о комментарии.

Возможно, Худу было бы трудно предъявить обвинение в клевете, поскольку неясно, сколько людей могли увидеть данные результаты в ChatGPT и видели ли они одни и те же результаты.

Такие компании, как Google и Microsoft, активно внедряют в свои поисковые системы технологии искусственного интеллекта.

Вполне вероятно, что на них обрушится поток запросов на удаление записей от людей, подобных Худу, а также в связи с нарушением авторских прав.

Если отдельные записи можно удалить из индекса поисковой системы, то с моделями ИИ все не так просто.

Для решения подобных проблем группа ученых формирует новую область под названием «машинное отучение», которая пытается обучить алгоритмы «забывать» нежелательные фрагменты данных.

Один из экспертов в этой области, Мегдад Курманджи из Уорикского университета в Великобритании, рассказал AFP, что эта тема начала набирать обороты в последние три-четыре года.

Среди тех, кто обратил на нее внимание, — Google DeepMind, исследовательское подразделение ИИ калифорнийского гиганта.

В прошлом месяце специалисты Google совместно с Курманджи написали работу, в которой предложили алгоритм очистки выбранных данных из больших языковых моделей — которые лежат в основе таких чат-ботов, как ChatGPT и Bard от Google.

В июне Google также объявила конкурс на усовершенствование способов отучения, в котором на данный момент приняли участие более 1000 человек.

Курманджи сказал, что отучение может стать «очень крутым инструментом» для поисковых систем, например, для управления запросами на удаление информации в соответствии с законами о конфиденциальности данных.

Он также сказал, что его алгоритм показал хорошие результаты в тестах на удаление материалов, защищенных авторским правом, и на устранение предвзятости.

Однако представители элиты Кремниевой долины не все в восторге.

Ян ЛеКун, руководитель отдела искусственного интеллекта в компании Meta*, владеющей Facebook*, которая также вкладывает миллиарды в технологии искусственного интеллекта, сказал AFP, что идея машинного отучения находится далеко внизу списка его приоритетов.

«Я не говорю, что это бесполезно, неинтересно или неправильно», — сказал он о работе, авторами которой являются Курманджи и другие. «Но я думаю, что есть более важные и срочные темы».

По словам ЛеКуна, он сосредоточен на том, чтобы заставить алгоритмы быстрее обучаться и эффективнее извлекать факты, а не на том, чтобы научить их забывать.

Однако в научных кругах, похоже, широко признают, что компаниям, занимающимся разработкой ИИ, потребуется возможность удалять информацию из своих моделей, чтобы соответствовать таким законам, как регламент ЕС о защите данных (GDPR).

«Способность удалять данные из обучающих наборов — это критически важный аспект для дальнейшего развития», — говорит Лиза Гивен из Университета RMIT в Мельбурне (Австралия).

Однако она отметила, что о том, как работают модели, и даже о том, на каких наборах данных они обучались, известно очень не много, поэтому решение проблемы может быть еще очень далеким.

Майкл Роватсос из Эдинбургского университета также считает, что подобные технические проблемы могут возникнуть, особенно если на компанию обрушится шквал запросов на удаление информации.

Он добавил, что отучение не решает более широких вопросов, связанных с индустрией ИИ: как собираются данные, кто получает прибыль от их использования или кто несет ответственность за алгоритмы, причиняющие вред.

«Техническое решение — это не панацея», — сказал он.

Поскольку научные исследования находятся в зачаточном состоянии, а регулирование практически отсутствует, Брайан Худ, который является поклонником ИИ, несмотря на свой опыт общения с ChatGPT, предположил, что мы все еще находимся в эпохе старомодных решений.

«Когда речь заходит о чат-ботах, генерирующих мусор, пользователям просто необходимо все перепроверять», — сказал он.

*Деятельность Meta (Facebook и Instagram) запрещена в России как экстремистская.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *