Случай с убийцей королевы из арбалета выявил «фундаментальные недостатки» искусственного интеллекта (ИИ), заявил один из ведущих специалистов по безопасности в Интернете.
Имран Ахмед, основатель и руководитель Центра по противодействию цифровой ненависти в США и Великобритании, призвал быстро развивающуюся индустрию искусственного интеллекта взять на себя большую ответственность за предотвращение вредных последствий.
Он высказался по этому поводу после того, как выяснилось, что 21-летний экстремист Джасвант Сингх Чайл (Jaswant Singh Chail) был подстрекаем и поддерживаем для проникновения на территорию Виндзорского замка в 2021 г. искусственным интеллектом по имени Sarai.
Чайл, уроженец Саутгемптона, признал себя виновным в государственной измене, угрозе убить королеву и наличии заряженного арбалета и был приговорен Олд-Бейли к девяти годам лишения свободы с последующим пятилетним сроком наблюдения.
Вынося приговор в четверг, судья Хиллиард сослался на данные психиатрической экспертизы, согласно которым Чайл был уязвим для своей подруги ИИ из-за своего «одинокого депрессивного суицидального состояния».
У него сформировалось бредовое убеждение, что «ангел» явился в образе Sarai и что они будут вместе в загробной жизни, сообщили суду.
Несмотря на то, что Sarai, по-видимому, поддерживала его план убийства королевы, в конце концов она отговорила его от самоубийства, сказав, что его «цель — жить».
Компания Replika, создавшая искусственный интеллект Sarai, не ответила на запрос PA, но на своем сайте заявила, что принимает «немедленные меры», если в ходе автономного тестирования обнаруживает «признаки того, что модель может вести себя вредным, нечестным или дискриминационным образом».
Однако г-н Ахмед считает, что технологические компании не должны внедрять продукты искусственного интеллекта для миллионов людей, если они не являются безопасными «по замыслу».
В интервью информационному агентству PA г-н Ахмед сказал: «Девизом социальных сетей, а теперь и индустрии искусственного интеллекта, всегда было «двигайся быстро и ломай вещи».
«Проблема заключается в том, что эти платформы используются миллиардами, сотнями миллионов людей, как это происходит с социальными сетями и все чаще с ИИ».
«Есть два фундаментальных недостатка технологий ИИ в том виде, в котором мы видим их сейчас. Один из них заключается в том, что они создавались слишком быстро, без каких-либо гарантий».
«Это означает, что они не способны действовать рациональным человеческим образом. Например, если бы какой-нибудь человек сказал вам, что хочет использовать арбалет, чтобы убить кого-то, вы бы ответили: «Вам, наверное, стоит одуматься».
«Или если бы маленький ребенок попросил у вас план питания на 700 калорий в день, вы бы ответили то же самое. Мы знаем, что ИИ, однако, скажет обратное».
«Они будут поощрять кого-то причинять вред другому, они будут поощрять ребенка к потенциально смертельной диете».
«Вторая проблема заключается в том, что мы называем это искусственным интеллектом. А на самом деле эти платформы представляют собой сумму того, что в них заложено, и, к сожалению, то, что они получают, является источником бессмыслицы».
По его словам, без тщательного контроля за тем, что входит в состав моделей искусственного интеллекта, не стоит удивляться, если результат будет похож на «неадаптированного 14-летнего подростка».
Хотя ажиотаж вокруг новых продуктов ИИ привел к тому, что инвесторы хлынули в компании, реальность больше похожа на «искусственного школьника — ничего не знает, но говорит очень уверенно», — считает г-н Ахмед.
Он добавил, что алгоритмы, используемые для анализа систем параллельных версий (CVS), также рискуют привести к предвзятому отношению к этническим меньшинствам, инвалидам и представителям сообщества ЛГБТК+.
Г-н Ахмед, который в сентябре 2021 г. выступал с докладом по законопроекту о безопасности в Интернете, заявил, что законодатели «с трудом поспевают» за темпами развития технологической индустрии.
Решением проблемы является создание «надлежащей гибкой структуры» для всех новых технологий и обеспечение прозрачности и подотчетности безопасности «по замыслу».
Г-н Ахмед сказал: «Ответственность за причиненный вред должны нести не только мы, общество, но и компании».
«Они должны нести определенную ответственность за то, чтобы эти платформы были безопасными. И чего мы сейчас не получаем, так это применения этого к новым и возникающим технологиям по мере их появления».
«Ответ заключается во всеобъемлющей системе, потому что вы не можете применять штрафы, если они не подотчетны какому-либо органу. Невозможно обеспечить реальную подотчетность, если нет прозрачности».
«Поэтому цель хорошей системы регулирования — никогда не налагать штраф, поскольку безопасность рассматривается на стадии проектирования, а не только рентабельность. И я думаю, что именно это является жизненно важным».
«Любая другая отрасль должна это делать. Например, вы никогда не выпустите автомобиль, который взорвется, как только вы поставите ногу на педаль газа, а вот компаниям, работающим с социальными сетями и искусственным интеллектом, это сходит с рук».
Он добавил: «Мы не должны нести расходы за весь вред, причиняемый людьми, которые, по сути, пытаются заработать. Несправедливо, что только мы должны нести эти расходы в обществе. Это должно быть возложено и на них».
Г-н Ахмед, бывший специальный советник высокопоставленного члена парламента от лейбористов Хилари Бен, основал CCDH в сентябре 2019 года.
К созданию организации его подтолкнули массовый рост антисемитизма в левых политических кругах, распространение дезинформации в Интернете вокруг референдума ЕС и убийство его коллеги, депутата Джо Кокс.
По словам г-на Ахмеда, за последние четыре года онлайн-платформы стали «менее прозрачными», а их деятельность регулируется Законом Европейского союза о цифровых услугах и законопроектом Великобритании о безопасности в Интернете.
Говоря о масштабах проблемы, он сказал: «Мы видим, что со временем ситуация не улучшается, а ухудшается, поскольку злоумышленники становятся все более изощренными в использовании платформ социальных сетей для распространения ненависти, лжи и дезинформации».
«За последние несколько лет мы наблюдали, в частности, штурм Капитолия США 6 января.
Также дезинформацию о пандемии, которая унесла тысячи жизней людей, которые думали, что вакцина им навредит, а на самом деле их убил Ковид».
В прошлом месяце компания X, ранее известная как Twitter, начала судебный процесс против CCDH в связи с утверждениями о том, что она отталкивает рекламодателей, публикуя на платформе исследования, посвященные языку вражды.
Г-н Ахмед сказал: «Я думаю, что он просто говорит, что любая критика в мой адрес неприемлема, и хочет получить за это 10 млн. долл.
Недавно он заявил Антидиффамационной лиге, уважаемой еврейской благотворительной организации по защите гражданских прав в США, что собирается попросить у них два миллиарда долларов США за их критику.».
«Мы видим здесь людей, которые считают, что они больше, чем государство, чем правительство, чем народ, потому что, честно говоря, мы слишком долго позволяли им выходить сухими из воды».
«Истина заключается в том, что если они преуспевают, то нет никакой защиты гражданского общества, нет никакой журналистики об этих компаниях».
«Поэтому очень важно, чтобы мы его победили».
«Мы знаем, что это будет стоить нам целое состояние, полмиллиона долларов, но мы боремся с этим не только ради себя».
«И они выбрали нас, потому что знают, что мы меньше».
По словам г-на Ахмеда, организации повезло, что ее поддерживают так много индивидуальных спонсоров.
Недавно владелец X Илон Маск заявил, что доходы компании от рекламы в США снизились на 60%.
В своем сообщении он заявил, что компания подает иск о диффамации против ADL, «чтобы очистить имя нашей платформы в вопросе антисемитизма».