Технический эксперт предупреждает, что в 2024 году произойдет взрыв киберпреступности, с использованием ИИ

Технический эксперт предупреждает, что новые разработки в области технологий, основанные на искусственном интеллекте, приведут к «взрыву» киберпреступности в 2024 году.

Шон Генри, директор по безопасности компании CrowdStrike, недавно рассказал о том, как киберпреступники могут использовать искусственный интеллект, чтобы обходить защиту кибербезопасности частных лиц, распространять дезинформацию или проникать в корпоративные сети.

Киберпреступники могут использовать искусственный интеллект, чтобы ввести людей в заблуждение, заставив их поверить в ложную информацию во время предвыборного сезона и потенциально выдать конфиденциальные данные, считает отставной помощник директора Федерального бюро расследований.

Предупреждение ветерана кибербезопасности прозвучало в тот момент, когда искусственный интеллект получил больше рабочих мест, чем когда-либо, в том числе в федеральном правительстве и правительстве штатов США.

Двадцать семь департаментов федерального правительства США в той или иной мере используют ИИ, и многие штаты тоже.

Например, в Техасе более трети агентств штата передали ИИ основные обязанности, включая ответы на вопросы людей о пособиях по безработице. Огайо, Юта и другие штаты тоже внедряют технологии ИИ.

Поскольку ИИ внедряется во многих государственных и общественных службах, эксперты опасаются, что эти технологии могут стать причиной предвзятости, утраты контроля или нарушения конфиденциальности.

«Это серьезная проблема для всех», — сказал Генри в утреннем эфире CBS. «ИИ дал в руки обычного человека мощнейший инструмент, и это сделало его гораздо более способным».

В октябре директор ФБР Крис Врэй предупредил, что в настоящее время ИИ наиболее опасен, поскольку способен вывести киберпреступников низкого уровня на более высокий уровень.

Но вскоре, по его прогнозам, он даст беспрецедентный толчок тем, кто уже является экспертом, и сделает их еще более опасными, чем когда-либо.

Одним из примеров, по словам Генри, является создание сгенерированных ИИ аудио- и видеоматериалов, «которые невероятно правдоподобны и заставляют людей смотреть на что-то, видеть что-то, верить, что это правда, в то время как на самом деле это было сгенерировано — часто по заказу иностранного государства».

Соперничающие государства могут использовать эти инструменты ИИ для распространения дезинформации, чтобы подорвать демократические институты и достичь других внешнеполитических целей, утверждают эксперты по кибербезопасности.

«Важно внимательно относиться к информации, полученной из незнакомых мест в Интернете, поскольку это может быть попытка ввести вас в заблуждение или украсть ваши личные данные», — говорит Генри.

«Необходимо проверять, откуда она взялась», — сказал он. «Кто рассказывает эту историю, какова ее мотивация, и можете ли вы проверить ее по нескольким источникам?»

«Это невероятно сложно, потому что у людей — когда они смотрят видео — есть 15 или 20 секунд, у них нет времени или они часто не прилагают усилий, чтобы найти источники этих данных, и это создает проблемы».

Угроза не всегда бывает внешней.

По данным Texas Tribune, в 2022 году — последнем году, когда были получены такие данные, — каждое третье государственное учреждение Техаса использовало ИИ в той или иной форме.

Сотрудники службы занятости штата Огайо применяют ИИ для прогнозирования мошенничества при подаче заявлений на страхование по безработице, а в штате Юта ИИ используется для отслеживания поголовья скота.

На национальном уровне ИИ уже используют 27 различных федеральных ведомств.

Согласно веб-странице, посвященной ИИ, Министерство образования США использует чат-бота для ответов на вопросы о финансовой помощи и бота для управления административными расписаниями в бэк-офисе.

Еще больше процессов автоматизировано в Министерстве торговли: мониторинг рыболовства, исследование экспортных рынков и поиск партнеров по бизнесу — вот лишь несколько видов работ, которые были частично поручены ИИ.

Государственный департамент на своем сайте перечислил 37 текущих функций ИИ, включая обнаружение дипфейков, поведенческую аналитику при проведении онлайн-опросов и автоматизированную оценку ущерба.

По данным консалтинговой компании Deloitte, государственные и общественные службы являются основными областями распространения ИИ.

Однако существенным препятствием на пути развития технологии является то, что государственные учреждения должны соответствовать высокой планке безопасности в области технологий.

«Учитывая их ответственность за поддержку населения на справедливой основе, государственные службы, как правило, сталкиваются с высокими требованиями при решении фундаментальных проблем ИИ, таких как доверие, безопасность, мораль и справедливость», — заявили в компании.

«В условиях этих ограничений многие государственные учреждения предпринимают активные усилия по использованию возможностей ИИ, осторожно пробираясь через лабиринт правовых и этических аспектов».

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *