Сейчас мы много говорим об искусственном интеллекте, и это происходит вовремя

Когда OpenAI «выпустила на волю» того «зверя», которым является ChatGPT, в ноябре 2022 года, темпы конкуренции на рынке между технологическими компаниями, задействованными в области ИИ, возросли экспоненциально.

Конкуренция на рынке определяет цену товаров и услуг, их качество и скорость инноваций, что особенно заметно в индустрии искусственного интеллекта. Однако некоторые эксперты считают, что мы внедряем самую мощную технологию в мире слишком быстро.

Это может помешать нашей способности обнаружить серьезные проблемы до того, как они нанесут ущерб, что приведет к глубоким последствиям для общества, особенно когда мы не можем предвидеть возможности чего-то, что в конечном итоге может обладать способностью обучать себя самостоятельно.

Но ИИ — отнюдь не новость, и хотя ChatGPT, возможно, застал многих врасплох, семена нынешнего ажиотажа вокруг этой технологии были посеяны много лет назад.

Является ли ИИ чем-то новым?

Истоки современного ИИ можно проследить до разработок 1950-х годов, когда Алан Тьюринг работал над решением сложных математических задач для тестирования машинного интеллекта.

Ограниченные ресурсы и вычислительные мощности, доступные на тот момент, сдерживали рост и внедрение. Но прорывы в машинном обучении, нейронных сетях и доступности данных стимулировали возрождение ИИ в начале 2000-х годов. Это побудило многие отрасли принять ИИ. Финансовый и телекоммуникационный сектора использовали его для обнаружения мошенничества и анализа данных.

Взрыв данных, разработка облачных вычислений и доступность огромных вычислительных ресурсов в дальнейшем способствовали разработке алгоритмов ИИ. Это значительно повлияло на то, что можно было сделать, например, с распознаванием изображений и видео, а также с таргетированной рекламой.

Почему ИИ привлекает столько внимания сейчас? ИИ давно использовался в социальных сетях для рекомендации релевантных постов, статей, видео и объявлений. Техноэтик Тристан Харрис говорит, что социальные сети — это в целом «первый контакт» человечества с ИИ.

И человечество узнало, что алгоритмы ИИ в социальных сетях могут распространять дезинформацию и ложную информацию — поляризуя общественное мнение и создавая онлайн-эхокамеры. Предвыборные кампании потратили деньги на онлайн-избирателей как на президентских выборах в США 2016 года, так и во время референдума о выходе Великобритании из ЕС.

Оба события привели к осознанию общественностью ИИ и того, как технологии могут использоваться для манипулирования политическими результатами. Эти громкие инциденты запустили опасения относительно возможностей развивающихся технологий.

Однако в 2017 году появился новый класс ИИ. Эту технологию называют трансформером. Это модель машинного обучения, которая обрабатывает язык, а затем использует его для генерации собственного текста и ведения бесед.

Этот прорыв способствовал созданию больших языковых моделей, таких как ChatGPT, которые могут понимать и генерировать текст, напоминающий написанный людьми. Трансформерные модели, такие как GPT (Generative Pre-trained Transformer) от OpenAI, продемонстрировали впечатляющие возможности в генерации последовательного и актуального текста.

Разница с трансформерами заключается в том, что по мере поглощения новой информации они учатся на ней. Это потенциально позволяет им приобретать новые возможности, которые инженеры не заложили в них изначально.

Более серьезная проблема

Вычислительная мощность, которая сейчас доступна, и возможности последних моделей ИИ означают, что пока не решенные опасения по поводу влияния социальных сетей на общество — особенно на молодое поколение — будут только расти.

Люси Бэтли, руководитель Traction Industries, частной компании, которая помогает бизнесу интегрировать ИИ в свои операции, говорит, что тот тип анализа личных данных, который могут проводить социальные сети, и детали, которые они могут извлекать из них, «будут автоматизированы и ускорены до такой степени, что крупные технологические магнаты потенциально будут знать о нас больше, чем мы сознательно знаем о себе».

Но квантовые вычисления, которые в последние годы достигли серьезных прорывов, могут значительно превзойти производительность обычных компьютеров при выполнении определенных задач. Бэтли считает, что это «позволит разработать гораздо более способные системы ИИ для исследования множества аспектов нашей жизни».

Ситуацию для «крупных технологических компаний» и стран, лидирующих в области ИИ, можно уподобить тому, что теоретики игр называют «дилеммой заключенного». Это состояние, когда две стороны должны либо решить работать вместе, чтобы решить проблему, либо предать друг друга. Они сталкиваются с трудным выбором между событием, в котором одна сторона получает выгоду — при этом предательство часто дает большее вознаграждение — или событием с потенциалом взаимной выгоды.

Давайте рассмотрим сценарий, в котором у нас есть две конкурирующие технологические компании. Они должны решить, следует ли им сотрудничать, делясь своими исследованиями передовых технологий, или держать свои исследования в секрете. Если обе компании будут сотрудничать, они смогут достичь значительного прогресса вместе. Однако, если Компания А будет делиться, а Компания Б — нет, Компания А, вероятно, потеряет свое конкурентное преимущество.

Это не слишком отличается от текущей ситуации, в которой оказались США. США пытаются ускорить развитие ИИ, чтобы опередить иностранных конкурентов. Поэтому политики были медленны в обсуждении регулирования ИИ, которое помогло бы защитить общество от вреда, причиненного использованием этой технологии.

Неизведанная территория

Этот потенциал ИИ создавать проблемы для общества должен быть предотвращен. У нас есть обязанность понять их, и нам нужна коллективная сосредоточенность, чтобы избежать ошибок, которые ранее были допущены с социальными сетями. Мы слишком поздно начали регулировать социальные сети. К тому времени, когда этот разговор вышел в публичную сферу, социальные платформы уже переплелись со СМИ, выборами, бизнесом и жизнью пользователей.

Первый крупный глобальный саммит по безопасности ИИ запланирован на конец этого года в Великобритании. Это возможность для политиков и мировых лидеров рассмотреть непосредственные и будущие риски ИИ и то, как эти риски могут быть смягчены посредством глобально координируемого подхода. Это также шанс пригласить более широкий круг голосов из общества для обсуждения этого важного вопроса, что приведет к более разнообразному набору точек зрения по сложному вопросу, который затронет всех.

У ИИ есть огромный потенциал для повышения качества жизни на Земле, но у всех нас есть обязанность способствовать разработке ответственных систем ИИ. Мы также должны коллективно требовать, чтобы бренды работали в соответствии с этическими принципами в рамках нормативно-правовой базы. Лучшее время для влияния на развитие ответственного ИИ — в самом начале его пути.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *