Мы живем в эпоху одной из самых трансформационных технологических революций с прошлого века. Впервые с технологического бума 2000-х годов и даже с промышленной революции наши основные общественные функции подвергаются нарушению инструментами, которые некоторые считают инновационными, а другие — тревожными. Хотя воспринимаемые преимущества будут и дальше поляризовать общественное мнение, мало кто спорит о широком влиянии ИИ на будущее труда и общения.
Институциональные инвесторы, как правило, согласны с этим. Только за последние три года объем венчурных инвестиций в генеративный ИИ вырос на 425%, достигнув 4,5 миллиардов долларов в 2022 году, согласно PitchBook. Этот недавний инвестиционный ажиотаж в основном обусловлен широкой технологической конвергенцией в разных отраслях. Такие консалтинговые гиганты, как KPMG и Accenture, инвестируют миллиарды долларов в генеративный ИИ для укрепления своих клиентских услуг. Авиакомпании используют новые модели ИИ для оптимизации своих маршрутов. Даже биотехнологические компании используют генеративный ИИ для совершенствования терапии антителами опасных для жизни заболеваний.
Естественно, что эта разрушительная технология быстро попала в поле зрения регуляторов. Такие деятели, как Лина Хан из Федеральной торговой комиссии, утверждают, что ИИ представляет серьезные риски для общества в разных отраслях, ссылаясь на рост мошенничества, автоматизированную дискриминацию и сговор о ценах, если это не будет контролироваться.
Возможно, наиболее широко обсуждаемым примером регуляторного внимания к ИИ стало недавнее свидетельство Сэма Алтмана перед Конгрессом, где он утверждал, что «регуляторное вмешательство правительств будет иметь решающее значение для смягчения рисков все более мощных моделей». Как генеральный директор одного из крупнейших ИИ стартапов в мире, Алтман быстро наладил связь с законодателями, чтобы обеспечить превращение вопроса о регулировании в обсуждение между государственным и частным секторами. С тех пор он присоединился к другим лидерам отрасли в совместном открытом письме, в котором говорится, что «смягчение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками для общества в целом, такими как пандемии и ядерная война».
Технологи, как Алтман, и регуляторы, как Хан, согласны, что регулирование имеет решающее значение для обеспечения более безопасного технологического применения, но ни одна из сторон обычно не устанавливает рамки. Как правило, основатели и предприниматели стремятся к ограниченным ограничениям, чтобы обеспечить экономическую среду, благоприятную для инноваций, в то время как государственные чиновники стремятся к более широким ограничениям для защиты потребителей.
Однако обе стороны не понимают, что в некоторых областях регулирование в течение многих лет было плавным. Появление Интернета, поисковых систем и социальных сетей принесло волну государственного надзора, такого как Закон о телекоммуникациях, Закон о защите конфиденциальности детей в Интернете (COPPA) и Закон Калифорнии о конфиденциальности потребителей (CCPA). Вместо того, чтобы вводить широкомасштабные ограничительные политики, которые, по-видимому, тормозят технологические инновации, США поддерживают набор политик, которые включают давно существующие фундаментальные законы об интеллектуальной собственности, конфиденциальности, договорах, преследовании, киберпреступлениях, защите данных и кибербезопасности.
Эти структуры часто черпают вдохновение в установившихся и широко признанных технологических стандартах и содействуют их принятию и использованию в услугах и новых технологиях. Они также обеспечивают существование доверенных организаций, которые применяют эти стандарты на операционном уровне.
Возьмем, к примеру, протоколы SSL (Secure Sockets Layer)/TLS (Transport Layer Security). В основе SSL/TLS лежат протоколы шифрования, которые обеспечивают безопасность данных, передаваемых между браузерами и серверами (обеспечивая соответствие требованиям шифрования CCPA, Общего регламента ЕС по защите данных и т. д.). Это относится к информации о клиентах, данным банковских карт и всем формам персональных данных, которые могут быть использованы злоумышленниками. Сертификаты SSL выдаются центрами сертификации (CA), которые выступают в качестве проверяющих, подтверждая, что передаваемая информация является подлинной и безопасной.
Те же симбиотические отношения могут и должны существовать для ИИ. Следование жестким лицензионным стандартам со стороны государственных органов остановит отрасль и принесет пользу только наиболее широко известным игрокам, таким как OpenAI, Google и Meta*, создавая антиконкурентную среду. Легкий в использовании стандарт сертификации по типу SSL, регулируемый независимыми CA, будет защищать интересы потребителей, оставляя при этом пространство для инноваций.
Они могут обеспечить прозрачность использования ИИ для потребителей и четко указывать, эксплуатируется ли модель, какая базовая модель используется и происходит ли она из надежного источника. В этом случае у правительства по-прежнему есть роль в совместном создании и продвижении таких протоколов, чтобы сделать их широко используемыми и признанными стандартами.
В основе регулирования лежит защита базовых принципов, таких как конфиденциальность потребителей, безопасность данных и интеллектуальная собственность, а не сдерживание технологий, с которыми пользователи ежедневно взаимодействуют. Они уже защищены в Интернете и могут быть защищены в ИИ с помощью аналогичных структур.
С появлением Интернета регулирование успешно поддерживало золотую середину между защитой потребителей и стимулированием инноваций, и государственные деятели не должны применять иной подход просто из-за быстрого технологического развития. Регулирование ИИ не должно изобретать велосипед, независимо от поляризованных политических дискуссий.