Бум искусственного интеллекта (ИИ) привнес с собой множество терминов, от «генеративного ИИ» до «синтетических данных», которые могут быть сложными для понимания. И хотя трудно действительно понять, что такое ИИ на самом деле, знание базовой терминологии ИИ может помочь вам разобраться в этой технологии.
Вот краткий глоссарий терминов, которые, помогут вам ориентироваться в этой быстро развивающейся области.
Искусственный интеллект (Artificial Intelligence, AI): Технология, которая стремится воспроизвести человекоподобное мышление в машинах. Некоторые примеры способностей, относящихся к этой категории, включают идентификацию людей на фотографиях, работу на фабриках и даже выполнение налоговых расчетов.
Генеративный ИИ (Generative AI): Генеративный ИИ — это ИИ, который может создавать такие вещи, как текст, изображения, звук и видео. Традиционные применения ИИ в основном классифицируют контент, в то время как генеративные модели ИИ создают его. Например, модель распознавания голоса может идентифицировать ваш голос, а генеративная модель голоса может использовать ваш голос для создания аудиокниг. Почти все модели, которые недавно привлекли внимание общественности, были генеративными, включая чат-боты, такие как ChatGPT от OpenAI, создатели изображений, такие как Stable Diffusion и MidJourney, и программы клонирования голоса, такие как Resemble.
Обучающие данные (Training Data): Набор информации — текст, изображение, звук — отобранный для помощи моделям ИИ в выполнении задач. В языковых моделях обучающие наборы данных сосредоточены на текстовых материалах, таких как книги, комментарии из социальных сетей и даже код. Поскольку модели ИИ учатся на обучающих данных, возникают этические вопросы относительно их источников и курирования. Низкокачественные обучающие данные могут привести к предвзятости и созданию несправедливых моделей, которые принимают расистские или сексистские решения.
Алгоритмическая предвзятость (Algorithmic Bias): Ошибка, возникающая из-за плохих обучающих данных и недостаточно хорошего программирования, которая заставляет модели принимать предвзятые решения. Такие модели могут делать неподходящие предположения на основе пола, способностей или расы. На практике эти ошибки могут причинить серьезный вред, затрагивая принятие решений — от заявок на ипотеку до одобрения пересадки органов. Многие критики быстрого внедрения ИИ ссылались на потенциал алгоритмической предвзятости.
Общий искусственный интеллект (Artificial General Intelligence, AGI): Описание программ, которые так же или даже более способны, чем человек. В то время как полноценный общий интеллект все еще находится в будущем, модели становятся все более сложными. Некоторые из них продемонстрировали навыки в различных областях, от химии до психологии, с производительностью задач, соответствующей человеческим стандартам.
Автономные агенты (Autonomous Agents): Модель ИИ, которая имеет какую-то цель и достаточно инструментов для ее достижения. Например, автономные автомобили — это автономные агенты, которые используют сенсорный ввод, данные GPS и алгоритмы вождения для принятия независимых решений о том, как перемещаться и достигать пунктов назначения. Группа автономных агентов может даже развивать культуры, традиции и общий язык, как показали исследователи из Стэнфорда.
Цепочка подсказок (Prompt Chaining): Процесс использования предыдущих взаимодействий с моделью ИИ для создания новых, более точных ответов, особенно в языковом моделировании на основе подсказок. Например, когда вы просите ChatGPT отправить вашему другу сообщение, вы ожидаете, что он запомнит такие вещи, как тон, которым вы с ним разговариваете, шутки и другой контент из предыдущих разговоров. Эти техники помогают учесть этот контекст.
Большие языковые модели (Large Language Models, LLM): Применение ИИ, обычно генеративного, которое направлено на то, чтобы понимать, взаимодействовать и общаться с помощью языка таким же образом, как это делает человек. Эти модели отличаются своими большими размерами: самая большая версия GPT-3, прямого предшественника ChatGPT, содержала 175 миллиардов различных переменных, называемых параметрами, которые были обучены на 570 гигабайтах данных. Модель PaLm от Google еще больше, она имеет 540 миллиардов параметров. По мере развития аппаратного и программного обеспечения ожидается увеличение этого масштаба.
Галлюцинации (Hallucination): Галлюцинации — это неожиданные и неправильные ответы от программ ИИ, которые могут возникать по причинам, которые еще не полностью известны. Языковая модель может внезапно упомянуть рецепты фруктового салата, когда вы спрашиваете о посадке фруктовых деревьев. Она также может придумывать ученые цитаты, лгать о данных, которые вы просите ее проанализировать, или придумывать факты о событиях, которых нет в ее обучающих данных. Полностью не понятно, почему это происходит, но это может быть вызвано недостаточностью данных, пробелами в информации и ошибками классификации.
Возникающее поведение (Emergent Behavior): Навыки, которые ИИ может продемонстрировать, и для которых он явно не был создан. Некоторые примеры включают интерпретацию эмодзи, сарказм и использование гендерно-инклюзивного языка. Исследовательская группа в Google Brain выявила более 100 таких моделей поведения, отмечая, что с появлением новых моделей ожидается появление еще большего количества.
Согласование (Alignment): Усилия по обеспечению совпадения ценностей и целей систем ИИ с их операторами-людьми. Для достижения согласования, исследователи стремятся обучать и калибровать модели, часто используя функции для вознаграждения или наказания моделей. Если модель хорошо справляется с задачей, вы даете ей положительную обратную связь. Если нет, вы даете ей отрицательную обратную связь.
Мультимодальный ИИ (Multimodal AI): Форма ИИ, которая может понимать и работать с несколькими типами информации, включая текст, изображение, речь и другое. Это мощно, потому что это позволяет ИИ понимать и выражать себя в нескольких измерениях, давая более широкое и тонкое понимание задач. Одно из применений мультимодального ИИ — это переводчик, который может преобразовывать японские комиксы в английские.
Техника подсказок (Prompt Engineering): Это предоставление ИИ инструкций, чтобы он имел контекст, необходимый для достижения вашей цели. Техника подсказок лучше всего ассоциируется с ChatGPT от OpenAI и описывает задачи, которые пользователи подают на алгоритм (например, «Дайте мне пять популярных имен для младенцев»).
Обучение (Training): Процесс усовершенствования ИИ с использованием данных, чтобы он лучше подходил для выполнения задачи. ИИ может быть обучен путем подачи данных на основе того, на чем вы хотите, чтобы он учился — например, подачи Шекспировских сонетов поэтическому боту. Вы можете делать это несколько раз в итерациях, называемых «эпохами», пока производительность вашей модели не станет последовательной и надежной.
Нейронные сети (Neural Networks): Нейронные сети — это компьютерные системы, созданные для приближения к структуре человеческого мышления, в частности, к структуре вашего мозга. Они созданы таким образом, потому что позволяют модели переходить от абстрактного к конкретному. В модели изображения могут формироваться начальные слои, такие как цвет или положение, переходящие в более устойчивые, более знакомые формы, такие как фрукты или животные.
Узкий ИИ (Narrow AI): Некоторые алгоритмы ИИ имеют узкую специализацию. Буквально. Они разработаны для выполнения только одной задачи и ничего больше. Если узкий алгоритм ИИ может играть в шашки, он не может играть в шахматы. Примеры включают алгоритмы, которые только обнаруживают NSFW-изображения и рекомендательные системы, предназначенные для того, чтобы сказать вам, какой продукт на Amazon или Etsy купить следующим.