от

Словарь AI: разбираемся в терминах, которые звучат как магия

=

Словарь AI: разбираемся в терминах, которые звучат как магия

Помните, как месяц назад вы впервые услышали слово «transformer»? Кто-то уверенно говорил про «промпты», «токены» и «hallucinations», а вы кивали головой, делая вид, что всё понимаете? Вы точно не одиноки. За последний год мир ИИ завалил нас таким количеством новых терминов, что иногда кажется, будто говорят на совершенно другом языке.

illustration

Давайте разберёмся с этим беспорядком. В этом материале я разберу самые важные и часто встречающиеся термины, которые всплывают в разговорах об искусственном интеллекте. Никаких снобистских определений — только понятные объяснения на русском.

Нейросеть и модель: в чём разница?

Начнём с базовых концепций. Нейросеть — это по сути математическая структура, которая вдохновлена тем, как работает человеческий мозг. Она состоит из «нейронов» (математических функций), которые обрабатывают информацию, передавая её друг другу через «связи» (веса).

Модель — это более широкое понятие. Это может быть нейросеть, но может быть и другой алгоритм. Когда люди говорят «модель GPT» или «модель Gemini», они имеют в виду конкретную реализацию нейросети с определённой архитектурой и обученными на конкретных данных весами.

Проще говоря: все нейросети — это модели, но не все модели — нейросети. Хотя в наши дни большинство серьёзных ИИ систем действительно основаны на нейросетях.

Трансформер: архитектура, которая взорвала ИИ

Когда инженеры Google в 2017 году выпустили статью «Attention is all you need», они не знали, что эта работа станет основой для всех современных больших языковых моделей.

Трансформер — это тип архитектуры нейросети, которая отлично справляется с обработкой последовательностей текста. Главная его фишка — механизм attention (внимание). Представьте, что вы читаете предложение и вам нужно понять, к какому слову относится каждое слово в контексте. Внимание позволяет модели «смотреть» на все слова одновременно и понимать, какие из них связаны между собой.

Трансформеры революционизировали обработку языка потому, что они быстрые, масштабируемые и работают действительно хорошо. Все популярные ИИ ассистенты — ChatGPT, Claude, Gemini — построены на архитектуре трансформеров.

Промпт: суперсила общения с ИИ

Промпт — это запрос, который вы даёте нейросети. Это может быть просто вопрос, сложная инструкция или целый контекст для выполнения задачи.

Звучит просто? Но на деле всё интереснее. Качество промпта напрямую влияет на качество ответа. «Напиши текст про кофе» и «Напиши маркетинговую статью для стартапа кофейни, ориентированной на удалённых работников, с упором на атмосферу рабочего пространства» — это совершенно разные запросы, которые дадут совершенно разные результаты.

Prompt engineering (инженерия промптов) — это целое направление, где люди изучают, как правильно формулировать запросы к ИИ, чтобы получить максимально полезные результаты. Это как научиться правильно задавать вопросы учителю, чтобы получить действительно полезный ответ.

Токен: основная единица измерения

Когда нейросеть обрабатывает текст, она не видит слова так, как видим их мы. Вместо этого она разбивает текст на более мелкие кусочки, называемые токенами.

Токен — это примерно одно слово (или часть слова, или знак препинания). Точное определение зависит от того, как система разбивает текст, но в среднем токен — это примерно 4 символа.

Это важно потому, что:

1. Ограничения контекста: большинство моделей работают с ограниченным «окном» токенов. ChatGPT-4 может обработать около 8000 токенов сразу, GPT-4 Turbo — 128 000.

2. Стоимость: многие ИИ сервисы берут деньги за количество использованных токенов. Если вы отправили 500 токенов на вход и получили 300 на выходе, вам будут начислены оба эти числа.

3. Эффективность: понимание токенов помогает писать более эффективные промпты.

Hallucinations: когда ИИ фантазирует

Один из самых забавных (и иногда опасных) терминов в словаре ИИ. Hallucination (галлюцинация) — это когда нейросеть генерирует информацию, которая звучит убедительно, но полностью выдумана.

Например, вы спросили ChatGPT про научную статью, которая не существует, и он с полной уверенностью предоставил вам название, авторов, год издания и даже краткое резюме. Звучит очень профессионально. И полностью ложно.

Это происходит не потому, что ИИ «врёт намеренно» — ему просто нужно что-то вывести, и он выводит то, что статистически выглядит правдоподобно. Это одна из главных проблем в разработке ИИ: модели отлично учатся воспроизводить паттерны, но у них нет встроенного механизма проверки фактов.

Fine-tuning: обучение модели на своих данных

Представьте, что вам нужна нейросеть, которая специализируется именно на вашей области. Общие модели хороши, но иногда нужно что-то более специфичное.

Fine-tuning (дообучение) — это процесс, когда вы берёте уже обученную модель и дополнительно обучаете её на своих данных. Это как взять человека, который уже знает много общего, и дать ему специализированное образование в конкретной области.

Процесс выглядит примерно так:

1. Возьмите готовую модель (например, GPT-3.5)
2. Приготовьте набор примеров из вашей области (несколько тыся