Как на самом деле работает ИИ.

Недавно я видел в YouTube, как фокусник заставил кофейный столик летать по комнате. Это была идеальный фокус.

Но вот в чем дело: если бы фокусник действительно умел творить магию, он мог бы заставить летать любой стол. В реальности же его трюк, скорее всего, ограничен этим конкретным столом.

ИИ, особенно большие языковые модели (LLM), могут быть очень похожи на того фокусника. Если вы не знаете, как работает их «фокус», вы можете легко переоценить их возможности.

Но как только вы поймете механизм, вы сможете эффективно использовать его силу для расширения своих личных возможностей.

Как на самом деле работает ИИ большая языковая модель?

ИИ: Причудливое автозаполнение с искрой волшебства

Мне нравится думать о LLM как о причудливом автозаполнении с примесью магии.

Как и в случае с фокусником, за которым я наблюдал, здесь есть простое объяснение.

Здесь я хочу объяснить принципы работы генеративного ИИ, создающего текстовый вывод. Понимание того, как такие инструменты, как ChatGPT, генерируют как волшебные, так и иногда странно тупые ответы, выделит вас среди обычных пользователей и позволит использовать их не только для базовых задач.

Большие языковые модели (LLM): основы

Как и любой другой ИИ, LLM, по сути, выполняют задачу предсказания. По сути, LLM предсказывают следующее слово (технически, «токен» — часть слова) в последовательности.

Учитывая входную последовательность или «контекст», LLM вычисляет распределение вероятности наиболее вероятного следующего слова.

Например, если в качестве входных данных задано «трава», то слово «зеленая» с высокой вероятностью будет следующим, исходя из того, что модель видела в обширных обучающих данных:

Ключ к предсказаниям: Внимание

Но как именно ИИ узнает, какое слово нужно предсказать?

Понимание внимания имеет решающее значение:

Если вы четко объясните LLM, чего вы хотите, вы получите лучший ответ. Детали, которые вы предоставляете, помогают LLM определить лучший ответ.

Такой тип инструкции называется Промпт.

LLM не улучшаются автоматически при использовании. Они всегда начинают с чистого листа, не запоминая предпочтений и прошлых разговоров. Чтобы добиться лучших результатов, вы должны адаптироваться к LLM, а не наоборот!

Давайте рассмотрим пример, чтобы понять, как LLM «думает».

Пошаговое руководство по LLM
Давайте зададим нашему LLM, как в ChatGPT, вопрос: «Какая столица Казахстана?».

Внутри LLM вычисляет вероятности для следующих вероятных слов, учитывая входную последовательность (контекст). Это может быть «До, Астана, Что, A, Для и т. д.».

Вот в чем загвоздка:

Это распределение вероятностей для следующего слова не является ПОСТОЯННЫМ. Каждый раз, когда вы даете одну и ту же входную подсказку (ПРОМПТ), вы получаете немного другой ответ.

Почему такая случайность? Не буду углубляться, но определенные случайные процессы в модели гарантируют, что результаты будут «новыми», а не просто повторяющими обучающие данные. Эта встроенная функция позволяет LLM генерировать оригинальные результаты.

Без нее они просто повторяли бы текст, полученный в ходе обучения, что делает их гораздо менее полезными.

Именно эта случайность позволяет использовать «ГЕНЕРАТИВНЫЙ» в генеративном ИИ.

Цикл продолжается, и LLM слово за словом формирует выходное предложение:

И так далее…

Пока…

Модель решает, что предсказание завершено.

Вы видите такое поведение, когда ChatGPT «набирает» свой ответ в режиме реального времени.

По сути, именно так работают LLM.

Предсказание следующего слова.

Именно поэтому такие инструменты, как ChatGPT, могут сами находить свои ошибки, когда их просят перепроверить результат. Пока они пишут, они могут смотреть только вперед, но не назад. Чтобы «просмотреть» свою работу, вы должны явно попросить их, и они, скорее всего, поймают свои ошибки (хотя это и не гарантировано).

Секретный соус» LLM

Существует секретный соус, благодаря которому весь этот процесс работает так хорошо, давая поразительные результаты, которые превосходят определение «фантастическое автозаполнение».

Разработчики ChatGPT придумали хитрость.

Чтобы улучшить ответы, они наняли людей, которые вручную голосовали за лучшие ответы.

В результате Open AI создала модель «инструкций» — большую языковую модель, которая не просто автозаполняется, а фактически следует инструкциям.

Это стало прорывным моментом для ChatGPT. Она работала настолько хорошо, что люди часто забывали, что взаимодействуют с искусственным интеллектом, выполняющим «предсказание следующего слова».

Именно здесь произошло волшебство — и именно здесь у многих людей сложилось неверное представление о системах искусственного интеллекта.

Поскольку ChatGPT так хорошо выполняет инструкции и ведет себя уверенно, вы можете подумать, что он «знает», что делает. На практике это может привести к разочарованию и подводным камням. На самом деле ChatGPT ничего не «знает». У него нет самосознания или сознания.

Это очень важно помнить.

Поэтому вместо этого вы должны думать о модели как о «тупой», но в то же время невероятно полезной, если применять ее к правильным вещам.

Итог:
LLM предсказывают следующее слово в последовательности. Ваш основной контроль над результатом — это ПРОМПТ.

Будьте очень конкретны в том, чего вы хотите. Способ контролировать поведение LLM — это контролировать ПРОМПТЫ, которые вы ему даете.

Мы составили БЕСПЛАТНЫЙ ГИД по написанию ПРОМПТОВ. Получить ГИД можно здесь

Заключение
LLM — мощный инструмент, но это не волшебство. Они предсказывают следующее слово в последовательности, основываясь на закономерностях в обучающих данных. Ключ к получению максимальной отдачи от них — понимание того, как они работают, и создание эффективных ПРОМПТОВ.

Но общая картина такова: Научиться использовать ИИ может каждый, а не только эксперты. И в современном мире это не опция. Это необходимость.

Потому что если вы не научитесь, то это сделает кто-то другой. И они будут иметь преимущество. Так что выбор за вами. Принять ИИ и расширить свой потенциал. Или рискуете остаться позади.

В эпоху ИИ появилась новая реальность: Нет ИИ — нет шансов.

Будущее уже наступило. Убедитесь, что вы являетесь его частью.