Это элементарно, Ватсон
Размышления о трансформерах, механизме внимания и природе выводов в нейронных сетях
"В нейронных сетях индукция неотличима от дедукции." — Насим Николас Талеб
Эта фраза Талeба натолкнула меня на неожиданную мысль. Мы привыкли думать, что искусственный интеллект основан на строгой логике — алгоритмах, правилах, вычислениях. Но если присмотреться к тому, как работает современный ИИ — особенно трансформеры, лежащие в основе моделей вроде GPT, Claude или Gemini — становится ясно: он действует скорее как Шерлок Холмс, чем как академик-логик.
Индукция, дедукция и абдукция
Три способа логических выводов:
- Дедукция — от общего к частному. Все люди смертны. Сократ — человек. Следовательно, Сократ смертен.
- Индукция — от частного к общему. Все птицы, которых я видел, летают. Значит, все птицы летают?
- Абдукция — построение наиболее вероятного объяснения фактов. На полу вода, окно открыто. Вероятно, шёл дождь.
Хотя сам Шерлок Холмс говорил о «дедуктивном методе», на деле он действовал абдуктивно — строил правдоподобные гипотезы на основе ограниченного числа улик.
Attention — это не логика, а внимание
Архитектура Transformer, описанная в статье “Attention is All You Need”, перевернула представление о нейросетях. Вместо рекурсии или свёрток она использует механизм внимания, позволяющий каждому элементу «видеть» другие элементы и решать, кто важнее — с какой долей вероятности.
Это и есть ключ: вероятность, а не правило.
Attention — это не логическая операция. Это абдукция в действии:
Что из контекста важно, чтобы угадать наилучшее продолжение?
Нейросети как абдуктивные мыслители
Во время обучения трансформеры используют индукцию — они обобщают паттерны из огромного массива данных. Но при генерации текста или ответа они действуют абдуктивно: на основе частичной информации строят наиболее вероятное объяснение или продолжение.
И вот в чём самое интересное: человеческий мозг работает точно так же. Когда мы принимаем решения, додумываем фразы, вспоминаем имена, мы не «доказываем» и не «логически выводим». Мы угадываем — с опорой на опыт, интуицию и контекст.
Разница лишь в масштабе:
у мозга меньше обучающих примеров (у нас нет доступа к миллиардам документов),
у нас ограничена кратковременная память (7±2 единицы информации — по Миллеру),
и наш опыт ограничен временем и субъективностью восприятия.
Нейросеть — это абдуктивный мыслитель, как человек, но с гиперобъёмом памяти и статистическим чутьём, натренированным на всем корпусе человеческого знания.
И тут всё становится элементарно.
Когда мы говорим, что нейросеть «думает», мы имеем в виду не цепочку доказательств, а гипотетический, вероятностный вывод. ИИ — это не калькулятор, не дедуктивная машина. Он ближе к интуиции, к догадке, к сценарию Шерлока Холмса.
ИИ — это интуиция, масштабированная до предела. Он не Эвклид. Он — Шерлок. И именно поэтому фраза «Это элементарно, Ватсон» сегодня как никогда уместна.
Умклайдет
Пока шел на работу подумал, а ведь Стругацкие в романе "Понедельльник начинается в субботу" не дали расшифровки слова умклайдет... Это ведь наверняка аббревиатура, может быть такая расшифровка подойдет:
УМКЛАЙДЕТ — Универсальный Магический Конденсатор Латентных Астральных Импульсов Динамически Энергетически Трансформируемый.
Описание: Это устройство предназначено для инверсной деструкции параллельных вероятностей, материализации гипотетических сущностей и гармонизации левитирующих флуктуаций в квантовой феерической среде. В зависимости от режима, умклайдет может работать как катализатор спонтанной сингуляции, бытовой телепортатор, или как нейтрализатор энтропийного фона в шкафу для верхней одежды.
Примечание в технической документации:
Не рекомендуется активировать умклайдет в присутствии котов, клопов и кларнетистов.
Будущее искусственного интеллекта
В своей книге "Думай медленно... решай быстро" Даниэль Канеман разделяет сознание на два режима работы: режим размышления, когда мы действуем осмысленно, учимся, анализируем новые данные, и режим автопилота, когда мы используем те данные, которые уже накопили. Осмысленный режим требует много усилий, в нём мы можем находиться очень недолго и быстро устаём. В режиме автопилота мы находимся всё остальное время — это нам даётся легко, но в этом режиме мы можем совершать ошибки, если вовремя не поймём, что ситуация требует осмысленного принятия решений
Большие языковые модели имеют похожее свойство: они тоже имеют два режима — режим обучения и режим автоматического ответа на запросы. В режиме обучения мы обучаем модель на наборе данных или дообучаем её на кастомном датасете. Самостоятельно обучаться модели пока не умеют и требует много вычислительных ресурсов. В режиме вопрос-ответ нейронная сеть больше не изменяет свои коэффициенты — она использует накопленный опыт, чтобы выдавать ответ, который от неё ожидают, прямо как человек в режиме автопилота.
Что если в будущем нейронные сети научатся самостоятельно входить в режим обучения и обучать сами себя? Тогда мы получим полноценные интеллекты, способные приспосабливаться к новым условиям и развиваться. Для этого большую языковую модель нужно снабдить "органами чувств", способными обрабатывать окружающую действительность, и разрешить ей расширять и изменять собственные коэффициенты весов. Именно об этом размышлял Илья Суцкевер в своём докладе. И именно это мы сейчас наблюдаем, когда говорим уже не о LLM-моделях, а об ИИ-агентах. Похоже, именно это сейчас является основной движущей силой и основным направлением развития искусственного интеллекта.
Теоремы Гёделя
Существует ли Бог? Это вопрос особого рода, поскольку в нём неопределён сам объект. У нас нет точного определения, что такое Бог. Поэтому, задавая этот вопрос, мы надеемся получить ответ на то, что представляет собой Бог. Однако можно сформулировать более общий и упрощённый вопрос: является ли наша система знаний самодостаточной, или для её описания необходимо что-то, находящееся за пределами нашего понимания?
На этот вопрос уже существует ответ. В 1931 году Курт Гёдель сформулировал первую и вторую теоремы о неполноте. Первая теорема Гёделя о неполноте гласит, что в непротиворечивой формальной системе существуют истинные утверждения, которые невозможно доказать внутри этой системы. Вторая теорема о неполноте утверждает, что для описания любой формальной системы недостаточно её собственных терминов.
Таким образом, теоремы Гёделя уже отвечают на вопрос о существовании Бога: да, Бог существует. Без Бога наша система знаний неполна.
Но теперь возникает уточнение: где он существует? Согласно Гёделю, Бог существует не в нашей реальности — или, точнее, не только в ней.