Искусственный интеллект. Словосочетание, состоящее из прилагательного «искусственный» и существительного «интеллект». Искусственный - подобный природному, заменяющий естественное. Интеллект - общая познавательная способность, которая проявляется в том, как человек воспринимает, понимает, объясняет и прогнозирует происходящее, какие решения он принимает и насколько эффективно действует.
Искусственный интеллект (ИИ, AI — Artificial Intelligence) — это раздел компьютерных наук, который разрабатывает системы, способные выполнять задачи, требующие человеческого интеллекта. К таким функциям относятся обучение, анализ, распознавание речи, планирование, принятие решений и даже творчество.
ИИ базируется на алгоритмах, моделях и технологиях, которые позволяют машинам воспринимать окружающий мир, интерпретировать данные, делать выводы, принимать решения и адаптироваться к изменяющимся условиям.
Сейчас уже сложно установить кто впервые употребил этот термин. Но то, что ИИ зародился в ХХ веке – это факт. И своим рождением он обязан стремительному развитию технологий, революции в промышленном производстве, необходимости обработки больших баз данных в сжатые сроки и принятии целесообразных и зачастую, мгновенных решений по их результатам.
Это касается, прежде всего высокотехнологичных и опасных производств, авиации и ракетостроения, космических исследований, военной техники и ее применения, управления.
Классическим примером применения ИИ на практике является проектирование, создание и успешный испытательный полет системы Энергия-Буран. В 1988 году с космодрома Байконур на ракете-носителе «Энергия» в свой единственный полёт отправился корабль «Буран». В полностью автоматическом режиме он совершил 2 витка вокруг Земли и успешно приземлился спустя 205 минут. Это стало несомненным триумфом советской космонавтики, впервые в мире сумевшей посадить многоразовый космоплан в автоматическом режиме на землю.
Генеральным конструктором системы Энергия-Буран был Глеб Евгеньевич Лози́но-Лози́нский, советский и российский инженер и учёный в области авиационно-космической техники. Герой Социалистического Труда, лауреат Ленинской и двух Сталинских премий, доктор технических наук.
Сложность проектирования системы управления состояла в том, что необходимо было синхронизировать работу тысяч датчиков, исполнительных электромагнитных и гидроприводов, двигательной установки, навигационной системы, системы обработки и передачи данных, связи. При этом учесть их работу в различных режимах (от предстартовой подготовки до приземления) и окружающей среде (на земле, в воздухе и космосе). И весь этот набор необходимо было описать математически и «вложить» в «мозги» бортового компьютера.
Что и было успешно выполнено. Более того, при приземлении Бурана возникла внештатная ситуация. При заходе на посадку Буран вдруг начал набор высоты и изменил направление полета, пошел на разворот, что вызвало «переполох» в центре управления и уже предлагалось решение о его самоликвидации. Но сделав круг над аэродромом Буран уверенно пошел на посадку и приземлился. При «разборе» полета оказалось, что датчики скорости и направления бокового ветра показали недопустимые параметры и программа приняла решение уйти на второй круг и скорректировать параметры посадки.
Можно предположить, что именно тогда и утвердился термин Искусственный интеллект.
Но у каждой, даже у золотой медали, есть и обратная сторона. Любое изобретение человечества разного рода мошенники могут «повернуть» не во благо, а во вред.
Искусственный интеллект не исключение. Незаметно он стал ещё одним «слоем» между нами и информацией. Мы спрашиваем — он отвечает. Тон спокойный, уверенный, часто с «фактами». Хочется верить сразу. Но в реальности у этой уверенности есть цена.
В последние месяцы россияне стали терять деньги, доступ к аккаунтам и время из-за того, что поверили текстам и диалогам, созданным «умными» системами — как мошенническими ботами, маскирующимися под официальные сервисы, так и корпоративными чат-ботами, которые ошибались в ответах.
МВД фиксировало схему с фейковым ботом «Госуслуг» в Telegram: интерфейс и диалог похожи на настоящие, а дальше — фишинговая форма и кража логина, пароля и одноразового кода. Жертвы лишались доступа к «Госуслугам» и денег.
Чуть раньше «Лаборатория Касперского» объясняла, как работают «OTP-боты»: злоумышленник инициирует вход в ваш аккаунт, вы получаете СМС с одноразовым кодом, а бот звонит и «по скрипту» уговаривает продиктовать код прямо во время разговора. Код улетает к преступнику — и аккаунт захвачен. Всё это — результат обучения ИИ, никакой магии.
Свежий пример. В ноябре этого года появилась история, от которой стынет кровь: россиянин перевёл 3,3 млн. ₽ за «машину из Европы», поверив фотографиям и документам, которые мошенники сгенерировали нейросетями; «доказательства» выглядели убедительно. Итог — минус несколько миллионов и уголовное дело по факту мошенничества.
А в корпоративном секторе стало очевидно другое: если чат-бот банка в диалоге сообщает, что «деньги не поступили», а через какое-то время они всё же приходят, клиент уже готов писать претензию и идти в суд — потому что «официальный» канал дал текстовый ответ. Российские СМИ фиксировали такие конфликты: часть удаётся погасить досудебно, но репутационные и юридические риски реальны.
Чтобы понять, почему всё это происходит, нужно на минуту заглянуть внутрь самой «кухни» текстового ИИ — но без формул и замысловатых терминов.
Любой диалоговый ИИ работает с текстом не так, как мы (хотя и интеллект). Он режет фразу на маленькие кусочки — токены. Токен — это «кирпичик» текста: слово, часть слова, знак препинания или даже пробел. Так предложение превращается в удобную для вычислений цепочку чисел. Потом модель делает то, в чём она сильна: пытается предсказать следующий токен. На каждом шаге она раскладывает все возможные варианты по вероятности — как будто перед ней корзина шариков-кандидатов, и у каждого своя «тяжесть» (Своего роды машина играет в «Поле чудес»). Самый тяжёлый шарик чаще всего и «выпадает» как следующий кусочек ответа. Именно поэтому ИИ звучит связно: он хорошо угадывает правдоподобное продолжение, потому что натренирован на огромных массивах текста. Но «правдоподобие» — не «правда». Алгоритм оптимизирован на гладкость и уместность, а не на проверку фактов. Отсюда феномен «галлюцинаций»: может быть сгенерирован уверенный, но фактически ложный фрагмент текста.
Как модель выбирает «следующее слово» — чистая математика. В конце расчётов используется функция softmax: она превращает сырые оценки в нормальное распределение вероятностей (понимаю, что звучит не понятно, но нужно вспомнить базовый курс математики старшей школы, сумма равна 1) и эта функция позволяет трактовать «веса» каждого из шариков, как шанс каждого токена. Поверх этого есть «ползунки креативности». Например: «Температура» — насколько позволяем себе выходить за очевидные варианты; чем выше, тем смелее стиль, но тем больше риск уверенной фантазии, то есть ИИ будет лгать очень уверенно, или Top-p («ядерная выборка») — берём только верхнюю «шапку» вероятностей, отрезая экзотику, тут можем потерять контекст и не получить вообще ответ на поставленный вопрос. Все эти инструкции меняют текст, но ни одна из них не включает «датчик истины или правды»: модель не знает фактов, она их статистически прописывает.
Именно из-за этой природы текстовый ИИ так удобен и так опасен одновременно.
За десять последних лет произошёл скачок, который можно сравнить с приходом мобильного интернета.
В 2017 году в исследовательской работе Google показал архитектуру «трансформера» (так называется вид нейросетевой архитектуры, который хорошо подходит для обработки последовательностей данных) — механизм внимания, благодаря которому модель может «удерживать» контекст.
Дальше — ускорение: 2020 год принёс качественный рывок в генерации текста, в 2022-м разговор с моделью сделал технологию массовой.
В 2023–2025 годах «подсказчики» поселились в браузерах, офисных пакетах и службах поддержки: ИИ стал прослойкой между человеком и информацией.
Мы пишем меньше черновой рутины, быстрее формируем справки и отчёты и даже книги, получаем «второе мнение» за секунды — и одновременно живём в мире, где за копейки можно штамповать правдоподобные тексты в промышленных масштабах.
В России у этой истории есть и свой тех контекст.
«Сбер» в апреле 2023 года представил GigaChat как русскоязычную альтернативу западным чат-ботам, а летом 2025-го в интервью Reuters говорил о версиях с «рассуждениями» и о том, что десятки тысяч компаний уже интегрируют модель у себя.
«Яндекс» в сентябре 2023-го объявил YandexGPT 2, а в декабре открыл API через Yandex Cloud — это резко снизило порог внедрения генеративных функций для бизнеса. Даже если вы «далеки от информационных технологий», всё это означает одно: текстовый ИИ уже встроен в российские сервисы и рабочие процессы, и объём обмена «человек — машина» будет только расти.
Где это бьёт по нам больнее всего?
Там, где на кону деньги и доступ к конфиденциальной информации. Фишинговые «боты-двойники» под «Госуслуги», «Почту России» и службы доставки маскируются под официальный тон и просят «подтвердить вход», «получить компенсацию» или «отследить посылку». В Telegram мини-приложения часто скрывают настоящий URL, и человек не видит, что находится на поддельной форме. Дал код — потерял учётную запись. Вариантов много, но суть одна: диалог «как будто официальный», текст убедительный, а результат — кража денег или данных и всё это за мошенников сейчас может делать ИИ.
Вторая зона риска — когда мы принимаем текст чат-бота за «истину» внутри официального канала. Юридическая логика проста: если ответ опубликован от лица организации, это её ответ. В Канаде уже было решение, где компанию обязали компенсировать клиенту ущерб из-за неверной консультации бота на сайте. У нас аналогичные сюжеты пока чаще заканчиваются досудебно, но «накопительный эффект» очевиден: чем больше бизнес переносит коммуникации в «бот-диалоги», тем строже им придётся выстраивать контроль качества текстов, потому что «извините, это был ИИ» не освобождает от ответственности.
Что нам с этим делать прямо сейчас?
Во-первых, нормализовать сомнения по отношению к получаемой информации. Ответ ИИ — вероятностная гипотеза, а не правда. Надо спрашивать у нейросетей даты и источники и допускать честный ответ «нет данных» или что-то подобное.
Во-вторых, не диктовать одноразовые коды подтверждения и пароли «в диалог»: коды — только на официальных сайтах и в приложениях, которые вы открыли сами, без переходов по ссылкам из чатов (и то в нынешних условиях развития технологий, не уверен сколько по времени будет актуальна эта рекомендация).
В-третьих, большие деньги — только после офлайн-проверки. Фото «из переписки» и красивые «ПДФ-документы» больше не доказательства чего-либо: сверяйте VIN, ПТС, юрстатус продавца и сделки (к слову, даже разговор по видеосвязи может не являться гарантией). Эти вещи кажутся скучными — пока не становятся дорогими.
Организациям тоже придётся успевать. Любой корпоративный бот — это «текст компании». Нужны правила для чувствительных тем (право, финансы, медицина): обязательные ссылки и дата-штампы в ответах, журналы проверки, сценарии ретроспективного контроля, понятная маркировка ИИ-контента. Ровно то, что уже сегодня делают в тех сферах, где ошибка текста — это деньги, иски и регулятор. А разработчикам нейросетей — больше прозрачности: по возможности — цитируемые ответы, хранение источников, чёткие логи.
И да, очень важно пресекать «фабрики текста» — задача не только государства: медиа, платформы и НКО уже отрабатывают механизмы против сетей фальш-СМИ и «клонированных» новостных сайтов, где тексты штампуют машины. Это неприятная, но решаемая гигиена инфополя. На самом деле это существенный пласт в вопросах контроля достоверности информации в интернете.
И, наконец, честный философский вывод.
Никакого «сознательного ИИ» рядом с нами пока нет, да и никогда не будет. ИИ создаёт человек и это всего лишь программа, которая обучена выполнять определенный набор действий или обучена развиваться по определённым законам.
На данный момент есть статистическая машина продолжения текста, обученная на наших же словах, привычках и ошибках. Она говорит убедительно не потому, что знает истину, а потому, что лучше других подбирает правдоподобные продолжения. Значит, субъект ответственности остаётся прежним — и это человек, который пишет промт (запрос), внедряет бота, настраивает сценарий общения и выбирает, какие тексты запускать в оборот. Чем меньше мы понимаем эту механику, тем легче нами управлять уверенным тоном. И наоборот: как только вы начинаете спрашивать даты, источники и ограничения модели, у вас появляется простая и надёжная защита — здоровый скепсис и технологическая грамотность. Не романтизация, а правила игры.
Отдельно хочу отметить следующие последствия во взаимодействии с ИИ, о которых можно подумать самостоятельно:
1) пограничное психическое расстройство (у неподготовленного человека после общения с ИИ может возникнуть, например, иллюзия того, что он нашёл лучшего друга, который его понимает и поддерживает, а последствия у такого состояния могут быть самые разные);
2) весь материальный мир одухотворён, а ИИ нет (ответ заключается в том, что у ИИ нет собственного сознания и души, поэтому ждать от него признаков жизни глупо);
3) ИИ не генерирует новых знаний (самое очевидное для понимания, да, ИИ может автоматизировать какую-то рутинную работу по алгоритму, которому мы его научили, до обучиться в том же направлении, что мы задали, но самостоятельно генерировать новые знания неспособен);
Эта статья лишь введение в, казалось бы, дивный на первый взгляд, новый мир, таящий кругом опасности для нас. Многие слышали про третий закон Артура Кларка, который гласит: «Любая достаточно развитая технология неотличима от магии». А ведь он прав, её тут нет, нам нельзя забывать, чем ИИ в современном мире является на самом деле. И если задуматься, то мы сами создаём, средство для контроля над всем человечеством. Отказаться от него мы не сможем, поэтому нам остаётся только приспособиться.
Тимур Окапов, студент МГТУ им. Н.Э. Баумана.

Автор: Алексей, Санкт-Петербург, 22 декабря 2025 , 23 Декабрь, 2025
Автор: Антон С. , 09 Декабрь, 2025
Автор: Алексей, преподаватель, Москва , 04 Декабрь, 2025
Автор: Илья, МГУ , 02 Декабрь, 2025
Хотя согласен: ИИ - это взгляд в будущее.
Автор: Руслан, студент, Москва , 24 Ноябрь, 2025
А это его слова для ХОЛЯВЩИКОВ: «Когда ребёнку или студенту система просто выдаёт ответ, он перестаёт думать. А наша задача — научить его именно думать, развивать собственные способности, а не заменять их нажатием на кнопку».
Автор: Кирилл, Москва , 21 Ноябрь, 2025
Автор: Влад, студент, Момква , 21 Ноябрь, 2025
2. В Telegram мини-приложения скрывают настоящий URL, что увеличивает риск мошенничества.
3. Юридическая ответственность за ответы ботов.
Как предостеречь себя от рисков попасть в ловушку ИИ?
На мой взгляд необходимо, в первую очередь, контролировать качество текстов ботов.
Автор: Эдик, студент МГЛУ , 20 Ноябрь, 2025
Халявщикам - привет!






В статье хорошо показана «кухня», но хотелось бы развить мысль о долгосрочных социальных последствиях. Когда правдоподобные, но необязательно истинные нарративы начинают штамповаться в промышленных масштабах, это размывает саму основу для публичной дискуссии и коллективного принятия решений. Мы рискуем оказаться не в «машине контроля» в стиле «1984», а в «машине фрагментации», где у каждой группы будет свой убедительный, алгоритмически сгенерированный набор «фактов».
Самый тревожный вывод, который напрашивается после прочтения, — это необходимость новой формы грамотности. Раньше нас учили проверять источники. Теперь источником зачастую является непрозрачная статистическая модель. «Здоровый скепсис» — хорошее начало, но недостаточное. Нужно системное обучение вероятностному мышлению и пониманию работы алгоритмов — на уровне школ и вузов. Иначе предсказание автора о «приспособлении» будет означать не адаптацию, а капитуляцию перед миром, где правда окончательно потеряла объективные ориентиры.
Спасибо автору за то, что перевёл техническую дискуссию в плоскость экзистенциального вызова. Статья — мощный сигнал к действию не только для пользователей, но и для законодателей, педагогов и создателей технологий.