Молодежь и Чистый Интернет

Пропаганда алкоголизма и наркомании, терроризм и экстремизм, детская порнография, мошенничество, насилие - мы против этого в Интернете и в жизни!

TruNet

Независимый Сайт Молодежного объединения студентов и молодых ученых России и Ближнего Зарубежья.
Единая Родина, Молодость, Патриотизм, Духовность, Любовь, Семья, Образование, Наука, Культура, Прогресс, Единство наших народов - будущее нашего Величия.
Мы за ВЕЛИКУЮ РОССИЮ!
Все авторские права защищены

КАК Я ВЫПОЛНЯЮ ОБЯЗАТЕЛЬСТВА ПЕРЕД НАРОДОМ


Защитникам отечества посвящается


PopUp MP3 Player (New Window)

Регистрация / Вход

МАШИНА КОНТРОЛЯ, КОТОРУЮ МЫ СТРОИМ: ВЕРОЯТНОСТИ ВМЕСТО ПРАВДЫ

E-mail Печать PDF

Искусственный интеллект. Словосочетание, состоящее из прилагательного «искусственный» и существительного «интеллект». Искусственный - подобный природному, заменяющий естественное. Интеллект - общая познавательная способность, которая проявляется в том, как человек воспринимает, понимает, объясняет и прогнозирует происходящее, какие решения он принимает и насколько эффективно действует.

 

Искусственный интеллект (ИИ, AI — Artificial Intelligence) — это раздел компьютерных наук, который разрабатывает системы, способные выполнять задачи, требующие человеческого интеллекта. К таким функциям относятся обучение, анализ, распознавание речи, планирование, принятие решений и даже творчество.

ИИ базируется на алгоритмах, моделях и технологиях, которые позволяют машинам воспринимать окружающий мир, интерпретировать данные, делать выводы, принимать решения и адаптироваться к изменяющимся условиям.

Сейчас уже сложно установить кто впервые употребил этот термин. Но то, что ИИ зародился в ХХ веке – это факт. И своим рождением он обязан стремительному развитию технологий, революции в промышленном производстве, необходимости обработки больших баз данных в сжатые сроки и принятии целесообразных и зачастую, мгновенных решений по их результатам.

Это касается, прежде всего высокотехнологичных и опасных производств, авиации и ракетостроения, космических исследований, военной техники и ее применения, управления.

Классическим примером применения ИИ на практике является проектирование, создание и успешный испытательный полет системы Энергия-Буран. В 1988 году с космодрома Байконур на ракете-носителе «Энергия» в свой единственный полёт отправился корабль «Буран». В полностью автоматическом режиме он совершил 2 витка вокруг Земли и успешно приземлился спустя 205 минут. Это стало несомненным триумфом советской космонавтики, впервые в мире сумевшей посадить многоразовый космоплан в автоматическом режиме на землю.

Генеральным конструктором системы Энергия-Буран был Глеб Евгеньевич Лози́но-Лози́нский, советский и российский инженер и учёный в области авиационно-космической техники. Герой Социалистического Труда, лауреат Ленинской и двух Сталинских премий, доктор технических наук.

Сложность проектирования системы управления состояла в том, что необходимо было синхронизировать работу тысяч датчиков, исполнительных электромагнитных и гидроприводов, двигательной установки, навигационной системы, системы обработки и передачи данных, связи. При этом учесть их работу в различных режимах (от предстартовой подготовки до приземления) и окружающей среде (на земле, в воздухе и космосе). И весь этот набор необходимо было описать математически и «вложить» в «мозги» бортового компьютера.

Что и было успешно выполнено. Более того, при приземлении Бурана возникла внештатная ситуация. При заходе на посадку Буран вдруг начал набор высоты и изменил направление полета, пошел на разворот, что вызвало «переполох» в центре управления и уже предлагалось решение о его самоликвидации. Но сделав круг над аэродромом Буран уверенно пошел на посадку и приземлился. При «разборе» полета оказалось, что датчики скорости и направления бокового ветра показали недопустимые параметры и программа приняла решение уйти на второй круг и скорректировать параметры посадки.

Можно предположить, что именно тогда и утвердился термин Искусственный интеллект.

Но у каждой, даже у золотой медали, есть и обратная сторона. Любое изобретение человечества разного рода мошенники могут «повернуть» не во благо, а во вред.

Искусственный интеллект не исключение. Незаметно он стал ещё одним «слоем» между нами и информацией. Мы спрашиваем — он отвечает. Тон спокойный, уверенный, часто с «фактами». Хочется верить сразу. Но в реальности у этой уверенности есть цена.

В последние месяцы россияне стали терять деньги, доступ к аккаунтам и время из-за того, что поверили текстам и диалогам, созданным «умными» системами — как мошенническими ботами, маскирующимися под официальные сервисы, так и корпоративными чат-ботами, которые ошибались в ответах.

МВД фиксировало схему с фейковым ботом «Госуслуг» в Telegram: интерфейс и диалог похожи на настоящие, а дальше — фишинговая форма и кража логина, пароля и одноразового кода. Жертвы лишались доступа к «Госуслугам» и денег.

Чуть раньше «Лаборатория Касперского» объясняла, как работают «OTP-боты»: злоумышленник инициирует вход в ваш аккаунт, вы получаете СМС с одноразовым кодом, а бот звонит и «по скрипту» уговаривает продиктовать код прямо во время разговора. Код улетает к преступнику — и аккаунт захвачен. Всё это — результат обучения ИИ, никакой магии.

Свежий пример. В ноябре этого года появилась история, от которой стынет кровь: россиянин перевёл 3,3 млн. ₽ за «машину из Европы», поверив фотографиям и документам, которые мошенники сгенерировали нейросетями; «доказательства» выглядели убедительно. Итог — минус несколько миллионов и уголовное дело по факту мошенничества.

А в корпоративном секторе стало очевидно другое: если чат-бот банка в диалоге сообщает, что «деньги не поступили», а через какое-то время они всё же приходят, клиент уже готов писать претензию и идти в суд — потому что «официальный» канал дал текстовый ответ. Российские СМИ фиксировали такие конфликты: часть удаётся погасить досудебно, но репутационные и юридические риски реальны.

Чтобы понять, почему всё это происходит, нужно на минуту заглянуть внутрь самой «кухни» текстового ИИ — но без формул и замысловатых терминов.

Любой диалоговый ИИ работает с текстом не так, как мы (хотя и интеллект). Он режет фразу на маленькие кусочки — токены. Токен — это «кирпичик» текста: слово, часть слова, знак препинания или даже пробел. Так предложение превращается в удобную для вычислений цепочку чисел. Потом модель делает то, в чём она сильна: пытается предсказать следующий токен. На каждом шаге она раскладывает все возможные варианты по вероятности — как будто перед ней корзина шариков-кандидатов, и у каждого своя «тяжесть» (Своего роды машина играет в «Поле чудес»). Самый тяжёлый шарик чаще всего и «выпадает» как следующий кусочек ответа. Именно поэтому ИИ звучит связно: он хорошо угадывает правдоподобное продолжение, потому что натренирован на огромных массивах текста. Но «правдоподобие» — не «правда». Алгоритм оптимизирован на гладкость и уместность, а не на проверку фактов. Отсюда феномен «галлюцинаций»: может быть сгенерирован уверенный, но фактически ложный фрагмент текста.

Как модель выбирает «следующее слово» — чистая математика. В конце расчётов используется функция softmax: она превращает сырые оценки в нормальное распределение вероятностей (понимаю, что звучит не понятно, но нужно вспомнить базовый курс математики старшей школы, сумма равна 1) и эта функция позволяет трактовать «веса» каждого из шариков, как шанс каждого токена. Поверх этого есть «ползунки креативности». Например: «Температура» — насколько позволяем себе выходить за очевидные варианты; чем выше, тем смелее стиль, но тем больше риск уверенной фантазии, то есть ИИ будет лгать очень уверенно, или Top-p («ядерная выборка») — берём только верхнюю «шапку» вероятностей, отрезая экзотику, тут можем потерять контекст и не получить вообще ответ на поставленный вопрос. Все эти инструкции меняют текст, но ни одна из них не включает «датчик истины или правды»: модель не знает фактов, она их статистически прописывает.

Именно из-за этой природы текстовый ИИ так удобен и так опасен одновременно.

За десять последних лет произошёл скачок, который можно сравнить с приходом мобильного интернета.

В 2017 году в исследовательской работе Google показал архитектуру «трансформера» (так называется вид нейросетевой архитектуры, который хорошо подходит для обработки последовательностей данных) — механизм внимания, благодаря которому модель может «удерживать» контекст.

Дальше — ускорение: 2020 год принёс качественный рывок в генерации текста, в 2022-м разговор с моделью сделал технологию массовой.

В 2023–2025 годах «подсказчики» поселились в браузерах, офисных пакетах и службах поддержки: ИИ стал прослойкой между человеком и информацией.

Мы пишем меньше черновой рутины, быстрее формируем справки и отчёты и даже книги, получаем «второе мнение» за секунды — и одновременно живём в мире, где за копейки можно штамповать правдоподобные тексты в промышленных масштабах.

В России у этой истории есть и свой тех контекст.

«Сбер» в апреле 2023 года представил GigaChat как русскоязычную альтернативу западным чат-ботам, а летом 2025-го в интервью Reuters говорил о версиях с «рассуждениями» и о том, что десятки тысяч компаний уже интегрируют модель у себя.

«Яндекс» в сентябре 2023-го объявил YandexGPT 2, а в декабре открыл API через Yandex Cloud — это резко снизило порог внедрения генеративных функций для бизнеса. Даже если вы «далеки от информационных технологий», всё это означает одно: текстовый ИИ уже встроен в российские сервисы и рабочие процессы, и объём обмена «человек — машина» будет только расти.

Где это бьёт по нам больнее всего?

Там, где на кону деньги и доступ к конфиденциальной информации. Фишинговые «боты-двойники» под «Госуслуги», «Почту России» и службы доставки маскируются под официальный тон и просят «подтвердить вход», «получить компенсацию» или «отследить посылку». В Telegram мини-приложения часто скрывают настоящий URL, и человек не видит, что находится на поддельной форме. Дал код — потерял учётную запись. Вариантов много, но суть одна: диалог «как будто официальный», текст убедительный, а результат — кража денег или данных и всё это за мошенников сейчас может делать ИИ.

Вторая зона риска — когда мы принимаем текст чат-бота за «истину» внутри официального канала. Юридическая логика проста: если ответ опубликован от лица организации, это её ответ. В Канаде уже было решение, где компанию обязали компенсировать клиенту ущерб из-за неверной консультации бота на сайте. У нас аналогичные сюжеты пока чаще заканчиваются досудебно, но «накопительный эффект» очевиден: чем больше бизнес переносит коммуникации в «бот-диалоги», тем строже им придётся выстраивать контроль качества текстов, потому что «извините, это был ИИ» не освобождает от ответственности.

Что нам с этим делать прямо сейчас?

Во-первых, нормализовать сомнения по отношению к получаемой информации. Ответ ИИ — вероятностная гипотеза, а не правда. Надо спрашивать у нейросетей даты и источники и допускать честный ответ «нет данных» или что-то подобное.

Во-вторых, не диктовать одноразовые коды подтверждения и пароли «в диалог»: коды — только на официальных сайтах и в приложениях, которые вы открыли сами, без переходов по ссылкам из чатов (и то в нынешних условиях развития технологий, не уверен сколько по времени будет актуальна эта рекомендация).

В-третьих, большие деньги — только после офлайн-проверки. Фото «из переписки» и красивые «ПДФ-документы» больше не доказательства чего-либо: сверяйте VIN, ПТС, юрстатус продавца и сделки (к слову, даже разговор по видеосвязи может не являться гарантией). Эти вещи кажутся скучными — пока не становятся дорогими.

Организациям тоже придётся успевать. Любой корпоративный бот — это «текст компании». Нужны правила для чувствительных тем (право, финансы, медицина): обязательные ссылки и дата-штампы в ответах, журналы проверки, сценарии ретроспективного контроля, понятная маркировка ИИ-контента. Ровно то, что уже сегодня делают в тех сферах, где ошибка текста — это деньги, иски и регулятор. А разработчикам нейросетей — больше прозрачности: по возможности — цитируемые ответы, хранение источников, чёткие логи.

И да, очень важно пресекать «фабрики текста» — задача не только государства: медиа, платформы и НКО уже отрабатывают механизмы против сетей фальш-СМИ и «клонированных» новостных сайтов, где тексты штампуют машины. Это неприятная, но решаемая гигиена инфополя. На самом деле это существенный пласт в вопросах контроля достоверности информации в интернете.

И, наконец, честный философский вывод.

Никакого «сознательного ИИ» рядом с нами пока нет, да и никогда не будет. ИИ создаёт человек и это всего лишь программа, которая обучена выполнять определенный набор действий или обучена развиваться по определённым законам.

На данный момент есть статистическая машина продолжения текста, обученная на наших же словах, привычках и ошибках. Она говорит убедительно не потому, что знает истину, а потому, что лучше других подбирает правдоподобные продолжения. Значит, субъект ответственности остаётся прежним — и это человек, который пишет промт (запрос), внедряет бота, настраивает сценарий общения и выбирает, какие тексты запускать в оборот. Чем меньше мы понимаем эту механику, тем легче нами управлять уверенным тоном. И наоборот: как только вы начинаете спрашивать даты, источники и ограничения модели, у вас появляется простая и надёжная защита — здоровый скепсис и технологическая грамотность. Не романтизация, а правила игры.

Отдельно хочу отметить следующие последствия во взаимодействии с ИИ, о которых можно подумать самостоятельно:

1) пограничное психическое расстройство (у неподготовленного человека после общения с ИИ может возникнуть, например, иллюзия того, что он нашёл лучшего друга, который его понимает и поддерживает, а последствия у такого состояния могут быть самые разные);

2) весь материальный мир одухотворён, а ИИ нет (ответ заключается в том, что у ИИ нет собственного сознания и души, поэтому ждать от него признаков жизни глупо);

3) ИИ не генерирует новых знаний (самое очевидное для понимания, да, ИИ может автоматизировать какую-то рутинную работу по алгоритму, которому мы его научили, до обучиться в том же направлении, что мы задали, но самостоятельно генерировать новые знания неспособен);

Эта статья лишь введение в, казалось бы, дивный на первый взгляд, новый мир, таящий кругом опасности для нас. Многие слышали про третий закон Артура Кларка, который гласит: «Любая достаточно развитая технология неотличима от магии». А ведь он прав, её тут нет, нам нельзя забывать, чем ИИ в современном мире является на самом деле. И если задуматься, то мы сами создаём, средство для контроля над всем человечеством. Отказаться от него мы не сможем, поэтому нам остаётся только приспособиться.

Тимур Окапов, студент МГТУ им. Н.Э. Баумана.

Комментарии (8)Add Comment
0
Не контроль, а управление вниманием: куда ведёт «вероятностная» реальность?
Автор: Алексей, Санкт-Петербург, 22 декабря 2025 , 23 Декабрь, 2025
Блестящий и своевременный анализ. Автор точно фиксирует главный сдвиг: ИИ — это не просто инструмент, а новая среда коммуникации, построенная на вероятностях, а не на истинах. Опасность даже не в том, что нас обманут мошенники (это старая проблема в новой упаковке), а в том, что мы добровольно делегируем этой среде роль арбитра — в поиске информации, принятии мелких решений, формировании «второго мнения».

В статье хорошо показана «кухня», но хотелось бы развить мысль о долгосрочных социальных последствиях. Когда правдоподобные, но необязательно истинные нарративы начинают штамповаться в промышленных масштабах, это размывает саму основу для публичной дискуссии и коллективного принятия решений. Мы рискуем оказаться не в «машине контроля» в стиле «1984», а в «машине фрагментации», где у каждой группы будет свой убедительный, алгоритмически сгенерированный набор «фактов».

Самый тревожный вывод, который напрашивается после прочтения, — это необходимость новой формы грамотности. Раньше нас учили проверять источники. Теперь источником зачастую является непрозрачная статистическая модель. «Здоровый скепсис» — хорошее начало, но недостаточное. Нужно системное обучение вероятностному мышлению и пониманию работы алгоритмов — на уровне школ и вузов. Иначе предсказание автора о «приспособлении» будет означать не адаптацию, а капитуляцию перед миром, где правда окончательно потеряла объективные ориентиры.

Спасибо автору за то, что перевёл техническую дискуссию в плоскость экзистенциального вызова. Статья — мощный сигнал к действию не только для пользователей, но и для законодателей, педагогов и создателей технологий.
Пожаловаться
Голос -
Голос +
Голоса: +49
0
...
Автор: Антон С. , 09 Декабрь, 2025
Ну как же без ИИ. Везде его пихают, а по факту - этот ящик, который хранит в себе много будущих проблем. Ничего не заменит нормальной алгоритмизации
Пожаловаться
Голос -
Голос +
Голоса: +59
0
Последствия работы с ИИ - пограничное психическое расстройство у неподготовленных людей.
Автор: Алексей, преподаватель, Москва , 04 Декабрь, 2025
И это так. По-видимому рекламные ролики генерирует ИИ. Он (ИИ) предполагает, что их (рекламные ролики) смотрят дегенераты или он (ИИ) считает что его объект воздействия (публика) близка по развитию к обезьяне и верх ее (обезьяны) желания - это спелый банан.
Пожаловаться
Голос -
Голос +
Голоса: +61
0
ИИ - популярный бренд.
Автор: Илья, МГУ , 02 Декабрь, 2025
ИИ это своего рода новый БРЭНД. Для финансистов это как "ИНВЕСТИЦИИ" (инвестиционный фонд, благоприятные условия для...,Инвестиционная привлекательность и т.д.), для ученых - новые возможности для защиты диссертаций, для производителей - реклама (пылесос с ИИ -спм пылесосит), для спецслужб - новые возможности, для "айтишников" - форма заработка, для мошенников - новый способ отъема денег у населения.
Хотя согласен: ИИ - это взгляд в будущее.
Пожаловаться
Голос -
Голос +
Голоса: +66
0
«Думать надо самому»
Автор: Руслан, студент, Москва , 24 Ноябрь, 2025
"Такие модели порождают гигантские массивы новых данных, становятся одним из важнейших инструментов распространения информации, а значит, способны влиять на ценности, мировоззрение людей, формировать смысловое пространство целых государств и человечества в целом" - из выступления ВВП на 10-йКонференции по ИИ.
А это его слова для ХОЛЯВЩИКОВ: «Когда ребёнку или студенту система просто выдаёт ответ, он перестаёт думать. А наша задача — научить его именно думать, развивать собственные способности, а не заменять их нажатием на кнопку».
Пожаловаться
Голос -
Голос +
Голоса: +101
0
«Любая достаточно развитая технология неотличима от магии».
Автор: Кирилл, Москва , 21 Ноябрь, 2025
И это, так!
Пожаловаться
Голос -
Голос +
Голоса: +107
0
Риски для пользователей принятия текста чат-бота за истину.
Автор: Влад, студент, Момква , 21 Ноябрь, 2025
1. Фишинговые боты маскируются под официальные сервисы и крадут деньги и данные.
2. В Telegram мини-приложения скрывают настоящий URL, что увеличивает риск мошенничества.
3. Юридическая ответственность за ответы ботов.
Как предостеречь себя от рисков попасть в ловушку ИИ?
На мой взгляд необходимо, в первую очередь, контролировать качество текстов ботов.
Пожаловаться
Голос -
Голос +
Голоса: +107
0
ИИ базируется на алгоритмах, моделях и технологиях для восприятия, интерпретации данных, принятия решений и адаптации к изменяющимся условиям.
Автор: Эдик, студент МГЛУ , 20 Ноябрь, 2025
Согласен с автором. 3/4 , если не больше рефератов за меня пишет Алиса. Правда бывают и проколы, но редко.
Халявщикам - привет!
Пожаловаться
Голос -
Голос +
Голоса: +114

Написать комментарий
меньше | больше

busy
 
Ты здесь: Главная