КАТРУСЯ – > 212
orig date 2025-06-11 14:35:25
17:42 11-06-2025 
Media is too big
VIEW IN TELEGRAM
Едва ли меня всё ещё цепляет бред; скорее, наоборот. Я чувствую какую-то удивительную усталость от фейков, которые сама способна верифицировать не прибегая к детальному рассмотрению, но что ещё более важно — чувствую почти такую же усталость при мысли о необходимости их разоблачения.
Думаю, что это повсеместно так, причем не только применительно к политическим вбросам, а вообще ко всему. Семь часов экранного времени ежедневно — в среднем такая статистика по миру на человека. Семь часов «а вы знали, что», семь часов «….выразили озабоченность», «приняли к сведению», «британские ученые открыли»…
Но вот что важно: как часто вы ищете подтверждение информации, которую вы получили и которая кажется вам правдивой? Как часто вы гуглите источники ежедневных сенсаций, читаете исследования, углубляетесь в методы обработки информации? Сколько из семи часов того, что вы потребили, на самом деле является правдой?
Я задаю эти вопросы не от праздного интереса, а потому что вижу, как в информационное пространство помимо политических фейков, существующих в логике информационной войны, вторгается трогательное и нелепое в своих притязаниях на безусловную экспертность повсеместное вранье искусственного интеллекта.
Нейросеть генерирует ответы на основе анализа огромных объёмов данных, стремясь к убедительности и связности, даже если это ведёт к потере фактической точности. На данный момент уже существуют доказательства этого феномена: вот, например, работа, описывающая как языковые модели демонстрируют поведение, функционально идентичное обману, не обладая при этом сознанием в человеческом смысле этого слова. Применительно к моделям используют термин «конфабуляция» или галлюцинации.
В экспериментах GPT-4 проявляет такое поведение в простых тестовых сценариях в 99,16% случаев (P < 0,001) — статистически значимый результат, исключающий случайность.
Apollo Research вообще утверждают, что фактические ошибки присутствуют в 46% генерируемых ИИ текстах.
Вы, конечно, можете попытаться парировать уверенным, как Жириновский, «я не пользуюсь всей этой чушью», но с чего вы взяли, что контент, который вы потребляете, пишется и проходит процесс проверки на фактическую точность старомодным добросовестным образом? Или что ваш любимый блогер не читает с суфлера сгенерированную чат-джипити творческую полуправду, звуча при этом очень экспертно и непротиворечиво.
На сегодняшний день уже существует куча обучений по созданию автоматизированных сценариев с использованием ИИ, которые будут через автогенерировать контент в разные соцсети по одному запросу.
Я не луддит от мира постмодерна (я луддит от мира постмодерна…) и однажды пользовалась ИИ. Моя команда активно использует ИИ для упрощения работы с картинками, таблицами, видео.
Это безусловно классный и, наверное, пока ещё недооцененный инструмент, но из-за несовершенной логики работы люди превратили его в машину по производству бесконечных и, что самое главное, спорадических фейков.
Мы уже, можно сказать, одной ногой вступили в эру посткритического мышления, причем, не потому, что люди как-то трагически отупели сами по себе как вид, а потому что система в своем текущем воплощении делает рациональный скепсис иррациональным и избыточным поведением.
Более того, восприятие регулируется не фактической информацией в тексте, а его наукообразностью. То есть видом текста. Много умных слов, обстоятельные предложения = умный текст. Это ИИ делает не ура.
Скорее всего, будущее принадлежит новой форме цифрового шаманизма: мы будем принимать информацию не потому что она правдива, а потому что она резонирует с нашим мировоззрением.
И это то будущее, которое уже наступило.