ХЗ зачем. Охота на ведьм

Детекция
Часть 1
Без сомнения, заголовок «Охота на ведьм» в цифровую эпоху звучит тривиально, но это классика, которую трудно переплюнуть. Далее речь пойдёт о том, как, по моему мнению, детекторы ИИ уничтожают человеческое творчество. Со времени последних известных событий я ознакомился с материалами более чем 200 сайтов. Провёл сотни тестовых проверок, прямых и обратных генераций; создавал диалоги с различными программными средствами, чтобы «услышать», так сказать, ответы на возникающие вопросы от самих машин. Полноценная работа, включающая образцы, скрины, ссылки, последовательности, ещё не готова ввиду сложности реализации на смартфоне, но структуры созданы и наполнены в Obsidian, и по завершении работу размещу на стороннем ресурсе из-за её объёмности. Ссылку также оставлю здесь, в одном из постов, для тех, кому будет интересно «самостоятельно» проследить алгоритмы работы искусственного интеллекта.
1.1 Технология, которая вышла из-под контроля
В 2023 году в цифровой среде произошёл эпизод, который по значимости должен был стать поворотным моментом в отношении к детекторам искусственного интеллекта, но вместо этого превратился в некий мем. Пользователями социальных сетей было обнаружено, что GPTZero (один из самых разрекламированных сервисов по обнаружению текстов, сгенерированных нейросетями) — объявляет Конституцию Соединённых Штатов «почти полностью написанной ИИ». Показатель вероятности был более 96 процентов. Создатель инструмента, студент Эдвард Тянь, был вынужден оправдываться: мол, Конституция слишком часто попадала в обучающие данные больших языковых моделей. Но это было только начало. Тесты показали, что отрывки из Библии также уверенно классифицируются как продукт работы нейросети. А также произведения Шекспира и многих авторов прошлого.
Возникшее обстоятельство — это не забавный курьёз. Это симптом глубокой болезни, поразившей современную культуру оценки текстов. Машинам доверили судить о том, что создано человеком, и был получен предсказуемый результат: алгоритмы, которые были обученные на усреднённых паттернах, объявили войну всему, что выбивается из нормы. А поскольку «норма» в данном случае — это некая посредственность, то под удар «успешно» попадают яркие, грамотные и творческие работы.
1.2 Миф об объективности: почему детекторы ИИ работают некорректно
Разработчики детекторов, в частности Gptzero, обещают чудеса точности — до 99% на человеческих текстах. Но многочисленные независимые тесты рисуют иную картину. Уровень ложноположительных срабатываний достигает критических значений для достоверности результатов в целом, а главное — эти инструменты демонстрируют вопиющую некомпетентность в определении самых базовых маркеров человеческой речи. В этом параметре собенно показательно, как на результаты влияют самые маркеры. Например, использование буквы «ё» способно изменить вердикт буквально на 50 процентов! — программа воспринимает эту букву как подозрительный маркер, считая, что человеку лень её использовать, хотя для любого носителя языка это просто вариант орфографии. Кавычки — ещё один «фактор риска». Длинное тире (m-dash), которое является признаком профессиональной грамотности и литературного стиля, автоматически повышает вероятность того, что текст назовут «сгенерированным». Простыми словами, эти три маркера могут кардинально изменить результаты тестирования. Как иронично заметил один журналист с 22-летним стажем: «Я использовал длинное тире — значит, я ИИ. Нет, я просто работал над датасетом, на котором обучались большинство открытых ИИ».
И такая ситуация это не просто бред — это буквальная демонстрация фундаментальной несостоятельности подхода. Программа не понимает текст, не анализирует смысл — она алгоритмами ищет статистические паттерны, калеча живую речь под свои примитивные лекала.
Один из пользователей (по материалам статьи) провёл простой эксперимент. Он прогнал один и тот же текст через несколько детекторов. Результат: «Один детектор говорит 100% AI. Другой — 0% AI. Один и тот же текст. Написанный живым человеком, от руки. Эта технология больше похожа на рулетку с красивым интерфейсом.
В чём может быть, собственно, причина? А она кроется в самом принципе работы этих инструментов. Детекторы анализируют текст по двум параметрам: perplexity (запутанность) и burstiness (вариативность). Проблема заключается в том, что многие человеческие тексты — особенно хорошие, логичные, структурированные — обладают теми же свойствами, что и машинные. Более того, нейросети обучались на лучших образцах человеческой литературы. И парадокс в том, что теперь они любой нормальный текст признают своим, а не человеческим. Типа — человек так не может, он запинается, заикается, у него с логикой проблемы.
Абсурд ситуации достигает пика, когда мы осознаём: языковые модели учились писать как люди, а детекторы теперь «требуют», чтобы люди писали хуже, чтобы не походить на эти модели.
1.3 Реальные жертвы: когда алгоритм разрушает жизни.
Но теоретические дискуссии меркнут перед историями реальных людей, чьи судьбы пострадали от бездумного доверия к детекторам. Ниже несколько примеров с открытых источников.
В одном из университетов студентка подала в суд после того, как её обвинили в использовании ИИ. У неё были когнитивные особенности и её медицинское состояние естественным образом формировало высокоструктурированный, формальный стиль письма, который машина приняла за генерацию, а преподаватели ошибочно приняли вердикт как подтверждающий «почерк нейросети». Университет, по её словам, не предоставил необходимых академических послаблений в процессе разбирательства. Такой пример поднимает фундаментальный вопрос: а не дискриминируют ли детекторы ИИ людей с когнитивными особенностями?
Ещё пример: другой университет столкнулся с иском от студента, для которого английский не является родным. Адвокаты утверждают, что детекторы имеют «имплицитную предвзятость» против не носителей языка. Их письмо, более простое и структурно «правильное» (поскольку они пишут на неродном языке), легче попадает под критерии, по которым алгоритм маркирует текст как «машинный». Это подтверждают и исследования: детекторы систематически ошибаются в отношении студентов, чей первый язык — не английский.
И это необходимо учитывать как аксиому, давая себе отчёт в том, что русский язык сложен и многогранен, что сильно влияет на результаты.
Сразу скажу, что на официальном сайте есть таблица с процентным отношением погрешности детекции в нескольким языкам. Но более подробно, почему это важно, расскажу и покажу в детальном разборе.
Продолжим.
Особенно показателен случай китайской студентки Сяобин, которая написала 16-страничную диссертацию полностью самостоятельно, используя ChatGPT и DeepSeek только для редактирования нескольких абзацев. Заплатив около 70 юаней за проверку, она с ужасом обнаружила, что половина её работы обозначена как созданная ИИ. «Весь этот процесс казался мне абсурдным… Я чувствую себя как невинный человек, которого тянут на виселицу», — рассказала девушка.
Что сделала Сяобин, чтобы спасти свою работу? Она начала переделывать собственноручно написанный текст, меняя местами слова и предложения. В конце концов помог абсурдный трюк — замена точек на запятые. Присутствие ИИ сразу снизилось с 50% до 20%. Девушка, которая успешно сдала диссертацию, резюмировала: «Такое ощущение, будто тебя наказывают за то, что ты пишешь слишком хорошо».
1.4 Писатели, которых заставляют сомневаться в себе.
Российский автор провёл эксперимент: прогнал свои художественные тексты через детекторы. Результат оказался интересным: некоторые его работы были определены как «на 100% сгенерированные ИИ» — включая шутки и эвфемизмы, которые он придумывал сам, «бегая по потолку и воя от восторга».
Примеров множество, буду предметно приводить их в других частях.
И во всех этих и других (представленных в будущем) примерах прослеживается культ программы против человеческого: детекторы заставляют «тупеть». Самый страшный, но пока наименее заметный вред детекторов ИИ — это их обратное влияние на качество человеческого письма. И если система штрафует за грамотность, структурированность и богатство лексики, то рациональный субъект начнёт писать хуже.
В прямом смысле такие алгоритмы детекции действуют сразу по двум направлениям: авторы должны писать заведомо хуже, чтобы попасть «в критерии», а читатель, соответсвенно, будет вынужден потреблять это посредственное. Это также будет отдельным разделом.
Одна из писательниц провела эксперимент, который стал неким откровением. Её текст детектор забраковал за, внимание, «поэтичность, метафоричность, олицетворение неживого, а также за раздувание мелочей до космического масштаба». «У меня же именно эта мелочь говорит о том, что мир героини рухнул! Это важная сюжетная метафора!» — возмущалась автор. Детектор был неумолим: «Это признаки сети, надо убирать».
Она села переписывать. Первый вариант редакции — результат без изменений. Второй — «всё равно плавно и структурно, слишком литературно». Тогда она поступила парадоксально: она сделала запрос нейросети попросив сделать её текст хуже — добавить «рваный ритм, инверсию, просторечные слова и кривой синтаксис». Всё то, что в своих «объяснениях» любит приводить нейронка. Получив «рубленную историю», она загрузила этот кошмар в детектор. И он радостно выдал зелёный свет: «Вот это написал человек! Можешь же, когда умеешь!»
О чём говорит этот и другие, в том числе мои, эксперименты? Они говорят о том, чего ждут от нас эти программы, чтобы признать в нас людей. И требуют они косноязычия. Детекторы сломаны в своей основе. Любой плавный, логически выстроенный текст с нормальной пунктуацией и отсутствием речевого мусора они автоматически маркируют как искусственный. Любая структура, наличие техническиж терминов, часто встречающизся выражений, вердикт — виновен! Они результатами буквально штрафуют за литературный слог и словарный запас.
Ситуация, которая похожа на гонку ко дну: чтобы пройти «тест на человечность», нужно писать как посредственный человек или хуже. Писатели веками оттачивали умение говорить связно, красиво, плавно и логично. Искали метафоры. А машина, обучив алгоритмы на этих датасетах, считает их как свой эталон. И уже наступили времена, когда писатели будут стремиться говорить как можно корявее, нелогичнее и грязнее. Смешно и грустно, что это теперь станет маркером живого текста...
1.5 Технологическая манипуляция.
Сторонники обвинения часто заявляют: «Покажи текст до, условно, 2021 года, который детектор уверенно объявит генерацией". Эта тактика — классический логический приём «бремя доказательства», перевёрнутый с ног на голову. Выше уже косвенно затронулась эта тема, что примеры есть, и их достаточно много. И будут настоящие примеры. Но есть ещё один аспект, о котором умалчивают обвинители. А, скорее всего, в силу своей экпертности просто забыли ознакомиться с оффициальной информацией от различных разработчиков этих программ.
Дело в том, что алгоритмы детекторов постоянно перепрограммируются. С 2023 года, когда инциденты с Конституцией, Библией и другими документами и произведениями вызвали широкий резонанс, разработчики стали активно вносить правки, чтобы их инструменты не могли определить старые, «эталонные» тексты как генерацию. Это означает, что если вы попытаетесь сегодня проверить через GPTZero «Войну и мир» или научную статью 2010 года, вы не получите того же результата, который получили бы в 2023 году. Алгоритмы «научились» не трогать классику. Даже не смотря не запрос не использовать базу данных, они это макимально игнорируют.
Обвинитель оказывается в заведомо выигрышной позиции: он требует доказательств, которые либо невозможно предоставить, либо они уже невалидны из-за изменений в самом инструменте «доказывания».
1.6 Охота на ведьм в литературе: когда искусство подозревают в искусственности.
Особенно трагикомично ситуация выглядит в мире художественной литературы. Именно здесь — в пространстве творчества, оригинальности, авторского голоса — детекторы ИИ наносят наибольший удар по самой сути искусства.
Писательница Надежда Викторова точно описала этот феномен: «Меня искренне удивляет эта странная секта любителей слова. Их вообще не интересует смысл, содержание, описанная в тексте проблема, польза или глубина. У них с любым источником слов — от постов до книг — один алгоритм действий: найти приметы незаконных связей автора с искусственным интеллектом. Больше их не волнует ровным счётом ничего».
Эти «цифровые инквизиторы» — как их называют — в подавляющем большинстве самостоятельно не дееспособны определить генерацию от человеческого текста. Есть ощущение, что они не читают, не вдумываются, не анализируют смысл. Их единственный навык это запустить программу, получить цифру и начать шуметь обвинениями. Как только программа выдаёт высокую вероятность генерации, они объявляют приговор, не задумываясь о контексте, стиле, авторской индивидуальности или поиске.
Такое поведение не только обесценивает человеческий труд, но и унижает самих подозревающих. Потому что они демонстрируют полную неспособность к самостоятельному суждению, добровольно передавая свой разум на откуп примитивному алгоритму. Становятся не оценщиками текстов, а операторами чужой воли, бездумными трансляторами машинного вердикта.
И это как раз и напоминает ту самую «охоту на ведьм» в её самом классическом проявлении: признаком «колдовства» объявляется то, что выходит за пределы обыденного — красота, ум, нестандартность. И точно так же, как в XVII веке, обвинение практически невозможно опровергнуть, потому что оно основано на «свидетельстве» инструмента, который никто не понимает до конца, но все ему доверяют.
1.7 Важное: отказ от детекторов. Академический мир приходит в себя.
Хорошая новость заключается в том, что университеты по всему миру начинают массово отказываться от использования детекторов ИИ. Слишком много стало ложных обвинений, слишком очевидной — несостоятельность инструментов.
Университет Ватерлоо (Канада) принял решение отключить функцию AI-детекции в Turnitin с сентября 2025 года. В официальном заявлении указано: «Исследования показали, что инструменты обнаружения ИИ ненадёжны. Внутреннее тестирование университета показало, что число ложноположительных срабатываний вызывает тревогу. Учитывая стоимость инструмента, ненадёжность и предвзятость, было определено, что затраты перевешивают преимущества».
Университет Кейптауна (ЮАР) также отказался от использования детектора с октября 2025 года. Руководитель Центра инноваций в обучении заявила: «Детекторы ИИ просто ненадёжны. Нет никаких магических решений». Университет фокусируется на оценке процесса обучения, а не только продукта, внедряя устные экзамены, наблюдаемую групповую работу и задания.
Университет Мэсси (Новая Зеландия) также отключил детекцию. Доктор Анджела Фикери, одна из руководителей профсоюза преподавателей, объяснила: «Было проведено много исследований, которые показывают, что обнаружение ИИ работает не очень хорошо. Есть множество инструментов, которые студенты могут использовать, чтобы проверить, будет ли их работа обнаружена, и они могут обмануть детектор. Было принято решение отключить его, потому что он неэффективен».
Преподаватель с 25-летним стажем добавила важное наблюдение: «Я знаю, как выглядит студенческое письмо. И это не то, что они сейчас сдают. Во многих случаях, когда у вас есть студенты первого курса, которые пишут лучше, чем я, — это проблема». Она также подтвердила, что профессиональное суждение преподавателя остаётся лучшим инструментом.
Университет Брока (Канада) пошёл ещё дальше: он вообще запретил преподавателям загружать студенческие работы в сторонние детекторы, поскольку это нарушает права на интеллектуальную собственность студентов.
Заключение к Главе 1.
Назад к человеку
Что делать с этой ситуацией? Университеты, которые отказались от детекторов, предлагают альтернативу: переход к процессным, а не результативным методам оценки. Проверка черновиков, история версий документа, устные защиты, обсуждения, аудиторные работы — вот что действительно работает.
Однако глубинная проблема остаётся. Была содданна технология, которая поощряет посредственность и наказывает за уникальность. Человечествт допустило, чтобы алгоритмы, обученные на усреднённых текстах из интернета, стали судьями в сфере, где как раз ценятся отклонения от нормы — в творчестве.
И можно признать, что современные детекторы ИИ — это инструмент, который в данный момент приносит больше вреда, чем пользы. Инструмент создаёт культ программы против человеческого, заставляя людей писать хуже, разрушает жизни несправедливыми обвинениями и подрывает сами основы доверия в образовании и творчестве.
«Ощущение, будто тебя наказывают за то, что ты пишешь слишком хорошо» — эта фраза китайской студентки должна стать эпиграфом к данному этапу в эпохе цифровой инквизиции.
Вместо того чтобы искать магическую кнопку «detect AI», нам нужно вернуться к человеческой оценке человеческих работ. Диалог, контекст, знание ученика или автора — это единственные надёжные детекторы. И если уж использовать алгоритмы, то только как вспомогательное средство, а не как решающий инструмент — с полным осознанием их ограничений и постоянной готовностью признать ошибку.
Иначе мы рискуем оказаться в мире, где Конституция — «слишком правильная», Библия — «слишком предсказуемая», а самый талантливый студент в классе — «подозрительный». Мир, который мы создаём своими руками, почему-то всё чаще напоминает антиутопию, где машины диктуют людям, как им следует писать, чтобы считаться людьми.
Знаю, что это было долго, но материала и выводов много. В этой главе затронуты ключевые моменты, которые будут раскрываться более детально и предметно.
Тем же, кто дочитал, хочу порекомендовать вашему вниманию мой последний рассказ: «Аутодафе нулевого цикла». Возможно, теперь вы увидете в нём заложенный смысл.
Благодарю за внимание.
Коммент для любителей минусов и плюсов