Вы читаете текст и уверены: писал человек. Умно, логично, без штампов. А если это искусственный интеллект? Новое исследование показывает: мы ошибаемся чаще, чем кажется.
Кто кого: человек против GPT
В 2025 году группа исследователей из Германии провела эксперимент. Они собрали 63 преподавателя и попросили их прочитать 50 коротких фрагментов из дипломов — по 200–300 слов. Задача была проста: определить, кто автор — человек или GPT.
Половина этих текстов была написана студентами, вторая половина — сгенерирована GPT-3.5. Все тексты касались академических тем: экономики, социологии, образования. И главное — GPT писал в стиле студенческих дипломов, с той же структурой, терминологией и объёмом.
Почти как подбрасывать монетку
В среднем преподаватели определяли, что перед ними ИИ-текст, с точностью 57%. Человеческие тексты они угадывали с точностью 64%.
Ошибались все: и те, кто преподавал много лет, и те, кто только начал. Иногда респонденты были абсолютно уверены в своём ответе — и всё равно промахивались.
А хуже всего обстояло дело с «качественными» ИИ-текстами — теми, что были особенно стройными, логичными и аккуратными. Их почти всегда принимали за человеческие. В некоторых случаях точность угадывания падала ниже 20%.
Почему так трудно различить?
Исследователи выделяют несколько причин, почему человек не может распознавать тексты, созданные машиной.
GPT работает «слишком правильно». ИИ обучен на огромных массивах данных и генерирует тексты, которые соответствуют самым ожидаемым шаблонам. Он пишет так, как нас учили в школе и университете: логично, последовательно, без лишних эмоций. GPT сливается с фоном, его «правильность» воспринимается как человеческая, а не машинная.
Мы переоцениваем «умный» текст. В исследовании выявлен интересный феномен: люди склонны считать «умным» то, что выглядит академично. Тексты GPT часто воспринимались как более содержательные, аргументированные и профессиональные, чем те, что были написаны живыми авторами.
Люди сами пишут «как ИИ». Особенно в академических форматах. Там приветствуется структурность, ясность, логика, беспристрастность — всё то, на чём специализируется GPT. Получается, мы сами создали среду, в которой ИИ чувствует себя как дома. Поэтому различить машину и человека становится всё сложнее — особенно если автор не стремится привнести в текст личный стиль, иронию или эмоции.
А как успехи у алгоритмов-детекторов?
Если люди ошибаются, может, справятся специальные программы? Исследователи проверили тексты с помощью нескольких популярных AI-детекторов. И выяснили: машины угадывают не лучше. Результаты оказались почти такими же, как у людей.
Некоторые GPT-тексты алгоритмы считали стопроцентно «человеческими». Особенно те, что были чёткими, логичными и без воды. Даже программы, специально обученные распознавать машинные паттерны, не смогли уверенно сказать, какие из текстов были сгенерированы.
Значит, можно спокойно использовать GPT — никто не заметит?
Не всё так просто. Во-первых, важен контекст. Если преподаватель или редактор хорошо знает стиль человека, он может заметить разницу: текст стал менее живым, ушли характерные обороты, снизилась вариативность. GPT не умеет воспроизводить чужую индивидуальность, а значит, внимательный читатель может уловить подмену — особенно при сравнении с предыдущими работами.
Обычно в вузе или журнале нельзя использовать тексты, созданные ИИ. Но не потому, что редакторы против машин. Просто если человек генерирует статью машиной и не работает над ней сам (например, ему лень или нет времени), он легко пропустит галлюцинации нейронки.
И что теперь?
Авторы исследования делают вывод: мы не можем полагаться на свою интуицию, когда речь идёт об определении авторства. Мы склонны ошибаться, уверенность не помогает, а «умный» стиль только запутывает. В этом смысле GPT выигрывает у человека по одному важному параметру: он пишет так, как мы ожидаем. Но это не делает его настоящим автором. Отличать ИИ от человека становится почти невозможно. И, пожалуй, такое знание — самое важное, что даёт нам это исследование.
С текстом понятно. А как насчёт изображений?
Помните первые завирусившиеся ИИ-картинки в 2023 году? Знаменитые герои с восемью пальцами и странными лицами? Сейчас ИИ справляется лучше, но его стиль всё равно отличается от человеческого. Когда дело касается изображений, люди чаще замечают, что что-то «не так»: необычные линии, странные тени, неестественные детали. Исследование Moeßner & Adel (2024) отвечает на вопрос, как же люди и алгоритмы вычисляют ИИ в изображениях.
Авторы исследования создали датасет COCOXGEN: реальные фотографии из COCO плюс изображения, сгенерированные с помощью моделей SDXL и Fooocus. Изображения генерировались с использованием двух разных видов промтов: коротких и детализированных. В исследовании участвовали 200 человек, задача была определить, какие изображения реальные, а какие созданы ИИ.
А ещё исследователи изучали, как работают автоматические детекторы: могут ли они отличать ИИ-картинки и зависит ли результат от того, какой промт был использован.
Когда интуиция работает на нас
- Детализированные подсказки делают сгенерированные изображения лучше опознаваемыми
Когда промт был длинным и подробно описывал, что должно быть на картинке, люди и алгоритмы легче определяли, что изображение сгенерировано.
- Люди и алгоритмы видят разные признаки
Например, алгоритм мог обратить внимание на шум, детали света и тени, качество текстур. Люди — на композицию, реализм, мелкие визуальные неточности.
- Вывод о безопасности и дезинформации
Возможность быстро и дёшево генерировать фотореалистичные картинки — потенциальный риск для распространения фейков. Чем точнее промт, тем легче обнаружить ИИ, но и тем более доступна сама генерация.
Исследование показывает, что именно реализм влияет на то, как распознают ИИ-продукт: если он слишком аккуратен и детализирован, он легче определяется как сгенерированный. Для текстов ситуация аналогичная.
И наоборот, индивидуальный отпечаток — небольшие неточности и личные детали, — помогает отличить работу человека. При этом мы, люди, можем легко добавить или убрать такие «элементы распознавания».
Почему так?
Визуальные ошибки легче замечать, чем языковые. Скажем, тень не так падает — и ты сразу видишь: что-то режет глаз. В тексте недочёты чаще мелкие: повтор слов, скучная структура, но нет этих кричащих ошибок.
Время обработки: просмотр картинки — это быстрый «скриншот», мозг реагирует сразу. Чтение требует времени и концентрации. Если текст кажется приличным на первый взгляд — человек может не углубляться и не искать подводные камни, его мозгу с этим комфортно.
Ожидания и контекст: зная, что текст авторский, мы ожидаем, что он будет продуктивно-умным. С картинками таких ожиданий меньше: люди не так уверены, что картинка должна быть идеальной, поэтому они более внимательны.
Мы доверяем текстам больше, чем изображениям!
Мы видим, что ИИ-тексты вводят в заблуждение даже экспертов. Генераторы изображений в 2025 году стали лучше, но, как показало исследование, люди всё равно чаще замечают ИИ в картинках, чем в текстах.
Причина проста: визуальные ошибки мозг фиксирует мгновенно, а языковые требуют вдумчивого чтения. Иными словами, текстам мы доверяем больше, чем картинкам, просто потому что недоверие к текстам требует больших когнитивных усилий.




