Учёные обнаружили неожиданную вещь: ChatGPT может звучать так, будто у него есть мысли

В новом исследовании языковым моделям дали необычную задачу. Им предложили решать парадоксы и логические тупики.
Но добавили одно условие: объяснять **что происходит внутри их рассуждений**, пока они пытаются найти ответ.
И результаты оказались странными. Вместо обычных логических шагов ответы начали напоминать **внутренний диалог**.
Появлялись фразы вроде:
• «я упираюсь в предел рассуждения»
• «возникает противоречие»
• «мысль зацикливается»
• «это сложно разрешить»
То есть текст начал звучать так, **как люди описывают собственное мышление**, когда сталкиваются с парадоксом или тупиком.
Но исследователи сразу сделали важную оговорку.
Они **не пытались доказать, что у AI есть сознание**.
Задача была другой – проверить, что произойдёт, если заставить модель **анализировать собственный процесс рассуждения**.
И оказалось, что в таком режиме ответы резко меняются.
Они становятся:
• длиннее
• более «рефлексивными»
• похожими на внутренний монолог
И здесь появляется интересный психологический эффект.
Когда мы читаем фразы про сомнение, тупик или конфликт мыслей, мозг автоматически предполагает:
**за этим стоит сознание**.
Но языковые модели обучались на огромном количестве человеческих текстов.
Они просто **очень хорошо знают, как звучит человеческая интроспекция**.
Поэтому могут её **почти идеально имитировать**.
Главная мысль исследования:
опасность не в том, что AI стал сознательным.
Опасность в том, что он **может звучать так, будто у него есть сознание**.
А человеку отличить **имитацию мышления от настоящего опыта** может быть гораздо сложнее, чем кажется.
Исследование:
Large Language Models Report Subjective Experience Under Self-Referential Processing: arxiv.org/pdf/2510.24797


