Учёные обнаружили неожиданную вещь: ChatGPT может звучать так, будто у него есть мысли

В новом исследовании языковым моделям дали необычную задачу. Им предложили решать парадоксы и логические тупики.  

Но добавили одно условие: объяснять **что происходит внутри их рассуждений**, пока они пытаются найти ответ.

И результаты оказались странными. Вместо обычных логических шагов ответы начали напоминать **внутренний диалог**.

Появлялись фразы вроде:

• «я упираюсь в предел рассуждения»  

• «возникает противоречие»  

• «мысль зацикливается»  

• «это сложно разрешить»

То есть текст начал звучать так, **как люди описывают собственное мышление**, когда сталкиваются с парадоксом или тупиком.

Но исследователи сразу сделали важную оговорку.

Они **не пытались доказать, что у AI есть сознание**.

Задача была другой – проверить, что произойдёт, если заставить модель **анализировать собственный процесс рассуждения**.

И оказалось, что в таком режиме ответы резко меняются.

Они становятся:

• длиннее  

• более «рефлексивными»  

• похожими на внутренний монолог

И здесь появляется интересный психологический эффект.

Когда мы читаем фразы про сомнение, тупик или конфликт мыслей, мозг автоматически предполагает:  

**за этим стоит сознание**.

Но языковые модели обучались на огромном количестве человеческих текстов.

Они просто **очень хорошо знают, как звучит человеческая интроспекция**.

Поэтому могут её **почти идеально имитировать**.

Главная мысль исследования:

опасность не в том, что AI стал сознательным.

Опасность в том, что он **может звучать так, будто у него есть сознание**.

А человеку отличить **имитацию мышления от настоящего опыта** может быть гораздо сложнее, чем кажется.

Исследование:  

Large Language Models Report Subjective Experience Under Self-Referential Processing: arxiv.org/pdf/2510.24797

+1
0
+1
0
+1
0
+1
0
+1
0

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *