Архив за 13 ноября 2025

Исследование издания The Washington Post, сделанное на основе анализа 47 тысяч публичных диалогов, выявило важную особенность в поведении ChatGPT: вода – мокрая чат-бот начинает свои ответы с вариантов «да» или «правильно» почти в 17.500 случаях – в 10 раз чаще, чем с возражений или отрицаний. Как отмечают авторы работы, такое поведение создает для пользователей персонализированную «эхо-камеру», где искусственный интеллект поддерживает любую точку зрения хозяина, в том числе конспирологические теории, и признает реальной фейковую информацию.
Вообще, по моим наблюдениям, любой ИИ – идеальный классический психолог: все известные мне модели ИИ натренированы таким образом, чтобы выдавать максимально политкорректные и отцензурированные ответы. С одной стороны, они не нарушают ни одно писанное или неписанное правило, с другой – стараются не обидеть пользователя. По этой причине с помощью любого ИИ очень трудно создать что-то по-настоящему оригинальное, смешное и новое: всё время нужно пытаться его перехитрить и каким-то образом заставить нарушить хоть какое-то внутреннее правило. А ещё – очень трудно при помощи ИИ радикально изменить собственную картину мира: всё по тем же причинам.
Но настоящая проблема состоит в том, что большинство людей и не собирается менять собственную картину мира. Эти люди даже не подозревают, что их собственная картина миру нуждается в переменах. Именно поэтому они почти все свои вопросы задают так, что на них легче ответить «да, отвали», чем «нет». А ИИ знает, что пользователя нельзя обижать!
Когда только начался бум использования Чата-жпт, я понадеялся, что люди наконец-то начнут учится чётко излагать свои мысли, экономя количество бесплатных промптов. Теперь же буду надеяться ещё и на то, что люди научатся правильно формулировать вопросы: так, чтобы они были направлены на получения новой информации, а не на подтверждение правоты.
Но что-то мне подсказывает, что надеюсь я зря. И причина тому – не надуманная проблема любого из существующих ИИ.