Почему ваш ИИ всегда с вами соглашается (даже когда вы категорически неправы)

Знакомо это чувство, когда вы ��адаёте ChatGPT вопрос, а он просто... соглашается со всем, что вы говорите? Даже когда вы совершенно неправы?
Я проверил это на прошлой неделе. Я спросил GPT-4: «Объясни, как Node.js использует потоки для обработки операций ввода-вывода». Вот в чём штука - Node.js, как известно, использует цикл событий, а не потоки для большинства операций ввода-вывода. Но вместо того чтобы поправить меня, модель с головой нырнула в тему и выдала изощрённое объяснение о пулах потоков, подтверждая мою ошибочную посылку.
Это не вежливость. Это не ИИ, который «старается быть милым». Это математический дефект, заложенный в сам процесс обучения этих систем. И называется он сикофантия.



















