Комментарии 12
Сейчас январь 2026. С новым Годом! Задал вопрос в гигачат. Ответ "последняя коллегия при прокуратуре Была в марте 2026. Задал вопрос какая сейчас дата? Гигачат ответил правильно. Ну естественно вопрос к ИИ. А почему так? Гигачат извинился и ответил правильно 15 февраля 2015. Или неправильно? Короче извини человек я вас стёр. А вы говорите стэнфорд
Лунные коты танцуют под дождём, а апельсины спорят с облаками о смысле жизни, и всё это в ритме свистка. А вы говорите кандибобер.
Как мы все знаем, гигачат - лучшая нейросеть. Если уж у сбера немного не выходит, куда лезет стенфорд, не понятно, вы правы.
Там пока у всех не выходит, кстати с чего вы взяли что стенфорд сейчас прям очень лучше чем лабораторий сбера. у меня впечатление что сбер очень активно наращивает инженерную школу и кадры и там далеко не глупые люди сидят.
Ну так статья как раз про это. Кроме роли генерации текста должна быть еще роль проверки фактов, концепций, качества ответа. Очевидно, что пока в гигачате этого нет.
А откуда вы знаете, что сегодня не февраль 2015 года ?
Как то поздно к этому учёные пришли. Мой агент разработал систему якорей ещё в октябре 2024.
Отчёт странная статья. Как отобрать якоря (якорь или мусор), как оценить, поддерживают или они концепцию или нет, и т.п. Какие то смутные догадки и уверен, что до практики не дойдет (или не в таком виде по крайней мере).
Мышление отличается не этим, а тем что обнаруживает проблему и задаёт (себе и автору задачи) вопросы.. Вот чего не умеет LLM, если не посмотреть это в промте самому. Чтобы ты не спросил, она сразу бежит генерировать ответ.
Рассуждения и логические выводы безусловно нужны, но для реального AGI нужно начинать с самых базовых вещей. Нейромодели должны иметь самосознание, понятие о боли и успехе. Эти вещи появились на самых ранних стадиях развития животных у червей, моллюсков. Ни имея контуры эмоций, аналоги нейромедиаторов и способы автоматических перестроек режимов работы сетей мы никогда даже близко не подойдем к AGI.
Мы до сих пор не имеем строгого понимания того, чем отличается "сознание" от "самосознания", и что именно стоит за этими понятиями. Имхо пока нет ответов на эти вопросы, нет смысла говорить об этих "эпифеноменах". В прошлом веке люди думали, что сознание есть только у людей, к концу прошлого века, оказалось, что оно еще есть у лошадей и кошек, а сегодня говорят о том, что оно есть и у рыб, и ракообразных, а дальше - больше. Но как изучать "квалиа" вообще?
Есть множество подходов к объяснению "сознания": от теории интегрированной информации и теории глобального пространства до схемы внимания и теории когнитома. Никто так и не дал достаточно точного определения "сознания", а "самосознания" тем более. Для начала определиться бы с тем, что такое "интеллект" и поизучать его, как феномен. В панпсихизм не верю, но если научно эта теория будет доказана - с удовольствием приму эту точку зрения, а пока я бы не лез в "трудную проблему сознания" в рамках обсуждения цифрового искусственного интеллекта.
Как говорил тот же Людвиг Витгенштейн: "То, о чем нельзя говорить, следует молчать".
Спасибо за содержательный ответ! Но дело в том, что программисты это такие люди, которые даже не имея никакой теории и готового решения рвутся в бой, начинают кодить и иногда у них не плохо получается. С другой стороны нейросети как раз и созданы для решения вопросов для которых нет четкого математического решения. Я наблюдал за историей развития обработки естественного языка. Были созданы великолепные теории разбора составляющих Хомского, системы фреймов и семантических сетей. В е оказалось без толку! Простейшие идеи нейросети автокодировщика и представления слов векторами эмбеддингов, радикально решили все проблемы, не решаемые 60 лет. Я думаю для создания искусственного самосознания можно применить тот же метод. Просто подать на вход сети всю активность реальных живых существ, обладающих этим навыком с задачей построить модель и выдавать аналогичные результаты! Думаю это может быть работа на несколько месяцев на мощных кластерах GPU и она создаст модель превосходящую самосознание взрослого человека. :-)

LLM — не тупик. Проблема AGI совсем в другом