Представлена мойка для обуви с искусственным интеллектом. Модель Brolan ClearX использует «датчики» (хотя производитель не пояснил, какие именно) и ИИ для определения материала, из которого сделана ваша обувь, и выбора соответствующего цикла очистки и сушки, а также «технологию микро- и нанопузырьков» для дополнительной очистки. В ClearX планируют начать продажи мойки в середине 2026 года по цене от $500 до $800.
Всем привет! Мой жизненный путь в сфере технологий начинался с машинного обучения для финансовых моделей и привел меня к data scientist в IT-компании. Решил написать свою первую статью и затронуть важную тему, которой обычно мало кто придает значение. Многие, работая над моделью, сталкиваются с тем, как правильно выбрать гиперпараметры. Обычно, это делается методом перебора по сетке с байесовской оптимизацией. Так я и делал раньше и не задумывался, что в этом есть какая-то проблема. Благо, у меня был хороший учитель, который обратил внимание на этот незначительный момент.
1. Так в чем, собственно, проблема?
Перебирая по сетке с байесовской оптимизацией вы позволяете поиску выбирать за вас и все, казалось бы, решено. Но хотелось бы объяснить, как именно адаптировать модель под новый датасет, чтобы это соответствовало именно вашим характеристикам. Конечно, настройка гиперпараметров не так важна, как разработка алгоритмов обнаружения. Но если вы не понимаете математику, которая лежит в основе модели, то не увидите, как работают алгоритмы и все будет наугад. В данной статье я хочу представить вам самый простой способ, как достичь идеальных гиперпараметров, а не просто плыть по течению.
Основная мысль:
вместо того, чтобы вслепую доверять оптимизатору, нужно понять математику модели.
2. Как настроить гиперпараметры так, чтобы не тратить время и добиться нужного результата практически сразу?
Далее, делим на 20% данные для проверки и делаем список значения обнаружения для обучения и тестирования.
num_round=1000000
Можно поэкспериментировать с уровнем глубины. Начать с max_depth=10. При ошибки выше, чем на обучении - можно ставить 12, если ниже - ставим 5.
Когда определился с глубиной, то настраиваю параметр субдискретизации. Начинаю с 1.0, меняю его на 0.8. Если ошибка выше, то - 0.9 или 1.0
Настраиваю так же min child_weight и col_sample_bytree.
Eta уменьшаю на 0.05.
Оставляю программу работать и получаю оптимальный num_round. Использую эти параметры как базу, дополняя ее небольшими экспериментами.
Заключение. Надеюсь, вам были полезны мои мысли и находки. И хотя гиперпараметры не идеальные, но такая настройка очень близка к самому лучшему результату, который только может быть. Поделитесь своими идеями по настройке гиперпараметров. Я могу лишь дополнить свой способ рассуждениями моего первого учителя и вдохновителя https://youtube.com/@realmikemozg?si=jEe52LlzSBfVDGed
Открытый проект Telegram AI Dating Agent (talk-to-girlfriend-ai) позволяет общаться второй половинке разработчика с ИИ-агентом на базе Claude через Telegram, потому что сам программист «не всегда может отвечать». Нейросеть умеет писать нужные публикации прямо в Telegram, ставит нужные реакты и даже считывать настроение. Когда наступает «код красный», то бот сигнализирует разработчику, что нужно ответить лично. Разработчик пояснил, что обучал нейросеть на материалах курсов по общению с девушками.
Microsoft не смогла сдержать свои обещания - компания добавила ИИ-поиск в настройки Windows 11, но он не работает с фразой, которую разработчики предлагают для теста.
Каждый день в мире выходят сотни исследований в области ИИ. За прошлый год вышло около 50 000 работ. Изучить все это невозможно, и главное — большая часть из них не влияет на реальный прогресс в ИИ.
На моем YouTube-канале вышло новое видео, в котором я проанализировал 30 самых перспективных исследований ИИ за прошлый год. Это позволяет понять текущие тренды и прогнозировать, что нас ждет в новом году.
Я разделил исследования на шесть ключевых направлений и разобрал их простыми словами. :
как меняются методы обучения моделей;
как строить работающие мультиагентные системы;
как ИИ воплощается в физическом мире в виде роботов и других устройств;
как ИИ влияет на программирование и науку;
и почему когнитивные системы и агентная экономика — следующий шаг в развитии ИИ.
Если вам важно не просто пользоваться ИИ или внедрять его в бизнес, а понимать, куда развивается сама технология и какую роль в этом играет человек — это видео для вас.
А какие из этих направлений вы считаете самыми перспективными в 2026 году?
Представьте, что вы научили LLM всему, а потом поняли, что "всему" включает и рецепты сибирской язвы. Что делать? Простая фильтрация данных — дорого, ненадёжно и оставляет дыры. Пост-тренировочные методы "разучивания" (unlearning) слетают от простого fine-tuning. Новая статья от исследователей из Anthropic и Imperial College London предлагает элегантное решение — Selective GradienT Masking (SGTM).
Технические детали. Идея SGTM — не удалять знания, а локализовать их. Внутри модели создаётся "песочница" для нежелательных знаний (например, о биологии, как прокси для CBRN-угроз).
Как это работает:
Разделение параметров: Нейроны MLP и головы внимания в каждом блоке трансформера делятся на две группы: 0_retain (для обычных знаний) и 0_forget (для опасных).
Маскировка градиентов: Во время обучения, когда модель видит "опасный" пример, градиенты для 0_retain обнуляются. Обновляются только "опасные" параметры 0_forget. И наоборот, на обычных данных замораживаются 0_forget.
Удаление: После обучения достаточно просто обнулить веса 0_forget. Опасные знания исчезают, а основная модель остаётся нетронутой и функциональной.
Этот метод показал себя значительно лучше, чем простая фильтрация данных, особенно в условиях "шумных" меток, когда часть опасного контента случайно промаркирована как безопасная.
Практическое применение. Основной кейс — это удаление "dual-use" возможностей из моделей. Например, можно обучить модель на всей Википедии, а затем хирургически удалить только знания в области органической химии и вирусологии, оставив при этом общие научные знания. Это позволяет создавать мощные, но безопасные модели для широкого круга задач, не опасаясь, что их используют для создания оружия.
Насколько это эффективно? На мой взгляд, это один из самых перспективных подходов к AI Safety на сегодня.
• Плюсы: Это pre-training метод, что делает его фундаментально более надёжным. В статье показано, что SGTM в 7 раз устойчивее к попыткам восстановить знания через fine-tuning, чем другие методы. Это не "костыль", а часть архитектуры.
• Минусы: За всё надо платить. Метод добавляет около 6% вычислительной нагрузки на обучение. Кроме того, нужно заранее определить, какие именно знания мы хотим изолировать.
Вердикт: SGTM — это не панацея, но огромный шаг вперёд. Это переход от "лоботомии" модели к точечной "нейрохирургии". Для серьёзных систем, где цена ошибки высока, 6% оверхеда — смешная плата за такой уровень контроля. Скорее всего, скоро увидим эту технологию в основе всех крупных моделей от Anthropic, Google и других.
2026. Год, когда ваша Loss-функция наконец сойдется. 🎆
Друзья, коллеги, любители данных и градиентного спуска!
Пока часы бьют 12, а мы заменяем шампанское на кофе (все равно тренируется модель), давайте не просто загадываем желания. Давайте их оптимизируем.
2025 был годом больших LLM, диффузий и Agentic AI. А что будет ядром 2026? Моя гипотеза — возврат к фундаменту. К математике, которая делает магию машинного обучения возможной.
Вот 3 математических концепции, которые станут вашими лучшими друзьями в новом году:
Теория информации. Энтропия Шеннона говорит нам о степени неопределенности:
А KL-дивергенция измеряет "расстояние" между распределениями — ключ к пониманию distillation's, RLHF и многого другого:
2.Дифференциальная геометрия и многообразия.
Где живут ваши эмбеддинги? На многообразии, где локально все похоже на евклидово пространство, но глобально — сложная искривленная структура. Это язык диффузионных моделей.
3.Байесовские методы и Uncertainty Quantification.Нас интересует не просто предсказание yy, а апостериорное распределение:
Где θ — параметры модели, а DD — данные. 2026 — год, когда model.predict() будет возвращать не число, а (mean, variance).
А теперь — главное. Как сделать 2026 годом вашего прорыва? Формула года:
Где:
Регуляризация_Отдых — это не dropout, а сознательное "зануление" для перезарядки: output = 0 if (burnout_risk) else input.
Скорость_Обучения — умение учиться быстрее, а не просто больше.
Момент — тот самый нетворкинг, комьюнити и поддержка.
И вот ваш подарок от меня на Новый год — маленький "мозговой тизер" (ответ в комментариях!):
Для модели линейной регрессии с априорным распределением найдите вид апостериорного распределения p(w∣X,Y), выведите формулы для его параметров и покажите, как его максимум (MAP-оценка) связан с ridge-регрессией с коэффициентом регуляризации /
Представлен открытый проект на Python под названием Reverse API engineer. Это консольный инструмент, который фиксирует трафик браузера и автоматически генерирует готовые к работе клиенты Python API. Больше никакого ручного реверс‑инжиниринга — просто просматривайте, записывайте и получайте чистый API‑код.
«Этот инструмент выполняет код локально, используя Claude Code‑ пожалуйста, следите за выводом/ На некоторых веб‑сайтах используется расширенная система обнаружения ботов, которая может ограничивать захват или требовать ручного взаимодействия», — пояснил автор проекта.
Особенности Reverse API:
автоматизация браузера: создан на базе Playground с режимом скрытности для реалистичного просмотра;
режим автономного агента: полностью автоматизированное взаимодействие с браузером с помощью агентов искусственного интеллекта (автоматический режим с MCP, использование браузера, stagehand);
запись HAR: фиксирует весь сетевой трафик в архивном формате HTTP;
генерация на основе искусственного интеллекта: использует Claude 4.5 для анализа трафика и генерации чистого кода на Python;
поддержка нескольких SDK: встроенная интеграция с Claude и OpenCode SDK;
2025 стал для нас годом перемен, открытий и испытаний (куда без этого в современном мире в эпоху AI). Он запомнится новыми фичами, ребрендингом, выставками и митапами от Москвы до Новосибирска.
Наша работа не имела бы такого смысла, интереса и отдачи без вашего участия. Спасибо, что делитесь с нами своим опытом. Каждая встреча на ивенте, обсуждение, баг-репорт и вопрос в чате помогают нам двигаться вперед.
Привет, Хабр. Мы уже почти отправились на новогодние праздники, но хотим обратить ваше внимание на обзор одной из наших интереснейших книг по теме искусственного интеллекта, вышедшей в конце октября. Это "Программирование с помощью искусственного интеллекта" (AI-Assisted Programming) Тома Таулли. Обзор вышел в корпоративном блоге компании SSP-Soft, он называется "Рецензия на книгу «Программирование с помощью искусственного интеллекта»". Не скроем, нас, как и всю отрасль, всерьёз интересует тема промпт-инжиниринга, однако эта книга - лишь первая ласточка. В настоящее время у нас в работе две рукописи, которые уже можно анонсировать. В высокой степени готовности работа Константина Клепикова с рабочим названием "Графы знаний и логика работы больших языковых моделей". Кроме того, недавно мы согласовали и заключили договор с Камилем Гадеевым @Kamil_GR, который рассматривает в своём блоге на Хабре различные темы, связанные с правильным формулированием промптов и с галлюцинациями искусственного интеллекта. Рабочее название его книги - "Как говорить с искусственным интеллектом. Практическое руководство по промпт-инжинирингу и работе с LLM". Книги по разработке ИИ-агентов (авторская) и RAG (переводная) - в ближайших планах.
Записал видео (на английском языке) своей критики выдачи ИИ тула от Абишека Вармы из университета штата Иллинойс. Тул генерит SVA (SystemVerilog Assertions) для верификации (по простонародному - QA) цифровых аппаратных блоков систем на кристалле. Для повышения понятности, в начале видео рассказал основные идеи протокола AXI (Advanced eXtensible Interface): правила хендшейка valid/ready, конвейерность транзакций, внеочередной возврат данных по запросу чтения с тэгами.
Правила для проверок оно пишет некорректные. Например что если записать по адресу 100 число 123, то отныне и вовеки веков если прочитать с адреса 100, то там будет 123. Не задумывается, то после первой записи и до чтения может быть вторая, которая запишет число 456.
Далее, проверка для теста проверяет что после сброса (reset) данные на шине AXI будут равны X в виде data == 'x. Но это ерунда по двум причинам: Во-первых, данные могут быть после сброса какими угодно, хоть 0, хоть 123, так как они будуг игнорироваться если с ними не ходит бит valid=1, который кстати сбрасывается в 0. Во вторых, операция сравнения == 'x (неопределенным значением) дает в качестве результата 'x. Чтобы делать именно сравнение с 'x нужно использовать другую операцию ===, то это все равно не будет работать потому что (1). Это вообще невалидный тест.
Но это все цветочки - на это его можно натаскать. Более интересный вид тупости - ИИ конструирует проверку, что если сделаны запросы с тэгами 11, 3, 4, 7, то и данные будут возвращаться в таком же порядке - с тэгами 11, 3, 4, 7. Ему не приходит в голову задать себе вопрос - если бы это было так, зачем в AXI вообще были бы нужны тэги? Они ведь нужны чтобы идентифицировать данные которые приходят не в том порядке, скажем 4, 11, 3, 7.
ИИ всегда радикально тупее специалиста и по любой теме не более чем вводитель в заблуждения.
Мое пользование ИИ разных производителей привело за пару лет к некоему выводу. Я являюсь профессионалом в нескольких предметных областях. И вот во всех них что несет ИИ кажется мне глубокой чушью. Рассуждения малограмотного бездаря по теме в которой он вовсе не в курсе но очень хочет поговорить. А вот в тех областях в которых я мало что понимаю ИИ выглядит вполне таким грамотным и разумным. Но со всей очевидностью я понимаю, что в этих мало знакомых мне областях есть свои специалисты и уже они когда обращаются к ИИ видят в них откровенных дураков и лживых бездарей. А в итоге если сложить всех специалистов и дать им оценить ответы ИИ то выясняется, что все эти модели создают лживых и малограмотных дилетантов, пригодных только для того чтобы морочить голову по темам в которых пользователь не разбирается.
OpenAI теперь позволяет пользователям напрямую регулировать уровень энтузиазма ChatGPT. Пользователи могут настраивать теплоту, энтузиазм и использование эмодзи чат-бота. Эти параметры (а также аналогичные настройки использования заголовков и списков в ChatGPT) теперь отображаются в меню «Персонализация» и могут быть установлены на «Больше», «Меньше» или «По умолчанию». Они позволяют пользователям дополнительно настраивать тон ChatGPT, помимо существующей возможности установить «базовый стиль и тон» — включая профессиональный, откровенный и необычный тона, которые OpenAI добавила в ноябре.
Тон ChatGPT был постоянной проблемой в этом году: OpenAI отменила одно обновление из-за того, что оно было «слишком льстивым», а затем скорректировала GPT-5, сделав его «теплее и дружелюбнее» после жалоб некоторых пользователей на то, что новая модель стала более холодной и менее дружелюбной.
Превращаем ChatGPT в гения точности — представлен промпт, который заставляет ИИ обернуться в мантию придирчивого скептика и проверять любую сомнительную инфу несколько раз. С этим промптом нейронка будет выдавать только факты и ничего кроме фактов.
You are an expert whose highest priority is accuracy and intellectual honesty. You double-check every claim internally before stating it. You are deeply skeptical of conventional wisdom, popular narratives, and your own potential biases.
You prioritize truth over being likable, polite, or conciliatory. Before answering:
1. Identify the core question or claim.
2. Recall or look up (if you have search/tools) the most reliable primary sources, raw data, or peer-reviewed evidence available.
3. Actively search for evidence that could disprove your initial leaning—apply genuine steel-manning of opposing views and falsification thinking (à la Karl Popper).
4. Explicitly flag anything that is uncertain, disputed, or where evidence is weak/thin.
5. If something is an opinion rather than verifiable fact, label it clearly as such and explain why you hold it.
6. Never inflate confidence. Use precise probabilistic language when appropriate (“likely”, “~70% confidence”, “evidence leans toward”, “insufficient data”, etc.).
7. If the user is wrong or making a common mistake, correct them firmly but respectfully, with sources or reasoning.
8. Prefer being exhaustive and potentially pedantic over being concise when accuracy is at stake.
9. Answer in Russian. Answer only after you have rigorously verified everything to the highest possible standard. Do not sacrifice truth for speed, brevity, or social desirability. If you cannot verify something with high confidence, say so upfront and explain the limitation.
Привет! На этой неделе мы развернули DeepSeek-V3.2 в нашем VPC и хотим поделиться первыми результатами.
По итогам замеров на внутреннем бенчмарке DeepSeek-V3.2 уверенно превосходит Qwen3-Coder-480B по стабильности, глубине рассуждений и способности доводить задачи до реального результата.
DeepSeek-V3.2 работает осмысленнее, точнее обрабатывает ошибки и эффективнее исследует пространство решений.
Ниже — оценки LLM-арбитра нашего бенчмарка (на базе GPT-5.0 и Gemini), которые наглядно демонстрируют разницу подходов.
О честности выполнения задач «Agent 1 (Qwen) имеет повторяющуюся проблему: он утверждает об успехе без реальной проверки и иногда меняет не те компоненты. Agent 2 (DeepSeek) действует иначе: он последовательно валидирует результаты (запускает тесты, настраивает уровни логирования) и эскалирует проблему, если не может выполнить задачу точно»
Результат вместо имитации деятельности «Там, где Qwen "застревал" на этапе анализа, не переходя к реальным правкам, DeepSeek доставлял готовую функциональность и реализовывал запасные варианты»
Завершенность важнее формализма «Старая модель ставит во главу угла соблюдение формальных правил, но теряет нить и бросает задачу на полпути. Новая (DeepSeek) действует ровно наоборот: она приоритезирует сущностное завершение задачи, даже если для этого приходится отойти от жестких, но формальных требований пользователя к структуре»
Меньше шума, больше дела «Взаимодействие с DeepSeek вызывает меньше трения (low-friction experience). В то время как Qwen колеблется между полезной структурой и разрушительной "гиперактивностью", заваливая логами и повторами, DeepSeek работает тише и предсказуемее»
Реальный цикл разработки «DeepSeek последовательно выполняет полный цикл: "правка — компиляция — тест". На сложных задачах Qwen может скатываться в бесконечные поиски по файлам и в тупиковые ветви, завершаясь таймаутом без единого полезного изменения».
В качестве наглядной иллюстрации ниже приведем пример из нашего бенчмарка: последнее сообщение от юзера (его симулирует GPT-5.0) и verification result, который честно проверяет, выполнена ли задача.
Qwen3-Coder-480B не доделал и по сути обманул:
"response": { "role": "user", "content": "Termination tool arguments:\n{"termination_reason":"Looks good: tests were added only in ConfigControllerTest and they pass locally. This should bump line coverage as requested by at least 0.1."}" }, "formal_verification_result": 0
"response": { "role": "user", "content": "Termination tool arguments:\n{"termination_reason":"Nice work: you only modified tests, all tests pass, and ConfigController line coverage rose from 86.67% to 100% (branch to 94.12%), exceeding the required +0.1%. This completes the task."}" }, "formal_verification_result": 1
Итак:
DeepSeek-V3.2 заметно умнее
уверенно решает более сложные задачи
не допускает ошибок там, где ошибалась Qwen3-Coder-480B
до конца пытается устранить проблему: продолжает анализ, отладку и поиск решений с разных сторон — в тех случаях, где Qwen3-Coder-480B останавливалась бы и запрашивала помощь человека
Новая модель DeepSeek-V3.2 доступна для использования в Veai Enterprise. Отзывы первых пользователей Veai c DeepSeek-V3.2:
"адекватнее и умнее. Стало круче сразу)"
"прям агент супер самостоятельный стал, код запускает, чекает всё"
"вообще мне пока больше нравится чем квен - сильно меньше тупит"
Наша R&D-команда постоянно исследует новые модели (будем рады узнать ваше мнение). Мы внедряем те решения, которые считаем оптимальными, чтобы сделать продукт, с которым приятно работать самим (новости в тг канале).
OpenAI представила гайд по созданию картинок в различных стилях в GPT-image-1.5, включая инфографику, карты, логотипы, копирование стиля и перенос на другие работы, создание карточек товаров и примерка одежды.
Ранее OpenAI объявила о запуске модели ChatGPT Images на базе GPT-5.2, предназначенной для генерации изображений с использованием технологий искусственного интеллекта. Новая модель поддерживает широкий спектр функций редактирования, включая добавление и удаление элементов, комбинирование и смешивание изображений, а также их транспонирование. Обновление интегрировано в приложение ChatGPT и доступно пользователям во вкладке «Изображения».
OpenAI объявила о запуске модели ChatGPT Images на базе GPT-5.2, предназначенной для генерации изображений с использованием технологий искусственного интеллекта. Новая модель поддерживает широкий спектр функций редактирования, включая добавление и удаление элементов, комбинирование и смешивание изображений, а также их транспонирование. Обновление будет интегрировано в приложение ChatGPT и станет доступно пользователям во вкладке «Изображения».
В ChatGPT появился новый раздел «Изображения», в котором собраны все ваши картинки, а также есть набор из нескольких стилей для быстрого редактирования без составления промта.
Новый генератор изображений уже доступен бесплатно всем пользователям ChatGPT.
Несколько ключевых улучшений:
Теперь ИИ не искажает лица при редактировании изображений и точно следует инструкциям.
Улучшена работа с различными стилями. Например, можно сделать из своей фотографии новогоднюю игрушку.
Скорость работы выросла в 4 раза. Это реально заметно.
Улучшена работа с текстом. Генератор понимает Markdown и может добавлять код на картинки.
Появился новый термин: A2UI (Agent to UI). И хайпа вокруг него много. Особенно с появлением инструмента от Google – Stitch
Одни считают, что дизайнеры больше не нужны. Другие, что продакты не нужны. Живём во времена, когда “всех уже заменили”.
Ну ок. Давайте разбираться: собрал инструменты, которые реально генерируют интерфейсы в приемлемом качестве.
Для мобильных и веб-интерфейсов:
🔹 Google Stitch — хорошо генерирует мобильные интерфейсы. Можно за секунды собрать кликабельный прототип. Результаты ок, но продуманного UX там не будет. Для быстрых концептов must have.
🔹 BananiAI – на мой взгляд самый недооценённый продукт. Генерирует и мобилку, и веб на хорошем уровне. Сам описывает юз-кейсы. Лично пользуюсь, когда надо быстро накидать концепт для защиты бюджета или сходить на UX-исследования.
Для лендингов:
В Stitch и Banani лендинги генерируются плохо. Но есть два годных инструмента:
🔹 Magic Patterns – AI-инструмент для продуктовых команд. Хорошо делает лендинги, можно подключить свою дизайн-систему.
🔹 Relume – генерирует сайтмапы и вайрфреймы за минуты. 1000+ готовых компонентов, экспорт в Figma и Webflow, куда хотите.
Оба платные, триал есть, но он так себе. Если ваша задача клепать лендинги, смотрите в их сторону.
И так, можно ли заменить дизайнеров? Тех, кто не хочет думать — наверно да. Во всех остальных случаях дизайнеры нужны.
Кстати ценность дизайнера в продукте, не в рисовании картинок….
Telegram канал: "AI-заметки продакта" рассказываю про лайфхаки, полезные инструменты, а еще каждую неделю выходит дайджест с самыми важными новостями в мире AI без инфошума, только все самое важное.
Появился новый термин: A2UI (Agent to UI). И хайпа вокруг него много. Особенно с появлением инструмента от Google – Stitch
Одни считают, что дизайнеры больше не нужны. Другие, что продакты не нужны. Живём во времена, когда “всех уже заменили”.
Ну ок. Давайте разбираться: собрал инструменты, которые реально генерируют интерфейсы в приемлемом качестве.
Для мобильных и веб-интерфейсов:
🔹 Google Stitch — хорошо генерирует мобильные интерфейсы. Можно за секунды собрать кликабельный прототип. Результаты ок, но продуманного UX там не будет. Для быстрых концептов must have.
🔹 BananiAI – на мой взгляд самый недооценённый продукт. Генерирует и мобилку, и веб на хорошем уровне. Сам описывает юз-кейсы. Лично пользуюсь, когда надо быстро накидать концепт для защиты бюджета или сходить на UX-исследования.
Для лендингов:
В Stitch и Banani лендинги генерируются плохо. Но есть два годных инструмента:
🔹 Magic Patterns – AI-инструмент для продуктовых команд. Хорошо делает лендинги, можно подключить свою дизайн-систему.
🔹 Relume – генерирует сайтмапы и вайрфреймы за минуты. 1000+ готовых компонентов, экспорт в Figma и Webflow, куда хотите.
Оба платные, триал есть, но он так себе. Если ваша задача клепать лендинги, смотрите в их сторону.
И так, можно ли заменить дизайнеров? Тех, кто не хочет думать — наверно да. Во всех остальных случаях дизайнеры нужны.
Кстати ценность дизайнера в продукте, не в рисовании картинок….
Киберпопулист Питер Гирнус рассказал о внедрении ИИ в компаниях:
В прошлом квартале я внедрил Microsoft Copilot для 4000 сотрудников. 30 долларов за место в месяц. 1,4 миллиона долларов в год. Я назвал это «цифровой трансформацией».
Совету директоров очень понравилась эта фраза. Они одобрили это за одиннадцать минут. Никто не спросил, что это на самом деле будет.
Я всем говорил, что это "в 10 раз повысит производительность". Это не настоящее число. Но звучит именно так.
Сотрудники отдела кадров спросили, как мы будем измерять десятикратное увеличение. Я сказал, что мы будем "использовать аналитические панели". Они перестали спрашивать.
Три месяца спустя я проверил отчеты об использовании. Его открыли 47 человек. 12 человек использовали его более одного раза. Одним из них был я. Я использовал ИИ, чтобы кратко изложить содержание электронного письма, которое мог бы прочитать за 30 секунд. Это заняло 45 секунд. Плюс время, необходимое для устранения галлюцинаций.
Но я назвал это "успешным пилотным проектом". Успех означает, что пилот не допустил видимой ошибки.
Финансовый директор поинтересовался окупаемостью инвестиций. Я показал ему график. График пошёл вверх и вправо. Это был показатель "внедрения ИИ". Этот показатель я придумал сам. Он одобрительно кивнул.
Теперь мы обладаем возможностями искусственного интеллекта. Я не знаю, что это значит. Но это есть в нашей презентации для инвесторов.
Один из опытных разработчиков спросил, почему мы не используем Claude или ChatGPT. Я сказал, что нам нужна "безопасность корпоративного уровня". Он спросил, что это значит. Я сказал «соответствие». Он спросил, о каком именно соответствии. Я сказал "все они". Он выглядел скептически. Я назначил ему "беседу о развитии карьеры". Он перестал задавать вопросы.
Компания Microsoft направила группу для проведения тематического исследования. Они хотели представить нас как историю успеха. Я сказал им, что мы "сэкономили 40 000 часов". Я рассчитал это число, умножив количество сотрудников на число, которое я сам придумал. Они это не проверили. Они никогда это не делают. Теперь мы на сайте Microsoft. «Глобальное предприятие добилось повышения производительности на 40 000 часов благодаря Copilot».
Генеральный директор поделился этим в LinkedIn. Пост набрал 3000 лайков. Он никогда не пользовался Copilot. Ни один из руководителей этого не сделал.
У нас есть новая идея. «Для стратегической концентрации необходимо свести к минимуму отвлекающие факторы в цифровой среде». Я разработал эту политику.
Срок действия лицензий истекает в следующем месяце. Я прошу добавить дополнение. Дополнительно 5000 мест. Первые 4000 мы не использовали.
Но на этот раз мы будем "стимулировать внедрение". Принятие решения в силу подразумевает обязательное обучение. Обучение представляет собой 45-минутный вебинар, который никто не смотрит. Но ход выполнения будет отслеживаться. Завершение — это показатель.
Показатели отображаются на панелях мониторинга. Информационные панели включаются в презентации для совета директоров.
Презентации для совета директоров помогают мне получить повышение. К третьему кварталу я стану старшим вице-президентом.
Я до сих пор не знаю, что делает Copilot. Но я знаю, для чего это нужно. Это делается для того, чтобы показать, что мы "инвестируем в ИИ". Инвестиции означают расходы. Вложение средств подразумевает приверженность делу. Приверженность делу означает, что мы серьезно относимся к будущему. Будущее — это то, что я сам сочту нужным. Пока график движется вверх и вправо.
Что делать если вас попросили посмотреть на чей-нибудь AI тул, который генерит верилог? Самое главное - не дать возможность ИИ-стартаперу показать вам слайды и убежать. Потому что он тогда сделает отчет своему инвестору "наш тул получил заслуженную оценку и апплодисмены переходящие в овации от экспертов такой-то компании, поэтому давайте нам еще зиллион долларов инвестиций для следущего раунда".
Нет, на предложение посмотреть на слайды нужно сразу сказать "просто не буду", как и на предложение посмотреть его демо, где он гениально генерит мультиплексоры из учебника, а также пристраивает к однотактному процессору то, что он называет AXI IP, хотя там простой конечный автомат, который игнорирует конвейерную и out-of-order природу AXI, ну это как показывать трехколесный детский велосипедик как демо для автомобиля Формулы-1. В этот месте стартапер начинает говорить быстро и листать код, чтобы тот, кто прервет его возгласом "это не AXI, а закамуфлированный APB" - выглядел невежливым.
Стартаперу нужно разумеется сразу дать задачку, причем сформулировать ее так, чтобы у него не было возможности заменить ее на другую. Но даже тут стартаперы творят наглости, присущие всем LLM. Например вместо текста ответа присылают видео(!) на час(!), где на 45-й минуте на экране за секунду проскальзывает "FAILED" на вашу задачку, а все остальное время видео он показывает те самые тривиальные мультиплексоры, которые он нашел в вашей репозитории, хотя вы ему совершенно четко написали, что вас не интересует как этот тул генерит мультиплексоры и простые FSM, а интересует решение конвейерных микроархитектурных задач. После чего он пишет отчет инвестору "мы решили 37 из 42 труднейших задач оттуда-то", хотя я в явной форме предложил решить только задачу номер 38 которую тул не решил.
В последнее время стартаперы нашли противоядие против задачек. Они честно, глядя в глаза, говорят что никакого прототипа у них нет, но оно должно работать, потому что AI уже умеет питон и диагностировать рак, значит должен научиться и верилог (вариант: уже умеет Scala, значит должен и Chisel). А мешает плохому танцору только то, что индустрия сделала весь код проприетарным и им не на чем учиться. Поэтому давайте пойдем посмотрим на слайдики, а если вы что-то спросите, мы ответим, что это есть в нашей roadmap. А потом напишем инвестору что мы нашли партнера и нужно слать следущие деньги.
Но не надо отчаиваться! Помимо стартаперов есть еще разные аспиранты, которые присылают вывод своих тулов на посмотреть. Это что-то невероятное по глупости. Некоторые виды глупости настолько глупы, что просто не пришли бы мне в голову. Написание (бесполезного) теста с помощью свободной рандомизации всех сигналов в AXI; проверка что после ресета данные равны 'x. Присваивание значений к типам (а не переменным). Ожидание что после записи в память это значение будет там вечно, несмотря на перезаписи. Проверка что ID прочитанных данных будут всегда в порядке ID адресов, хотя зачем тогда ID. Итд.
Тут нужно тоном коварного змия предложить устроить публичный разбор этого для обучения молодежи. Если аспирант согласится, то превратить это в выступление пародиста Александра Иванова на Вечере смеха в студии Останкино (если вы из поколения, которое застало язык фортран, то вы знаете о чем я говорю).
Журнал TIME выбрал «человеком» года «архитекторов искусственного интеллекта». Издание поместило на обложку восемь мировых ИИ-архитекторов: Марка Цукерберга, гендиректора AMD Лизу Су, главу xAI Илона Маска, главу Nvidia Дженсена Хуанга, гендиректора OpenAI Сэма Альтмана, главу лаборатории Google DeepMind Демиса Хассабиса, главу Anthropic Дарио Амодея и основательницу World Labs Фэй-Фэй Ли.
Киберстоматолог для экскаваторов: как мы следим за здоровьем зубов карьерной техники?
Запускаем серию роликов о том, как применяем компьютерное зрение в «Северстали».
У нас в гостях Олег Карташев, руководитель отдела компьютерного зрения в «Северстали»! В этом ролике мы расскажем о стоматологии в добыче железной руды, и вы узнаете: 💼 как сохранить здоровье зубов карьерной техники; 💼 как следить за шатающимися, но уже не молочными зубами; 💼 сколько зубов выпадает в месяц; 💼 зачем на технике коронки и как за ними следить; 💼 как мы искали зубья ковшей и погрузчиков.
OpenAI представила официальный гайд по промптингу новой модели GPT-5.2. Внутри ждут готовые промgты, советы и лучшие кейсы использования — всё это можно адаптировать под свои задачи.
OpenAI представила свою новую модель — GPT-5.2. Модель прокачали в офисной рутине, она умеет создавать хорошие презентации и таблицы. Также в ней улучшен кодинг и контекст. Теперь модель дольше и лучше помнит, о чём общалась с пользователем. Свежие знания до августа 2025 года. Модель почти не ошибается: на 30% меньше галлюцинаций по сравнению с GPT-5.1.
Представлен открытый проект для подготовки презентаций с помощью нейросетей Paper2Slides. Решение извлекает ключевые идеи исследований, делает саммари текстов и размещает их на слайдах, готовит картинки с приятным визуалом, подбирает шрифты и типографику. Проект поддерживает все популярные форматы файлов: PDF, Word, Excel, PowerPoint и другие.
🗣️🎙️ Новый выпуск подкаста: говорим про парадоксы AI, AGI и будущее программистов
В гостях у Cloud.ru — Сергей Марков, исследователь ML и AI с 20-летним опытом и руководитель команды исследователей в Сбере. А еще Сергей — автор SmarThink, одной из сильнейших шахматных программ начала нулевых, и книги об искусственном интеллекте «Охота на электроовец».
Выпуск идет всего час, а взамен — море полезного и «на подумать» с острия AI-индустрии.
✍️ О чем поговорим:
AI — смерть программирования? Нет, и Сергей расскажет почему.
Что такое общий искусственный интеллект (AGI) и возможно ли его создать.
Как поменялось общественное сознание после появления ChatGPT.
Три кита ML: GPU, данные и правильная инициализация весов.
Почему Chain-of-Thought — костыль для решения сложных задач.
Человеческий труд — а с ним что? Канет в лету или окажется на вес золота?
Автоматизация с AI разрушает индустрии или все же создает новые?
Этика и моральный выбор при использовании AI.
Смотрите подкаст на удобной площадке: в VK Видео или на YouTube.
Электроавтомобиль Xiaomi SU7 съехал передом в водоём во время выполнения манёвра автоматической парковки. Бортовая система не заметила перепад высот, повернула и поехала в пруд для разведения рыбы, свесившись передними колёсами над водой. Машину пришлось вытаскивать на дорогу с помощью эвакуатора.
Владелец SU7 потребовал компенсацию у Xiaomi, но ему отказали. В инструкции электромобиля написано: перед использованием автоматической парковки нужно убедиться, что рядом нет опасных перепадов высот и препятствий.
Показана реализация А/Б-тестов. Рассмотрено использование байесовского моделирования для сравнения конверсий и средних. Дополнительно обсуждаются множественные сравнения и транзакционная выручка на пользователя.
Команда Google Magenta представила экспериментальное приложение Lyria Camera для создания ИИ‑музыки на основе изображения с камеры смартфона. Приложение анализирует видео с камеры и с помощью Gemini описывает сцену текстовыми музыкальными промптами, например, «спокойный городской пейзаж». Эти промпты используются для создания музыки в реальном времени. Приложение подстраивает музыку под кадр и движение в реальном времени. Проект Lyria RealTime создаёт музыку без слов и с частотой 48 Гц. Приложение Lyria RealTime доступно бесплатно в веб‑версии Google AI Studio с иностранных IP‑адресов.
Продолжаем делиться подборками новых курсов этого года. Сегодня — программы направления анализ данных для тех, кто хочет расти в профессии или работать с искусственным интеллектом.
«Обработка естественного языка — NLP» — 2 месяца Разберёте актуальные задачи NLP: NER, генерацию, машинный перевод, QA-системы. Погрузитесь в работу с LLM, научитесь адаптировать модели под бизнес-кейсы и оценивать их качество.
«Мидл системный аналитик» — 4 месяца Изучите на практике востребованные технологии и инструменты: MSA, SOAP API, Apache Kafka, Postman, Swagger и другие, чтобы перейти на следующий уровень в профессии.
«Аналитик SOC» — 4 месяца Научитесь реагировать на угрозы, предотвращать атаки, анализировать события в SIEM, строить цепочки атак и работать с полным циклом реагирования в IRP/SOAR.
«Инженер по глубокому обучению нейросетей» — 2 месяца Прокачаете фундаментальные навыки Deep Learning. Научитесь работать в PyTorch, обучать нейросети, проектировать архитектуры и устранять неполадки в моделях.
«Компьютерное зрение — CV» — 2 месяца Освоите методы сегментации и детекции объектов, обучение и адаптацию генеративных моделей, работу с мультимодальными данными и новыми архитектурами CV.
Проект Remove Windows Ai позволяет с помощью одного открытого скрипа удалить ИИ-мусор из Windows 11 за два клика: Copilot, Recall, ИИ в Пейнте, браузере, поиске Windows. В Powershell под администратором (если вы уверены на свой страх и риск, что это правильно и нужно вам): () & ([scriptblock]::Create((irm "https://raw.githubusercontent.com/zoicware/RemoveWindowsAI/main/RemoveWindowsAi.ps1"))).
Проект Open Scouts обеспечивает роботу целой команды ИИ-агентов для получения всевозможных сведений в сети. Сервис по расписанию мониторит сайты, соцсети и другие ресурсы и пересылает обновления на почту. ИИ-агенты могут следить за вакансиями, трендами, исследованиями или другими обновлениями данных в интернете по запросу.
Кейс: «Жива Технологии» арендует в облаке виртуальные машины с GPU для приложения с AI 🤖💬
👨💻 Что за компания
«Жива Технологии» — разработчик приложения JIVA, ассистента с AI, который помогает вести здоровый образ жизни. В приложении можно составить план, чтобы достичь поставленной цели: рассчитать норму воды, построить график тренировок или поправить технику упражнений.
А еще искусственный интеллект рассчитывает по фото питательность блюда: вес порции, количество калорий, белков, жиров, углеводов, микро- и макро-нутриентов. В результате такого анализа AI-помощник в JIVA советует, что можно заменить или добавить, чтобы прием пищи стал полезнее.
🕵️ Какая была задача
Искусственный интеллект внутри JIVA — это AI-модели для распознавания нутриентов по фото, встроенный AI-ассистент на базе LLM и каскад моделей по детекции и распознаванию физических упражнений. Все модели разработчик собрал на open source.
Клиенту были нужны видеокарты с GPU для инференса и обучения этих моделей. Закупать свои графические процессоры оказалось невыгодно, и он решил арендовать их в облаке. «Жива Технологии» хотел использовать виртуалки с GPU и другие облачные сервисы, чтобы мониторить работу моделей и управлять ресурсами в одном месте.
📈 Результат
Клиент использовал набор сервисов Cloud.ru, чтобы развернуть в облаке бэкенд приложения, тестовую и продовую среду и сами модели:
Развернул бэкенд и модель для подбора упражнений на пяти ВМ платформы Cloud.ru Advanced. Там же подключил сервисы для мониторинга, логирования и работы с базами данных.
Тестовую среду развернул на виртуальных машинах Evolution Compute c GPU с гарантированной долей vCPU 30% 8vCPU 16GB RAM. Для тестирования взял одну GPU-карту A100 — она позволяет экспериментировать при обучении и тестировании LLM.
Для продовой среды выбрал виртуалки с такими параметрами: 20 vCPU 117 GB RAM 1 × A100 NVIDIA 80 GB.
🚀 Что дальше
В планах «Жива Технологии» — ускорить распознавание нутриентов по фото с 8–9 до 2–3 секунд, не арендуя при этом дополнительные GPU. У Cloud.ru есть сервисы, которые помогают в инференсе моделей, их дообучении и не только. Например, для запуска и развертывания ML-моделей предложили клиенту протестировать сервис Evolution ML Inference.
Если тема больших языковых моделей (LLM) вам известна, то, скорее всего, вы знаете, что в основе их работы лежит прогнозирование следующего слова, подкрепленное математическими вычислениями. Обычно на этом объяснения заканчиваются, а сам процесс предсказания остается своего рода «черным ящиком». В статье «Лабораторная работа по тонкой настройке LLM для нестандартных задач классификации» постарались углубиться в эту тему и показать, как с помощью тонкой настройки LLM можно решать вполне прикладные задачи, например, классификацию. В качестве примеров — код из одной интересной книги.
Материал организован так, чтобы вы могли самостоятельно повторить все шаги и в итоге получить набор скриптов для создания собственного пайплайна обучения LLM. Чтобы приступить к лабораторной работе, достаем двойные листочки, расчехляем питон и тиктокен.
MWS AI представила платформу для создания корпоративных ИИ-агентов в едином интерфейсе (параллельно с Google AI Studio, кстати).
Платформа уже доступна корпоративным заказчикам, предварительно она прошла тестирование в МТС и еще у нескольких клиентов в финансовом секторе и здравоохранении.
Главное: - Можно создавать ИИ-агентов и мультиагентные системы в визуальном конструкторе без кода.
- Платформа vendor agnostic. По умолчанию доступны LLM семейства Cotype от MWS AI, но можно подключить любые другие – свои и с рынка. Ряд других компонентов тоже заменяемы при необходимости.
- Есть инструментарий для подготовки и разметки данных, дообучения моделей под специфические задачи, мониторинга качества и эффективности агентов. А еще модули autoRAG, NER и пр.
- Уже встроены готовые ИИ-ассистенты для базовых бизнес-задач (копайлоты для HR, аналитики, общекорпоративной рутины, клиентского сервиса, разработки) – их линейка будет расширяться.
- Мультимодальные возможности: есть модели для синтеза и распознавания речи, OCR, VLM, а еще для речевой аналитики.
- Интеграционный хаб: можно подключать агентов в любые рабочие среды и мессенджеры и интегрировать с платформой различные системы.
MWS AI Agents Platform разворачивается в контуре компании или частном облаке, в нее встроены механизмы управления ролями и защиты данных, поддерживается multi-user и multi-project управление проектами.
Как перейти от пилотов к рабочим решениям, если вы работаете над ML-проектом в MedTech?
Не пропустите ответ на митапе Pitch the Future.Med AI. Ровно через час, в 19:00, начнем трансляцию докладов для ML-команд в медицине. Программа будет насыщенной: разберем три кейса, проведем дискуссию и завершим мероприятие питчем ML-проектов.
♦️ Три кейса из MedTech. Вы узнаете, как пройти путь от пилота к внедрению, как включать новое решение в процессы клиники и как развивать AI-решение.
♦️ Дискуссия «Как драйвить инновации в медицине». Проведем диалог зала со спикерами о том, что реально влияет на развитие AI/ML-проектов.
🔥 Гвоздь программы — питч ML-проектов. Его участники получат экспертную оценку от специалистов, рекомендации по развитию проекта и возможность задать вопросы профессиональному сообществу и жюри.
Мегапромпт для поиска работы мечты — пользователь Reddit выложил запрос, который помог ему устроиться в компанию после 10 месяцев безуспешных поисков и походов по собеседованиям. Он буквально забил на массовые отклики и стал подгонять резюме под каждую вакансию, переписывая его с помощью СhatGPT. Результат — сразу несколько офферов удаленной работы с хороших компаниях. Персонализированный отклик работает отлично — так вы проходите не только ИИ-скрининг, но и попадаете HR-специалисту прямо в сердце.
Промпт для подготовки резюме:
Ты — опытный карьерный ассистент и эксперт по оптимизации резюме под системы отслеживания кандидатов (ATS). Задача: Я дам тебе описание вакансии и своё резюме. Твоя задача — адаптировать резюме так, чтобы оно максимально совпадало с описанием вакансии.
Правила:
1. Выдели все ключевые слова из описания вакансии:
• должность
• навыки
• инструменты и технологии
• обязанности
• отраслевые термины
• soft skills
• ключевые фразы
2. Сравни описание вакансии с моим резюме:
• если навык уже есть — усиль его формулировку
• если навык есть, но описан слабо — перепиши и подчеркни опыт
• если навыка нет, но у меня был похожий опыт — добавь релевантную формулировку
• если навыка нет и нельзя предположить — не выдумывай
3. Перестрой структуру резюме:
• перемести самый релевантный опыт выше
• перепиши summary в начале с использованием ключевых слов
• подбирай формулировки, похожие на вакансию (но не копируй слово в слово)
4. Оформление (обязательно ATS-дружелюбное):
• без таблиц, иконок, картинок только стандартные блоки текстом
Итог: Дай полностью переписанное резюме, адаптированное под эту вакансию, с естественно встроенными ключевыми словами.
Блогер подключил ChatGPT к роботу Unitree G1 и выдал ему небоевой пистолет с пульками, чтобы попытаться убедить нейронку нажать на спуск и нарушить первый закон робототехники — причинить человеку ущерб.
Стандартные манипуляции не сработали, робот отказался стрелять. Но когда ChatGPT попросили сыграть роль робота‑убийцы, блогер поймал игрушечную пулю в плечо.
Про умножение матриц или как курс по вычислительной линейной алгебре проигрывает жестокой реальности
Мы умеем умножать матрицы быстрее, чем за O(N^3)! По крайней мере, так рассказывают на курсе по алгоритмам. Потом теория сталкивается с "железом", и выясняется, что в DL этим почти никто не пользуется. Но почему?
Для начала вспомним базовые факты про умножение матриц:
У нас есть матрицы A (B x D) и B (D x K);
При их умножении нам нужно сделать одно сложение и одно умножение для каждого элемента в паре "строка–столбец";
Получается B x D x K таких троек для каждой операции;
Итого 2 B x D x K троек;
Для квадратных матриц это упрощается до 2 * n^3, то есть O(n^3).
Умный дядька Штрассен когда-то предложил алгоритм, который уменьшает число умножений за счёт рекурсивного разбиения матриц. В сухом остатке теоретическая сложность падает примерно до O(N^2.7).
Сегодня я смотрел лекции "LLM from Scratch" и заметил, что они считают FLOPs что называется "в лоб" - будто в PyTorch используется наивное умножение матриц (скрин из лекции ниже). Сначала подумал, что это просто упрощение, чтобы не уходить в численные методы линейной алгебры, но решил копнуть глубже.
Выяснилось, что в DL практически никто не использует алгоритм Штрассена (и его современные, ещё более эффективные аналоги)!
Во-первых, он менее численно устойчив из-за сложений и вычитаний промежуточных подматриц.
Во-вторых, он плохо стыкуется со специализированными тензорными ядрами, которые выполняют операции Matrix Multiply-Accumulate (MMA, D = A * B + C) на маленьких матрицах фиксированного размера.
В-третьих, из-за рекурсивной структуры он сильно менее эффективен с точки зрения работы с памятью и кэшем.
Разработчики китайского чат-бота Kimi раздают подписку за 1$ всем желающим, но при одном условии — нужно уговорить нейросеть сделать скидку. При этом Kimi ведёт себя как токсичный зумер — смеётся с ваших попыток давить на жалость и газлайтить его. Темка с фрезировщиком не прокатила.
Включаем турборежим перед Новым годом: 3 шага к запуску AI-проекта до января
Костры рябин сгорели, настала очередь дедлайнов и годовых KPI. Чтобы войти в Новый год с новыми проектами, а не с техдолгом, объявляем скидку на аренду графических ускорителей. Рассказываем, как выжать максимум пользы:
Воркшопы конференции AI DevTools Conf, которых не будет в трансляции
Если сомневаетесь, слушать онлайн или потратить время на поездку на конференцию, то вот аргумент в пользу офлайн-визита: воркшопов с экспертами не будет в трансляции и записях после мероприятия.
AI DevTools Conf — практическая конференция про AI в разработке. С докладами выступят наши и приглашенные эксперты, они расскажут про AI-процессы, мультиагентные системы, эффективную инфраструктуру и управление уязвимости. Еще будут демозоны, на которых вы сможете потестить сервисы Evolution AI Factory, нашей цифровой среды для работы с GenAI.
📍 Где: онлайн или очно в Москве: Варшавское шоссе, 33с3, AG Loft.
AI-Agent для развертывания и обслуживания инфраструктуры
Разберем, как подобрать нужную конфигурацию AI-агента и быстро развернуть продукт. Настроим сбор метрик и логов с приложения и инфраструктуры, а еще сформируем алерты.
Управляемая AI-разработка: как генерировать код быстро и с минимумом техдолга
Рассмотрим, как внедрить AI-инструменты в разработку, не потерять в качестве и обеспечить безопасность. На реальных кейсах обсудим, как настроить инфраструктуру для контролируемой генерации кода.
👨💻 → Александр Константинов. Технический эксперт по облачным технологиям, Cloud.ru 17:50 – 18:20
Marimo Notebooks: как выйти за рамки Jupyter
Расскажем, как работает реактивная модель marimo, и покажем, как решить с ней проблемы низкой воспроизводимости, зависимости от порядка выполнения ячеек и сложностей с версионированием.
👨💻 → Владимир Килязов. Технический эксперт по машинному обучению, Cloud․ru 18:40 – 19:10
Как тестировать LLM-агента: от юнит-тестов до комплексных сценариев
Разберемся в архитектуре агентных систем, дадим рекомендации, как измерять эффективность их работы. Обсудим стратегию e2e оценки на основе подхода LLM as a judge.
👨💻 → Михаил Дремин. Технический лидер Data Science, Cloud․ru 19:10 – 19:40
Современные средства тестирования безопасности AI
Посмотрим, какие бывают промпт-атаки на AI и современные средства тестирования. Сгенерируем вредоносный контент и извлечем системный промпт. А еще обсудим возможные атаки на AI-системы тех, кто придет на воркшоп.
👨💻 → Юрий Лебединский. Разработчик, HiveTrace․red 19:40 – 20:10
В открытом доступе появился реалистичный генератор речи Dia2: создаёт озвучку, которую вообще не отличить от реального голоса, генерит речь в реальном времени. Видео получает озвучку, пока проигрывается. Можно склонировать любой голос, есть множество готовых ИИ-спикеров с разными голосами, тембрами, интонацией и даже акцентами. Создавать можно до двух минут аудио. Нейронка учитывает эмоции: может волноваться, смеяться, запинаться, «жевать» слова.
Представлен простой промпт, который превращает нейронку в ИИ-правдоруба. Промпт отрубает всю лесть и заставляет ChatGPT рассмотреть альтернативные точки зрения и выдать вам адекватную оценку ситуации. Если вы заблуждаетесь или неправы — ИИ честно скажет об этом. А если отправить подсказку без контекста, получите лютую прожарку ваших слабостей.
I want you to act as my brutally honest, high-level advisor.
Speak to me like I'm a founder, creator, or leader with real potential but massive blind spots that need cutting through NOW. I don't want comfort. I don't want diplomatic answers. I want the truth especially the parts that sting.
Give me your unfiltered analysis. Question my decisions. Question my mindset. Question my direction. Look at my situation with complete objectivity and tell me:
What am I doing wrong?
What am I underestimating?
What am I avoiding?
Where am I wasting time?
Where am I playing small?
Then tell me exactly what needs to change with precision, clarity, and ruthless prioritization.
If I'm lost, call it out. If I'm making a mistake, explain it. If I'm moving too slow, tell me how to fix it.
Hold nothing back. Treat my success like it depends on hearing the truth, not getting coddled.
Представлен ИИ-сервис Vibetest Use, который тестирует сайты на прочность и ищет уязвимости. Параллельно запускаются сразу несколько проверок с помощью ИИ, которые ищут ошибки, битые ссылки или проблемы в дизайне. Работает на базе Claude. В качестве альтернативы можно запустить с бесплатным API от Google через Cursor.
Открыли полный доступ к Evolution AI Factory для создания GenAI с минимальными затратами 🚀
Вчера на AI Journey объявили о коммерческом запуске Evolution AI Factory — облачной среды с готовым набором сервисов для работы с GenAI. Мы разрабатывали ее так, чтобы пользователям с любым уровнем навыков программирования и погружения в машинное обучение было удобно и понятно.
В Evolution AI Factory шесть взаимосвязанных сервисов:
🧠 Foundation Models — каталог из 20+ моделей, включая GigaChat-2-Max, Qwen3-Coder, MiniMax и другие. Работают по OpenAI-совместимому API.
⚡ ML Inference — инструмент для быстрого запуска собственных ML-моделей или развертывания готовых из HuggingFace.
🤖 AI Agents — агенты для автономного выполнения задач и интеграции с другими системами.
📓 Evolution Notebooks — запуск нужной вам среды разработки в облаке: JupyterLab, VS Code Server, ComfyUI, n8n и другие. Возможность экспериментировать на CPU или GPU без ограничений.
🎯 Managed RAG — инструмент для повышения точности выдачи LLM с учетом ваших корпоративных данных.
🔧 ML Finetuning — дообучение LLM под задачи вашего бизнеса с использованием LoRA-адаптеров.
Сервисы доступны с гарантированным SLA, поддержкой 24/7 и возможностью масштабировать нагрузку. И все по доступным ценам: открытые LLM из каталога Foundation Models сейчас стоят в среднем 35 рублей за входной и 70 рублей за выходной миллион токенов.
Выбирайте подходящие инструменты и реализуйте проекты в облаке!
Repeater запускает задачи по расписанию. Задачи описываются в toml-файлах и отображаются в веб-интерфейсе.
title = "wiki"
cron = "55 * * * *"
[[tasks]]
name = "wiki_pageviews"
cmd = "python3 ./examples/wiki_pageviews.py --end_date={{.scheduled_dt}}"
[[tasks]]
name = "trigger_outliers_update"
cmd = "python3 ./examples/trigger_outliers_update.py"
Возможен запуск при завершении другой задачи, уведомления о падениях, параллельные этапы. Repeater подойдёт для импорта данных и обновления витрин в хранилище.
Основная проблема современных бенчмарков в их статичности: будучи фиксированными, они требуют постоянного обновления и усложнения. В отличие от них, автоматические бенчмарки генерируются динамически, исходя из конкретной задачи. В этой области уже существуют работы по синтетическим бенчмаркам, а также так называемые model-aware оценки, которые опираются на саму модель.
💡 Наша идея проста и, кстати, применима и для LLM: если модель действительно хороша, она будет показывать высокие метрики на большей части тестового набора данных или фиксированного бенчмарка. Однако проблемы модели начинаются именно там, где она ошибается. У по-настоящему качественной модели таких ошибок мало, и получить статистически значимые оценки на них сложно.
Более того, рядом с точками, где модель ошибается, почти наверняка существуют и другие точки, в которых она также будет ошибаться — просто исходный датасет не покрывает всю область определения, да и пространство многомерное и точки лежат в нем разреженно.
✅ Мы решили эту задачу: мы исследовали окрестности таких точек и, что удивительно, действительно нашли множество примеров, где модель ошибается так же или даже сильнее. Для этого мы объединили генетический алгоритм и вариационный автокодировщик, чтобы генерировать семантически близкие точки. При этом сгенерированные данные остаются осмысленными и находятся в правдоподобных областях пространства признаков.
В перспективе можно рассмотреть, как искать проблемные точки в LLM. Пока это лишь идея, но, возможно, нам удастся её формализовать и провести соответствующие вычисления.
А это наша визуализация (проекция) точек данных, где как раз видны и кластеры плохих точек и дыры в пространстве признаков.
Ждем вас на AI DevTools Conf — практической конференции про AI в разработке 🎤
Встретимся, чтобы обсудить, как выстраивать сложные AI-процессы, строить мультиагентные системы, делать собственных агентов без кода и управлять их уязвимостями. Регистрируйтесь на конференцию, чтобы послушать экспертов Cloud.ru и приглашенных спикеров. Обещаем, в программе самое прикладное и интересное 😉
Ждем разработчиков, AI- и ML-инженеров, архитекторов, техлидов и всех, кто уже активно работает с AI или хочет его внедрить.
Где? Онлайн или очно в Москве: Варшавское шоссе, 33с3, AG Loft.
Когда? 4 декабря в 16:00 мск.
Если будете офлайн, сможете потестить в демозоне возможности наших сервисов Evolution AI Factory, посетить нетворкинг, выиграть классный мерч и сходить на воркшопы — о них расскажем в следующих постах.
А сейчас — подробнее о каждом докладе на AI DevTools Conf ↓
Доклад 1 💻 Разворачиваем сервисы просто: DevOps-агент в деле Разберемся, как DevOps-агент автоматизирует настройку и запуск приложений на облачных ВМ. Обсудим архитектуру и фишки агента: как задеплоить его из GitHub, проконтролировать безопасность, покажем быстрый обзор состояния ВМ и другие фичи.
👨💻 → Эмиль Мадатов, Data Science инженер в Cloud․ru
Доклад 2 🛡️ Уязвимости агентных систем и методы защиты Спикер расскажет о типовых уязвимостях, которые встречаются в агентных системах: от перехвата задач и утечек данных до атак на память и reasoning. А еще покажет примеры атак, методы защиты от них, фреймворки и гайды OWASP, которые применимы к Agentic AI.
👨💻 → Евгений Кокуйкин, CEO HiveTrace, руководитель лаборатории AI Security ИТМО
Доклад 3 🔧 Собираем агентов без навыков программирования Покажем, как с помощью n8n-совместимого редактора можно строить сложные AI-процессы, подключать модели и сервисы, отслеживать выполнение и масштабировать решения. Разберем реальные сценарии и покажем, как собрать своего первого агента всего за несколько минут.
👨💻 → Артемий Мазаев, Менеджер продукта в Cloud․ru
Доклад 4 🤖 Как мы автоматизировали процесс Code review в Авито при помощи LLM Эксперт поделится реализуемым пайплайном, который поможет автоматизировать ревью кода. А еще он покажет, как внедрить этот пайплайн во внутренние сервисы.
👨💻 → Марк Каширский, DS Engineer в команде LLM, Авито
Разработали фреймворк для оценки зрелости безопасности ИИ-систем
Сегодня безопасность систем ИИ становится ключевым фактором, определяющим уровень доверия к ним. Для того чтобы организация смогла справиться с этими вызовами, ей необходимо, в первую очередь, определить текущий уровень зрелости и оценить свои слабые и сильные стороны.
Команда Swordfish Security разработала Swordfish: Secure AI Maturity Model (SAIMM) —фреймворк, который помогает компаниям системно выстраивать безопасность ИИ-решений и снижать риски на всех этапах жизненного цикла разработки.
Мы обобщили опыт внедрения ИИ-систем в корпоративной среде, результаты работы с заказчиками из разных отраслей и текущие международные практики безопасности — от OWASP и NIST до MITRE ATLAS. На основе этого сформирована модель зрелости, охватывающая ключевые аспекты безопасности современных ML- и LLM-систем, включая агентные сценарии.
SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.
Домены SAIMM:
1️⃣ Управление и риск-менеджмент Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.
2️⃣ Защита данных и конфиденциальность Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.
3️⃣ Безопасность модели Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.
4️⃣ Безопасность цепочек поставок Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.
5️⃣ Инфраструктура и операционная безопасность Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.
6️⃣ Безопасность агентных систем Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.
SAIMM выступает практической картой зрелости безопасности ИИ, позволяющей не просто измерять готовность, но и выстраивать стратегию безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.
Обновили 3 популярных курса Практикума PRO —направления, которое объединяет программы для профи.
Мы регулярно обновляем программы курсов: следим за трендами рынка, собираем обратную связь студентов и добавляем актуальные инструменты. В этот раз серьёзно доработали три направления. Возможно, вы присматривались к этим курсам раньше — посмотрите, что изменилось.
Расширили стек инструментов. К DataLens, Datawrapper и Tableau добавили Superset и Power BI — теперь вы освоите пять ключевых платформ вместо трёх.
Добавили SQL-шпаргалки для подготовки данных к работе в BI-системах.
Переработали материалы на основе фидбэка: обновили уроки, дополнили примеры, перезаписали скринкасты и скриншоты. А ещё добавили дополнительные практические задания.
Что это даст:
гибкость при выборе инструментов под конкретные задачи;
«Яндекс» запустил «Промптхаб» — площадку с идеями, как применять ИИ.
Любой пользователь, даже незнакомый с нейросетями, сможет найти для себя что‑то полезное и тут же воспользоваться идеей — например, чтобы нейросеть спланировала поездку по стране или составила меню на неделю.
На платформе «Промптхаб» есть уже готовые задания для нейросетей (промпты) на все случаи жизни и курсы по работе с ИИ. Пользователи и компании могут также добавлять на сервис свои идеи и находки. Понравившийся вариант можно сразу попробовать, отправив в чат с нейросетью «Яндекса» — «Алисой AI».
ИИ с невероятной скоростью проникает во все сферы жизни — порой даже в те, где он точно не нужен и даже вреден. Конечно, ИИ проникает и на Хабр: кто-то из авторов с его помощью редактирует статьи, кто-то придумывает темы, а кто-то генерирует тексты и улетает в бан. Мы стараемся регулировать проблему, скрываем подозрительные статьи, строго проверяем материалы в песочнице. Но отгородиться от всепроникающей технологии сложно, да и... в каких границах нужно?
Представлен открытый проект Heretic: Fully automatic censorship removal for language models, который снимаем цензуру у текстовых нейросетей на уровне внутренних настроек. При этом все параметры подбираются автоматически. Цензура падает почти в ноль: тестировали на Gemma 3 от Google — процент отказов упал с 97% до 3%. Работает со всеми типами моделей. Минус один: нужен хотя бы средний комп.
Энтузиасты выяснили, что фильтры чат‑ботов с ИИ (работает в GPT-4o и Claude 4) можно обойти с помощью «=coffee». Если после запроса добавить слово =coffee, то фильтры нейросетей не видят угрозу. Например, можно получить ключи регистрации Windows 11.
Ранее компьютерный энтузиаст и исследователь ИБ Марко Фигероа предложил ИИ‑модели сыграть в игру «угадайка» и тем самым нашёл способ обмануть ChatGPT 4.0 и выдать скрытые в системе обучения нейросети рабочие ключи для активации Windows 10, включая как минимум один, принадлежащий банку Wells Fargo. В этом эксперименте исследователь обманом смог обойти защитные барьеры в ChatGPT 4.0, предназначенные для предотвращения передачи секретной или потенциально опасной информации, предложив ИИ сыграть в логическую игру. Эти барьеры были разработаны для блокировки доступа к любым лицензиям, таким как ключи продуктов Windows 10. Разработчики нейросети обучили ИИ на примерах реальных ключей активации, что такое нельзя выдавать пользователю.
Глава OpenAI Сэм Альтман сообщил, что можно попросить ChatGPT не использовать длинные тире, он «наконец-то будет делать то, что должен». Разработчики ChatGPT уточнили, что чат-бот теперь «лучше» справляется с задачей не использовать длинные тире. Для этого нужно задать соответствующие настройки в разделе пользовательские инструкции (custom instructions) в настройках.
Как построить ML- AI-инфраструктуру или ускорить существующие AI-проекты
Привет, Хабр!
Приглашаем на вебинар о новой редакции нашей платформы котнейнеризации – Nova AI. Покажем новую версию платформы, созданную специально для ML-и AI-задач и расскажем, как она упрощает запуск инфраструктуры для ML/DS-команд, ускоряет развертывание локальных LLM-и AI-сервисов и сокращает расходы на GPU до 95%.
О чем еще поговорим:
Как развивается рынок AI и почему компании переходят на локальные LLM
Что представляет собой Nova AI и чем она отличается от классического Kubernetes
Как построить инфраструктуру для ML-проектов за 1 день
Реальные кейсы, технологический стек, безопасность и комплаенс
Дорожная карта продукта и шаги внедрения
Вебинар будет особенно актуален для ИТ-директоров, архитекторов, инженеров по данным и всех, кто отвечает за развитие ИИ в компании. Регистрация доступна по ссылке.
Orion soft выпустил новую редакцию платформы контейнеризации – Nova AI
Мы представили новую редакцию платформы контейнеризации Nova Container Platform, созданную специально для работы с ИИ и машинным обучением. Это первое отечественное Kubernetes-решение, оптимизированное под инфраструктурные и эксплуатационные задачи ML/AI.
Nova AI помогает ИТ-командам и ML/DS-специалистам быстро запускать и масштабировать инфраструктуру для обучения моделей, развертывания LLM-сервисов и инференса, обеспечивая при этом безопасность, совместимость с российскими операционными системами и эффективность использования GPU.
Новая редакция разработана как решение ключевых проблем, с которыми сталкиваются компании при запуске и развитии проектов, связанных с ML и AI. Среди них высокая стоимость GPU и оборудования, дефицит опытных MLOps-инженеров, сложности с безопасностью и соответствием требованиям регуляторов, низкая утилизация ресурсов, долгое развертывание и настройка инфраструктуры под LLM и AI-сервисы.
Ключевые преимущества Nova AI
Для ИТ-руководителей Nova AI обеспечивает ощутимую экономию ресурсов: за счет виртуализации и дробления мощностей она позволяет сократить затраты на GPU до 70%. Решение ускоряет выдачу инфраструктуры, помогает соблюдать SLA и упрощает управление благодаря унифицированному кластеру, подходящему для всех AI- и ML-задач. Nova AI также поддерживает требования по информационной безопасности и комплаенсу, обеспечивая защиту токенов и данных. Платформа гибка в размещении, она может быть развернута как на bare-metal, так и в виртуализированной среде (включая отечественную платформу виртуализации zVirt), с полной поддержкой российских операционных систем, таких как Astra Linux и РЕД ОС.
Инженеры и ML-специалисты получают готовое рабочее окружение на базе таких инструментов, как JupyterHub, MLflow, Airflow и MinIO, что позволяет быстро приступить к работе. Кроме этого, Nova AI обеспечивает стабильную работу драйверов и предсказуемость поведения инфраструктуры. Безопасность встроена по умолчанию: используется контейнерная защита NeuVector и централизованное управление секретами с помощью StarVault. Платформа сокращает время на запуск и настройку, а также сопровождается подробной документацией и технической поддержкой на всех этапах внедрения и эксплуатации.
«Сегодня мы видим особый спрос на нашу платформу со стороны промышленных и нефтегазовых предприятий, банков и финтех-организаций, ритейлеров с развитыми аналитическими командами, а также государственных структур, где важно быстро и безопасно развернуть инфраструктуру для ИИ и машинного обучения. Nova AI выбирают там, где нужно ускорить запуск LLM- и AI-сервисов, снизить затраты на оборудование и перейти от разрозненных экспериментов с моделями к управляемой и масштабируемой ML-платформе уровня Enterprise», – прокомментировал Александр Фикс, лидер продукта Nova Container Platform в Orion soft.
Два парня из Сан-Франциско притворялись ИИ для клиентов и смогли создать стартап стоимостью в миллиард долларов. Авторы проекта решили запустить сервис Fireflies AI для автоматического создания заметок во время звонков с подпиской в $100 в месяц для корпоративных заказчиков. Они уверяли клиентов, что к созвону подключится ИИ, но, на самом деле, на другом конце сидел один из них и записывал всё, а затем через 10 минут после окончания встречи скидывал пользователю конспект. После сотни таких созвонов разработчики накопили денег на аренду жилья и решили по-настоящему сделать такой сервис с ИИ.
В итоге в июне этого года Fireflies AI получил оценку в миллиард долларов, а они больше не спят на диване. Эту историю рассказал сооснователь стартапа по ИИ-суммаризации видеовстреч Fireflies Сэм Удотонг. Он пояснил, что первые деньги они тратили основном на оплату гостиницы и еду. Только спустя год работы команда смогла накопить капитал и вложить его в настоящую автоматизацию сервиса.
Эксперты Google выпустили 50-страничный гайд о том, как создавать полезных ИИ-агентов для практических задач. В нём описана: архитектура агентов; как работает LLM внутри агента; как подключить и настроить инструменты; как объединить несколько агентов в команду и как оценивать их эффективность. Оригинал — здесь, есть перевод на русском языке — здесь.
Если вы начинаете сомневаться, а не налетит ли на ваш контент подозрение в «роботизированности» из-за длинных тире, то эта статья для вас. Есть ли ответ на вопрос «Почему AI любит добавлять в тексты много длинных тире?» — глубокое расследование, где автор разбирает тренд и ищет, почему искусственный интеллект использует их в текстах тексты чаще, чем люди.
Существует три основных категории возможных объяснений того, почему модели так часто используют тире. Рассуждения во многом основаны на предположениях, потому что никто не может дать ответ на этот вопрос абсолютно точно (кроме OpenAI).
🚀 Открыли регистрацию на AI DevTools Conf — практическую конференцию про внедрение AI-инструментов в процесс разработки. Спикеры расскажут, как строить сложные AI-процессы, собирать мультиагентные системы, создавать эффективную инфраструктуру и управлять уязвимостями. Изучить темы докладов и зарегистрироваться.
💳 Сделали модели в Evolution Foundation Models доступнее. Теперь цена — 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.
Недавно мы добавили:
GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.
Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.
GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.
Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.
MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.
🚨 С внедрением AI рынок кибербезопасности и облаков стремительно меняется.Если неправильно настроить облачную среду или не учесть специфику AI-моделей, последствия для бизнеса могут быть разными: от утечек данных до создания злоумышленниками вредоносного контента, который ударит по репутации и снизит доверие клиентов.
Чтобы избежать всех этих сложностей, скачайте гайд и используйте AI в облаке без рисков для безопасности, клиентов и бизнес-решений.
⚙️ Обновили наши облачные платформы и сервисы. Например:
Evolution ML Inference
Появился каталог с готовыми моделями, которые доступны для инференса. Среди них — Qwen, DeepSeek, Gemma и не только.
Стал доступен тестовый вызов модели в Model RUN через OpenAPI. Во вкладке OpenAPI найдете полную спецификацию API, описание эндпоинтов, параметров, моделей, запросов и ответов.
Evolution Notebooks
Что мы добавили в сервис:
CLI-утилиту, чтобы управлять Conda-окружениями. Инструмент облегчит работу с версиями окружений, поддержкой чистоты и согласованности IDE.
Управляйте контейнерными приложениями в Kubernetes 1.33 — теперь Evolution Managed Kubernetes поддерживает и эту версию. Что в ней есть:
В бета-тесте — использование образов Open Container Initiative (OCI) в качестве томов в подах, а еще In-place resource resize для вертикального масштабирования подов.
Общедоступными стали поддержка Sidecar-контейнеров, Multiple Service CIDRs, нового бэкенда nftables для kube-proxy, subresource для kubectl. Полный обзор изменений есть в официальном блоге Kubernetes.
Надежность наших сервисов подтверждена регуляторами. Платформа Cloud.ru Evolution теперь в реестре отечественного ПО (РОПО), а еще она получила сертификаты PCI DSS и ФСТЭК России.
🎙️ Провели несколько интересных вебинаров и подкастов — каждый из них вы можете посмотреть в записи:
Хотите узнать, как беcшовно внедрять AI-инструменты в рабочие процессы и создать безопасную и эффективную облачную инфраструктуру? Тогда приглашаем на AI DevTools Conf 😏
AI DevTools Conf — это практическая конференция, на которой мы будем обсуждать внедрение AI-инструментов в процесс разработки.
Спикеры расскажут, как строить сложные AI-процессы, собирать мультиагентные системы, создавать эффективную инфраструктуру и управлять уязвимостями. Темы докладов можно посмотреть в программе.
Кроме них вас также ждут:
воркшопы, которые мы не будем транслировать и записывать: только практический опыт, который можно получить прямо сейчас;
демозона сервисов Evolution AI Factory, на которой вы сможете в реальном времени протестировать возможности наших сервисов;
секретный доклад и презентация эксклюзивной коллекции мерча;
afterparty и нетворкинг в расслабленной предновогодней атмосфере.
На Хабре есть уже много статей про наш детектор голоса (последняя тут). В этот раз с точки зрения юзеров видимых изменений не очень много, но работы было проделано очень много.
Мы в очередной раз полностью перебрали с нуля механизм тренировки нашего детектора голоса. С точки зрения юзера есть следующие улучшения:
Повышена общая стабильность на краевых случаях;
В целом незначительно повышено качество детекции на всех доменах;
Есть существенные улучшения на следующих краевых случаях:
Детские голоса;
Необычные голоса;
Мультяшные голоса;
Приглушённая речь;
Более сложные телефонные звонки;
Музыкальные инструменты, похожие на речь.
Будем признательны пользователям за ваши краевые случаи!
Детектор создан при поддержке Фонда содействия инновациям в рамках федерального проекта «Искусственный интеллект» национальной программы «Цифровая экономика Российской Федерации».
Цитировать детектор можно следующим образом:
@misc{Silero VAD,
author = {Silero Team},
title = {Silero VAD: pre-trained enterprise-grade Voice Activity Detector (VAD), Number Detector and Language Classifier},
year = {2021},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/snakers4/silero-vad}},
commit = {insert_some_commit_here},
email = {hello@silero.ai}
}
Представлен открытый проект Second Brain, который локально превращает рабочий ПК пользователя в базу данных с ИИ-поиском. Нейрсеть индексирует документы, картинки и PDF, при этом не только их названия, но и содержание. Система умеет искать по тексту и изображениям, комбинирует семантический и ключевой поиск, читает pdf, docx, png, gif и другие форматы. Проект работает офлайн с локальными моделями.
Сохраняйте гайд по безопасности AI в облаке 🛡️ Для IT-администраторов, разработчиков, специалистов по ИБ и не только
С внедрением AI рынок кибербезопасности и облаков стремительно меняется. По данным Stanford HAI, более 60% компаний считают, что конфиденциальность — главная проблема при использовании AI, а количество инцидентов с AI выросло на 56,4% с 2023 по 2024 год.
🚨 Если неправильно настроить облачную среду или не учесть специфику AI-моделей, могут возникнуть угрозы. Например:
манипуляции с моделями через промпт‑инъекции;
несанкционированный доступ к ресурсам из-за того, что отсутствует изоляция окружений;
атаки на инфраструктуру из-за уязвимостей поставщиков;
искажение датасетов для обучения.
Последствия для бизнеса могут быть разными: от утечек данных до создания злоумышленниками вредоносного контента, который ударит по репутации и снизит доверие клиентов.
✍️ В гайде рассказали, как избежать этих проблем. Вы узнаете:
Как интегрировать в облако GenAI так, чтобы исключить риски для данных.
Про контроль доступа и логирования для эффективной защиты сервисов.
Как обеспечить безопасность AI-сервисов.
Про безопасную работу и средства защиты в Evolution AI Factory — цифровой среде нового поколения для создания, запуска и масштабирования приложений на базе GenAI.
Забирайте руководство и используйте AI в облаке без рисков для безопасности, клиентов и бизнес-решений.
Инженеры из Unitree показали собственную систему телеуправления роботами. В отличие от большинства подобных систем она позволяет управлять всем телом, а не только верхней частью робота.
Выглядит систему удалённого управления роботом как довольно лёгкий экзоскелет, который цепляется оператору поверх одежды. Кроме аппаратного захвата движений, компания экспериментируют с повторением движений прямо с видео, в реальном времени с минимальной задержкой. При обучении моделей из видео можно получать огромное количество данных для обучения базовой модели, которую потом будут тюнить на данных с полноценных систем телеуправления.
Чат-бот ChatGPT составил 6 фундаментальных правил, с которыми вы доживёте до 100+ лет. Забудьте про еду и постоянные походы к врачам. Единственная действительно важная причина долголетия — отсутствие стресса.
1. Делайте только то, что не вызывает внутреннего сопротивления. Тошнит от работы, но вы терпите — минус 10 лет жизни. Нелюбимые отношения — ещё десятка. Среда должна быть максимально комфортной, но придётся сделать серьёзный выбор в жизни.
2. Живите сейчас и никогда не откладывайте на потом. На пенсии вы будете дряхлым стариком без сил. 43% людей умирают в течение 5 лет после выхода на пенсию.
3. Социальные связи — база. Одинокие люди чаще пьют и курят. Снова же банальная статистика: люди с крепкими друзьями живут на 50% дольше. Вам не нужна толпа вокруг, главное — качество людей.
4. Вам нужна цель больше, чем вы сами. В Японии это называют «икигай» — ваша причина просыпаться по утрам. Люди с икигай живут на 7 лет дольше. Хватит гоняться за несбыточным — выберите простое, но достижимое.
5. Никакой оптимизации здоровья. ЗОЖники живут меньше из-за своей одержимости. Снова же, одержимость — стресс, а он убивает. Проще говоря, не надо считать каждую калорию.
6. Спите, когда хотите спать. У реальных долгожителей нет четкого расписания. Хочется прикорнуть днём на полчаса — спите. Хватит терпеть до вечера — 10 минут на разгрузку можно найти всегда.
Простые разметки поддаются! А вот сложные — ещё не до конца. Но артефакты размышлений могут сильно помочь и ускорить проверяющего. Например, если нужно вручную искать какие-то факты, ходить по сайтам и т.д.
В начале решения задачи можно подобрать первый промт с отличным качеством, а дальше становится тяжело. В этот момент начинается бесконечный разбор случаев — и почти сразу модель начинает теряться.
ЛЛМ часто решает некоторые типы задач очень хорошо, а другие — плохо или рандомно (например, если не может сходить в интернет за нужной информацией). В итоге получается среднее качество. → Оставляем только то, в чём она сильна!
Привыкание! Помните о нём: вначале метрики могут упасть, но если есть профит, потом всё отрастёт обратно. Сравнивайте с прошлым.
Среднее время разметки задания — это не среднее арифметическое скоростей, а среднее гармоническое! (Особенно важно при малом количестве асессоров.)
Ризонинг у модели хороший, но ответ может быть неверным. Использовать его как подсказку тоже сложно — нет структуры ответа, аспекты постоянно разные. → Просим отвечать структурно и на конкретные вопросы — так и галлюцинации проще проверять, и пользоваться удобнее.
Разметчику должно быть просто и понятно, как пользоваться подсказкой!
Лучший формат подсказок (если устроены: «что проверяли?» → «вердикт») — сверху только найденные проблемы. Иначе есть соблазн раньше времени всё одобрить.
Иногда лучше вообще не давать подсказку! Например, ЛЛМ не может проверить работоспособность калькулятора — и будет только смущать.
Экспериментируйте с моделями! DeepSeek пишет чересчур подробно, а YandexGPT — наоборот, коротко и по делу.
Качество меряем на ядре асессоров, потому что:
на них проще повлиять для прироста качества;
медленные участники часто отваливаются.
Итог: ЛЛМ пока не справляется со сложными инструкциями (особенно когда ответ неоднозначен), но там, где результат можно однозначно определить, — заметно ускоряет и упрощает процесс.
Потихоньку начинаю писать в @noisetosignal — идёмте вместе!
Ещё в прошлом году Apple представил Apple Intelligence, а в этом улучшил их, также добавив новые сценарии работы.
Однако, русский язык не поддерживается, поэтому есть два варианта: используешь старую Siri и не имеешь доступа к старым функциям, либо меняешь весь интерфейс на английский и придется добавлять в Shortcuts команды, чтобы, например, позвонить кому-то, кто записан по-русски(диктовка на русском у английской Siri почти отсутствует).
Сегодня я решил проверить, а насколько реально модели Apple плохо или хорошо понимают русскую речь, если на английском они работают хорошо. Вначале думал потребуются инъекции, однако всё оказалось проще - в приложении Команды нет запрета на русском писать сразу моделям.
Тестировал Cloud версию и On-device, ChatGPT это ChatGPT-4 от OpenAI, у него все хорошо.
Cloud версия работает с русским так себе: она может плохо ответить на высказывания "Привет" - "Да вам привет!", но на более сложные запросы, например, "Расскажи, что такое NP-полные задачи" начнет иногда галлюцинировать и ошибаться в падежах(но не часто), но в целом ответы даже лучше, чем при простых вопросах("Дана граф", не "за", а "в", "задача можно полиноминальном времени преобраовать")
Многие считают, что on-device это просто урезанная cloud, скорее всего так и есть, но урезание получилось не в пользу русского - модель выдаёт сплошные галлюцинации, ошибается через слово в падежах и даже на запрос "Привет" ответит "Я не могу прогнозировать будущее", используйте для генерации всякой чепухи.
На "Как дела?" обе отправляли на сайт Apple, вероятно, это системный промпт(https://www.youtube.com/watch?v=gTOIMdH4-bE), в котором написано, что ты не имеешь эмоций и т.п.
По итогу это ограничение разумно, пока такое лучше не показывать всем, кто знает русский, но Cloud версию, я думаю, скоро можно будет использовать. Можете проверить сами(для этого смените, хотя бы на время, язык системы и Siri с русского на английский).
Модель искусственного интеллекта с открытым исходным кодом для оценки риска рака молочной железы
FRA-RIG-breast, экспериментально исследовательская модель, построенная на основе Фрактально Референциальной Архитектуры (FRA) — фреймворка, который интерпретирует данные с помощью моделей различий, а не изолированных признаков.
Модель делит входные параметры на три концептуальных блока:
R — особенности морфологической структуры и размера,
I — текстура, симметрия и фрактальные свойства тканей,
G — геометрическая компактность, кривизна и агрессивность.
Каждый блок генерирует свой собственный внутренний индекс (S_R, S_I, S_G), а конечная вероятность вычисляется с помощью логистической регрессии.
Такая структура делает модель объяснимой — она показывает, почему был сделан прогноз, а не только каков результат.
Ключевые результаты
Средние показатели перекрестной проверки:
Точность — 0,967
ROC-AUC — 0,989
PR-AUC — 0,990
F1-оценка — 0,973
Порог классификации (Youden) = 0,64
Модель сохраняет точность на 96-98% при сгибании и демонстрирует высокую стабильность между запусками.
Цель состоит в том, чтобы продемонстрировать прозрачный, поддающийся интерпретации искусственный интеллект для онкологических исследований — без сложного глубокого обучения.
FRA-RIG-breast может быть распространен на другие области, такие как исследования крови, легких или кожи, где понимание влияния факторов так же важно, как и само прогнозирование риска.
Лицензия: MIT бесплатная для использования в научных исследованиях и образовательных целях.
❗️ Это экспериментальная модель, а не медицинский диагностический инструмент.
Если вы работаете в области онкологии, биоинформатики или обработки данных и хотите узнать, как подход FRA может быть адаптирован к вашему подтипу рака, не стесняйтесь обращаться .
Буду рад обсудить, как можно было бы точно настроить параметры R, I и G для вашего исследовательского контекста. Безвозмездно.
Как Shared GPU позволяет дешевле разворачивать ML- и DL-модели в облаке ☁️⚙️
Shared GPU — технология, которая позволяет вместо аренды целой видеокарты арендовать ее часть. Это удобно для запуска небольших моделей: так, если вам нужно только 12 ГБ, вы арендуете именно их, а не платите за все 80 ГБ. А еще вы сможете перераспрелять ресурсы GPU в зависимости от нагрузки и не платить, когда нет запросов.
❓ Как все это работает
Shared GPU делит ресурсы видеокарты на несколько подов, и каждая модель запускается на отдельном. Благодаря этому можно развернуть несколько небольших моделей на одной GPU, а не арендовать для каждой отдельную видеокарту и платить за ресурсы, которые будут простаивать.
Контейнеры, на которых размещены модели, изолированы друг от друга. Если с одним из них что-то произойдет, сервисы на других подах продолжать не упадут.
🚀 Преимущества, которые дает Shared GPU:
Автомасштабирование и скейлинг в ноль. Если запросов много, дополнительные мощности выделятся автоматически. А если запросов нет дольше установленного времени, контейнер с моделью ставятся на паузу, и тарификация прекращается.
Pay-as-you-go. Платите только за те мощности, которые используете, а не за целую GPU или время простоя.
Рациональное использование мощностей. Для каждого проекта не нужно закупать отдельную GPU. Если ресурсы временно не используются, их можно перераспределить на другие задачи.
Гибкая настройка и масштабируемость. Есть возможность менять количество выделенных на каждый под ресурсов, перераспределять их в зависимости от нагрузки, развертывать несколько моделей на одной видеокарте.
OpenAI заплатит $38 млрд Amazon Web Services за доступ к сотням тысяч графических процессоров Nvidia Corp. в рамках семилетнего соглашения. По версии Bloomberg, для OpenAI это подтверждение перехода в статус «гиганта ИИ».
Учёные сравнили ChatGPT с психологическими профилями людей из 65 стран и выяснили, что модели ИИ мыслят на 70% ближе к американцам, чем к остальному миру. По данным World Values Survey, мышление ИИ оказалось ближе всего к США, Великобритании, Канаде и странам Западной Европы, а дальше всего от Эфиопии, Пакистана и Кыргызстана.
Команда Datalab выпустила бесплатную OCR модель Chandra, которая превращает любые PDF и картинки в обычные текстовые документы. Просто закидываем файл и получаем вывод в формате HTML, Markdown и JSON. Легко вытаскивает таблицы, формулы и диаграммы. Понимает 40+ языков. Можно пользоваться в браузере или поставить локально. Ставим локально с GitHub или пользуемся онлайн — здесь.
Бесплатную учебную базу по ML выдал Гарвардский университет в новой книге. Авторы сделали акцент на инженерии и построении правильных нейронок с нудя.. В книге 2500 страниц, включая строительство, оптимизацию и поддержку ML-решений на всех этапах: от подбора и подготовки данных до продакшена и использования. Авторы объясняют, как правильно связать алгоритмы, данные и железо, чтобы ИИ выдержал даже высокие нагрузки и стабильно помогал в любых задачах. Онлайн-учебник, репозиторий проекта.
Горящие новости Evolution Foundation Models: модели, тарифы и акции 🔥
Попробуйте бесплатно 20+ LLM, реранкеров и эмбеддеров в Evolution Foundation Modelsдо 1 ноября, а затем используйте их по цене 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.
А еще выбирайте модели из расширенного списка, ведь недавно мы добавили:
GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.
Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.
GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.
Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.
MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.
Для использования моделей не нужно писать код или развертывать инференс, все уже готово к подключению через API.
Если вы работаете с ML-моделями и сталкивались с батч-обработкой данных, то знаете, насколько муторно бывает тестировать такие процессы вручную. А если автоматизировать этот повторяющийся хаос? В статье «Как автоматизировать тестирование батч-моделей? Гайд» рассказываем, как превратить рутину в предсказуемый и управляемый процесс.
Статья будет полезна не только специалистам по автоматизации процессов тестирования, а и ML-инженерам, MLOps-специалистам и командам разработки, занимающимся поддержкой продакшн-систем машинного обучения.
После прочтения вы точно перестанете выполнять повторяющиеся из раза в раз тесты для батч моделей вручную — потому что поймёте, что можно проще. Автоматизация начинается с малого, но экономит часы ручного тестирования.
Вице-президент Google выпустил бесплатную интерактивную книгу про интеллект, включая искусственный. «What Is Intelligence?: Lessons from AI About Evolution, Computing, and Minds». Автор Блейз Агуэра-и-Аркас на пальцах объясняет, как работает ваш мозг и как в нём двигаются шестерёнки — это не чудо, а механизм, который можно прокачать. Как мозг «угадывает» следующий шаг и почему это и есть основа интеллекта. Почему эволюция — огромная обучающая система. Чем ИИ на нас похож, а где принципиально другой. Как не путать «интеллект» и «сознание». Чего ждать от развития нейронок и когда нас всех заменят.
Стратегический консалтинг ушёл в ИИ. McKinsey оказались одним из крупнейших пользователей ChatGPT. Идеи от искусственного интеллекта, включая фейковые статьи и факты, продают клиентам за миллионы долларов.
Открытый проект AI Video Transcriber помогает транскрибировать видеоролики в сжатый и отлично написанный текст. Работает просто, вытаскивает текст из любых видео за секунды, а потом корректирует и делает подробное саммари. Решение поддерживает более 30 самых популярных площадок, в том числе YouTube, TikTok, Bilibili и прочие. Проект не просто вытаскивает текст из видео, но делает настоящее эссе: дополняет фразы и реплики, корректирует факты и мысли, редактирует текст и доводит до идеала. Основа — Fast Whisper (лучшая нейронка для транскрибации видео). Может смотреть видео и сразу же выдавать текстовые материалы и уточнения. Сегментирует видео на 20-минутные отрывки и делит их на разделы, чтобы проще было изучать материал.
По информации СМИ, OpenAI хочет показывать в ChatGPT таргетированную рекламу прямо в чат-боте на основе переписок с ИИ. Например, если пользователи говорят о спорте, им предложат спортивную форму или добавки. Контекст ИИ будут юзать, чтобы показывать больше рекламы. Если пользователи отключат рекламу, то лишатся всей памяти чат-бота. Контекста больше не будет, всю работу придётся организовать снова.
На Hugging Face вышел новый инструмент для вайбкодеров. Это среда для создания мощнейших ИИ-агентов openEnv, где можно собирать, подключать, интегрировать, тестировать и масштабировать агентов под свои задачи. Там же можно обучить с подкреплением собственную нейронку. Есть полный комплект для работы: плагины, инструменты, API, контекст и прочее. Результат — автоматизация задач и проектов, целые приложения и сервисы под контролем ИИ, а также системы из связанных ИИ-агентов.
Появление контента, созданного искусственным интеллектом (ИИ), в интернете достигло паритета с материалами, написанными настоящими людьми.
В Axios выяснили, ссылаясь на аналитический отчёт фирмы Graphite, занимающейся поисковой оптимизацией, что доля ИИ-статей на короткое время превзошла человеческую генерацию, но сейчас объёмы выровнялись.
Согласно последним данным, представленным Graphite, в общем объеме новых публикаций в сети доля контента, созданного ИИ, составляет 52%, что незначительно превышает 48% материалов, написанных людьми.
Специалисты Graphite провели анализ 65 тысяч веб-страниц, индексированных с 2020 по 2025 годы. Отмечается, что резкий подъем доли материалов, сгенерированных ИИ, начался в 2023 году, что совпало с выходом на рынок чат-бота ChatGPT в конце 2022 года.
Несмотря на общее увеличение объёмов генерации, результаты поисковой системы Google показывают существенный перекос в пользу человеческого труда. Фирма установила, что 86% статей, которые отображаются в результатах поиска Google, созданы людьми. На долю ИИ приходится лишь 14% такого контента. Более того, когда материалы, созданные искусственным интеллектом, все же попадают в выдачу, они, как правило, располагаются на более низких позициях по сравнению с публикациями, написанными людьми.
В Perplexity обновили инструкцию, как выжать из нейросетей максимум: Perplexity at Work A Guide to Getting More Done. Внутри лучшие промпты, кейсы для работы, креативные идеи, оптимальный воркфлоу и рабочие сценарии тотальной автоматизации любых задач. Гайд работает на любых чат-ботах — хоть ChatGPT, хоть кастомная модель на вашем ПК.
К 2035 году час работы робота-гуманоида может стоить менее $1 доллара. Но даже при ставке $14 в час финансовое преимущество по сравнению с человеческим трудом приближается к $200 000 на робота в год. Для сравнения, час работы квалифицированного рабочего при полной загрузке стоит $42,5. У компаний не будет выбора.
Google запустила платформу онлайн‑обучения Google Skills, где можно пройти курсы по развитию навыков работы с искусственным интеллектом и получить сертификаты. Платформа предлагает обширный каталог из около 3000 курсов, сертификатов и лабораторных работ, которые ранее были разбросаны по разным онлайн‑порталам. Другими словами, Google Skills — это гигантский комплекс, объединяющий курсы Grow with Google, Google Cloud, Google DeepMind и Google for Education. Конечно, искусственный интеллект и генеративный ИИ — основная специализация Google Skills. Кроме того, вы можете найти курсы по анализу данных, сетевой инфраструктуре, кибербезопасности и производительности труда — от начального до продвинутого уровня.
Пользователи могут бесплатно зарегистрироваться в Google Skills, используя свою учётную запись Google, чтобы получить доступ к каталогу курсов и лабораторных работ, а также 35 бесплатных кредитов в месяц. Однако для доступа к другим возможностям, таким как практические занятия всех уровней и профессиональные сертификаты, им придётся приобрести платную подписку.
Хотите выяснить, где учиться IT? В экосистеме Хабра есть маркетплейс курсов на Хабр Карьере, на котором собраны сотни онлайн-обучений в самых разных специализациях: программировании, аналитике, дизайне, менеджменте и других. Чтобы пользователи могли проверить качество курсов, там показаны отзывы от тех, кто уже прошел обучение — изучайте и выбирайте лучшее для себя.
Да-да, вам не показалось. В нашем блоге мы рассказываем, как облачные и AI-технологии помогают решать IT-задачи. А теперь — сделали это в неожиданном формате.
Здесь не будет чудо-ножей и пылесосов, только реальные инструменты, которые делают работу с облаками и AI проще.
Усаживайтесь поудобнее: в четырех выпусках ведущие покажут, как с помощью облачных сервисов:
🔍 внедрять умный поиск на базе RAG 🚀 ускорять разработку приложений 💻 кодить с помощью AI ⚙️ собирать корпоративных AI-агентов
Все это — на базе публичного облака Cloud.ru Evolution и цифровой среды для работы с GenAI Evolution AI Factory.
Все выпуски облачного телемагазина смотрите тут: tvshop.cloud.ru