Рынок ИИ переходит от гипотез к реальным приложениям
В Москве состоялась третья встреча, посвященная искусственному интеллекту, которую организовали "Лаборатория Касперского" и MWS AI. На мероприятии обсудили ключевые события и тренды в сфере ИИ.
Эксперты говорили о том, как наука движет развитием технологий, какие мифы появились на счет ИИ в кибербезопасности и что за подводные камни встречаются при использовании RAG-систем.
Наука как двигатель нового цикла ИИ
Открывающим докладом закрытого мероприятия для прессы "Дедлайн - вчера" стал рассказ Владислава Куренкова, руководителя научной группы "Адаптивные агенты" Института AIRI, о научной работе в сфере искусственного интеллекта.
Он объяснил, что исследовательская деятельность в этом направлении остается фундаментальной дисциплиной, близкой по устройству к физике или биологии. Задача исследователей - открывать новые принципы, архитектуры и методы, публиковать результаты и обеспечивать открытый код, без которого невозможно развитие экосистемы.
"Даже рост точности на 1% в научной статье может означать серьезный прорыв - этот небольшой шаг нередко масштабируется во что-то экспоненциальное дальше", - Владислав Куренков, руководитель научной группы "Адаптивные агенты" Института AIRI.
Как продолжает ученый, публикации и цитируемость - это главная "валюта" научного сообщества, а строгая система рецензирования на крупных конференциях позволяет отделить по-настоящему ценные исследования от работ. Куренков подчеркнул ключевое различие между исследователями и продуктовыми командами: бизнес почти всегда использует уже найденные научные решения, а не создает новые алгоритмы.
Источником технологий становятся работы на arXiv и других научных площадках - по такому же пути в свое время создавался ChatGPT, так как OpenAI была исследовательской организацией до того, как ее идеи упаковали в продукт.
Главный тренд на конец 2025-го и начало 2026 года - переход к физическому искусственному интеллекту. Модели нового типа Vision-Language-Action умеют "видеть", понимать инструкции и выполнять действия, управляя роботами.
Первые значимые работы, вроде Robotics Transformer (RT-1) от Google DeepMind, запустили лавину исследований. За два года объем статей по этой теме вырос экспоненциально, а вокруг направления появились стартапы, привлекающие огромные инвестиции. Масштабирование данных - главный двигатель прогресса: от VR-телеметрии, которую собирает Tesla, до полностью синтетических симуляторов Nvidia.
Сегодня выстраивается новая архитектура индустрии, разворачивающаяся вокруг разработчиков VLA-моделей (языково-визуальных моделей, занимающихся высокоуровневым планированием), производителей робототехники и компаний, интегрирующих готовые решения. Куренков отметил, что рынок движется к массовой роботизации: роботы в домах, на складах, в сервисе - это не вопрос далекого будущего. В 2025 году стало очевидно, что технология работает в лаборатории, а в 2026-м она начнет работать у пользователей дома.
При этом классические лидеры отрасли, вроде Boston Dynamics, оказались в позиции догоняющих - их решения базируются на предыдущем технологическом укладе и требуют серьезной переработки. Одновременно с этим растет внимание к безопасности: принципы ограничений и защитных контуров для роботов будут развиваться так же стремительно, как исследования по безопасности языковых моделей.
Отвечая на вопросы "Компьютерры" о роботизации, Куренков отметил, что лидером по количеству производимых роботов сейчас остается Китай, однако по бытовой робототехнике - США и по складской автоматизации - также США. А о перспективах российских проектов он высказался осторожно-оптимистично: технологии развиваются, и первые результаты могут появиться раньше, чем многие ожидают.
Как злоумышленники на самом деле используют ИИ?
Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в "Лаборатории Касперского", выступил со своим докладом о киберугрозах, где рассказал, что вокруг нейросетей в кибербезопасности возникает двойной слой шума: хайп вокруг самих LLM-моделей и шум, связанный с цифровыми угрозами. Из-за этого отличить реальные события от преувеличений, не углубившись в новость, бывает непросто. Поэтому, чтобы разобраться, эксперт посоветовал ориентироваться на два ключевых источника.
Первый - это отчеты разработчиков больших моделей вроде OpenAI, Anthropic и Google: они видят реальные диалоги злоумышленников с ИИ и фиксируют попытки автоматизировать этапы атак - от обхода детекторов и поиска данных после компрометации до подготовки фишинговых текстов и преодоления языковых барьеров.
Второй - исследования компаний кибербезопасности, которые, анализируя вредоносное ПО, нередко находят в нем следы генерации средствами LLM: неиспользуемые импорты, странные комментарии вроде "print result", неконсистентный (несогласованный) стиль кода. Похожие признаки появляются и в инструментах, которыми пользуются группировки, работающие против российских организаций.
В совокупности источники дают следующую картину: ИИ активно вошел в инструментарий злоумышленников и изменил две вещи: активность преступников - теперь даже низкоквалифицированные злоумышленники получили доступ к более сложным инструментам, и скорость взлома - большие языковые модели работают круглосуточно и ускоряют все этапы атаки. При этом, по словам спикера, принципиально новых типов атак пока не появилось.
"Есть две вещи. Первое - это так называемая активность: люди с минимальными навыками теперь могут действовать на уровне гораздо более опытных злоумышленников. Второе - скорость: LLM работают круглые сутки и значительно ускоряют весь процесс. Но при этом принципиально новых видов атак не появляется - ничего радикально нового здесь нет", - Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в "Лаборатории Касперского".
При этом ИИ - это не только инструмент атакующих. По словам Тушканова, в продуктах "Лаборатории Касперского" машинное обучение давно используется для анализа телеметрии, поиска паттернов атак, автоматизации нестандартных решений. Как рассказывает эксперт, потенциал развития тут огромен: данных в кибербезопасности много, а генеративные модели и агенты позволяют обрабатывать их более гибко и быстрее.
На вопрос "Компьютерры" о том, не станет ли противостояние нападающих и обороняющихся "битвой ИИ против ИИ", Тушканов отметил, что это не сценарий будущего, а уже реальность. Противостояние напоминает вечную эволюцию антиспама: одна сторона придумывает защиту, другая переходит к обходу, и так по кругу.
"Это действительно состязательная сфера - как в историях с антиспамом. Появилась электронная почта - и сразу нашлись те, кто стал рассылать рекламу. Появились фильтры по ключевым словам - отправители начали убирать эти слова или разбивать их пробелами. И так это тянется до сих пор. В других областях безопасности происходит то же самое", - поясняет он.
Говоря об итогах 2025 года и ожиданиях от 2026-го, Тушканов подчеркнул: ключевым трендом станут агенты - именно они будут задавать тон развитию средств защиты. А вот "революции" со стороны атакующих он не ожидает: изменения происходят постепенно. Новые модели действительно повышают доступность атак, но принципиально новых схем пока не появится. "Мы ко всему готовы", - отметил Тушканов.
Что нужно знать о RAG-системах
Валентин Малых, руководитель исследований в области NLP в MWS AI, дополнил выступления коллег своим рассказом о RAG-системах. Он выделил три ключевых момента, которые бизнес и разработчики часто упускают из виду, следуя общим трендам.
Первое - гибридный поиск не опция, а необходимость. Малых предупредил об опасной моде использовать для поиска документов в RAG-системах только векторные модели текста (эмбеддинги). Модели-эмбеддеры, по его словам, не видят разницы между, например, фамилиями Иванов и Петров - для них это почти одно и то же. Спасти ситуацию может только гибридный подход, комбинирующий семантический (связанный по смыслу) поиск по векторам с классическими, лексическими методами. Без этого качество системы будет низким.
Второе - длинное контекстное окно не отменяет RAG. С появлением моделей, "проглатывающих" сотни страниц текста, многие решили, что необходимость в сложном поиске документов отпала. Это заблуждение. "Если у вас 10 тысяч договоров, то они ни в одну модель не влезут, просто не влезут, и все", - пояснил эксперт. Хотя работа с длинным контекстом и дает высокое качество, RAG позволяет достичь сопоставимых результатов, потратив в десять раз меньше ресурсов.
Третье - эра нового OCR (оптического распознавания символов) уже наступила. Самый неочевидный, но многообещающий тренд - это смерть OCR в его классическом понимании. По словам Малых, теперь можно напрямую задавать вопросы к документу как к картинке, получая точные ответы. Текстовое распознавание уступает место моделям, которые понимают и интерпретируют весь документ целиком в его визуальном представлении.
Таким образом, эффективное использование RAG требует гибридного поиска, не заменяется длинным контекстом и открывает новые возможности благодаря моделям, работающим с визуальным представлением документов.
Вывод
На встрече "Лаборатории Касперского" и MWS AI эксперты доказали, что искусственный интеллект активно внедряется в бизнес, кибербезопасность и робототехнику. Наука по-прежнему определяет фундаментальные принципы, но реальные приложения - от агентов и RAG-систем до моделей с визуальным контекстом - дают ощутимые результаты сегодня.
В кибербезопасности ИИ стал инструментом как для защиты, так и для атак, при этом ключевыми изменениями остаются скорость и доступность действий, а не принципиально новые схемы нападения или противодействия. Технологии развиваются комплексно: от гибридного поиска и анализа больших массивов данных до роботизации и новых подходов к обработке документов, что подтверждает зрелость и устойчивый рост экосистемы ИИ в России и мире.
Источник: