АБД и компания Guardora выпустили доклад о технологии федеративного обучения

Ассоциация больших данных совместно с компаниями Guardora и Privacy Advocates выпустила аналитический доклад "Конфиденциальные вычисления и доверенные среды исполнения. Federated Learning" https://lib.rubda.ru/_static/img/slider/file7.pdf, посвященный применению федеративного обучения, как наиболее эффективного метода безопасного использования данных для обучения моделей машинного обучения.

Документ освещает потенциал FL для улучшения качества моделей машинного обучения за счёт использования в обучении и инференсе ML-моделей конфиденциальных данных с соблюдением норм действующего законодательства и внутренних норм компаний о защите данных.

"Федеративное обучение открывает возможности для обмена знаниями между участниками рынка данных: компании могут совместно использовать машинное обучение на распределённых данных, делясь лишь фактически отклонениями в наблюдаемой статистике, не нарушая правовых и этических рамок. Это особенно важно в высокорегулируемых отраслях - таких как финансы, ритейл, телеком - где ценность данных максимальна, а доступ к ним ограничен. Такая технология позволяет строить доверие между участниками рынка и ускоряет цифровую трансформацию на отраслевом уровне", - отметил Исполнительный директор Ассоциации больших данных Алексей Нейман.

Доклад включает обзор технологии и перспектив её развития, практические кейсы применения федеративного обучения, а также анализ соответствия требованиям регуляторов в области защиты персональных данных.

Технический руководитель Guardora Олег Фатюхин подчёркивает: "Концепция федеративного обучения позволяет свести к минимуму риск непосредственной утечки данных, поскольку исключает передачу участниками обучения друг другу исходных данных, включая персональные данные. В своих продуктах Guardora дополнительно шифрует передаваемые в рамках федеративного обучения результаты работы локальных ML-моделей. Это обеспечивает защиту данных участников федеративного обучения друг от друга. Таким образом обеспечивается полная защита данных".

CEO Privacy Advocates Алексей Мунтян обращает внимание: "Широкое распространение ИИ-систем создает дополнительные потребности в качественных датасетах для обучения ML-моделей, в том числе на основе имеющихся у компаний персональных данных. Технологии федеративного обучения позволяют обеспечить необходимый уровень защиты персональных данных и отсутствия доступа со стороны третьих лиц, тем самым способствуя развитию современных отечественных ИИ-технологий".

Аналитический доклад стал частью "Библиотеки больших данных АБД" - платформы, где публикуются практико-ориентированные материалы о технологиях обработки данных. В дальнейшем Библиотека будет пополняться новыми исследованиями, которые помогут компаниям внедрять инновационные решения, развивать партнёрства и адаптироваться к вызовам экономики данных.

Источник:

https://rubda.ru/