Пример работы «нейронов-нарушителей», которые вносят помехи и препятствуют работе модели
«Сегодня модели искусственного интеллекта, особенно в компьютерном зрении, представляют собой результат масштабных инвестиций, как финансовых, так и интеллектуальных. Однако, в отличие от традиционных цифровых объектов, защитить модели компьютерного зрения от кражи и несанкционированного присвоения крайне сложно. Существующие методы, как правило, требуют интеграции защитных механизмов на этапе обучения, что делает их сложными в реализации на практике и почти неприменимыми для уже готовых, предобученных моделей. Наша исследовательская лаборатория разработала революционное решение, позволяющее встроить защиту в модель без необходимости ее переобучения. Простота, масштабируемость и теоретически обоснованная надежность такого подхода создают основу для противодействия воровству в сфере ИИ — а это актуальная проблема для разработчиков и исследователей по всему миру».