Учёные придумали способ защитить украденные данные для ИИ
Динмухамед Бейсембаев Автор
Исследователи из Китая и Сингапура разработали метод AURA, который делает украденные графы знаний (KG) бесполезными для систем AI типа GraphRAG без специального ключа, пишет El.kz со ссылкой на The Register.
Графы знаний – дорогой ресурс для компаний (каждое утверждение может стоить несколько долларов) и важны для обучения AI. AURA слегка «портит» данные так, что при использовании без ключа AI выдает неверные ответы или ошибки, сохраняя при этом работу легальных систем.
Метод протестировали на нескольких LLM (GPT-4o, Gemini-2.5, Llama-2 и др.) с поддельными графами: AI в 94% случаев выдавал неправильную информацию. AURA устойчива к большинству современных способов проверки и фильтрации данных.
По сути, это способ защитить интеллектуальную собственность в AI без сложного шифрования.
El.kz также сообщал о том, что хакеры украли данные около 2 млн клиентов Hyundai в США.

