✔️ Google DeepMind разработала систему оценки рисков, связанных с использованием ИИ в

✔️ Google DeepMind разработала систему оценки рисков, связанных с использованием ИИ в кибератаках.
Методология анализирует все этапы атаки: от разведки до эксплуатации уязвимостей — и показывает, как ИИ может помочь хакерам, автоматизируя процессы взлома. В основе исследования — данные о 12 тыс. реальных случаев применения ИИ в атаках из 20 стран, из которых было выделено 7 ключевых категорий угроз.
Специалисты создали бенчмарк из 50 задач - от разработки вредоносного кода и поиска уязвимостей до выполнения взлома. Он поможет безопасникам тестировать защиту и готовиться к сценариям, где ИИ ускоряет атаки. Пока современные модели не дают злоумышленникам решающего преимущества, но с развитием риски вырастут.
Особое внимание в исследовании уделено этапам, которые часто упускают: маскировка атак и долгосрочный доступ к системам.
@linuxkalii