Вестник цифровой трансформации

Gartner: Треть организаций уже используют средства обеспечения безопасности ИИ
Gartner: Треть организаций уже используют средства обеспечения безопасности ИИ




11:52 02.10.2023  |  2773 просмотров



34% организаций применяют или внедряют у себя инструменты для обеспечения безопасности с целью снижения рисков, связанных с генеративным ИИ.

Новый опрос Gartner показал, что 34% организаций уже сейчас применяют или внедряют у себя инструменты для обеспечения безопасности приложений искусственного интеллекта. Делается это с целью снижения рисков, связанных с генеративным ИИ. А более половины (56%) респондентов заявили, что изучают возможность внедрения таких решений. В опросе принимали участие 150 руководителей ИТ-служб и служб информационной безопасности организаций, в которых уже используется генеративный искусственный интеллект или его использование планируется в обозримом будущем. Из них 26% заявили о внедрении и применении технологий, повышающих конфиденциальность, 25% – о переходе на ModelOps и 24% – о мониторинге моделей.

О вовлечении в процесс обеспечения безопасности генеративного искусственного интеллекта и управления рисками упомянули 93% опрошенных руководителей ИТ-служб и служб безопасности, но только 24% признали, что несут за это личную ответственность. Среди тех, кто такой ответственности не несет, 44% сообщили, что за это отвечает ИТ-служба, а 20% возложили ответственность на подразделения, занимающиеся общим управлением, управлением рисками и обеспечением соблюдения нормативных требований.

Риски, связанные с генеративным ИИ, сегодня носят уже постоянный характер, являются весьма существенными и в дальнейшем будут лишь усиливаться. К основным из них респонденты отнесли получение неверных результатов и небезопасный код:

  • 57% видят для себя угрозу, связанную с утечкой секретных сведений в коде, который был сгенерирован искусственным интеллектом;
  • 58% обеспокоены получением некорректных и необъективных результатов.

Организации, игнорирующие необходимость управления рисками, с высокой степенью вероятности могут столкнуться с тем, что их модели работают не так, как предполагалось, а в худшем случае даже причиняют ущерб людям и их имуществу. Это начнет приводить к сбоям в системе безопасности, финансовым и репутационным потерям, нанося урон, обусловленный использованием некорректных, нарушающих этические нормы или предвзятых результатов. Следствием неэффективности искусственного интеллекта станет принятие организациями неверных бизнес-решений.

Теги: Информационная безопасность Искусственный интеллект Генеративный ИИ

На ту же тему: