С каждым годом искусственный интеллект все активнее проникает в разные сферы экономики, причем развитие некоторых из них уже невозможно представить без участия ИИ. К ним, в том числе, относятся кибербезопасность, медицина и сельское хозяйство. ИИ-решения позволяют минимизировать рутину, снизить нагрузку на сотрудников. Однако пользоваться такими технологиями и развивать их нужно осознанно.
Использование нейросетей
Технологии искусственного интеллекта активно используются и в повседневной жизни. Согласно данным онлайн-опроса, проведенного "Лабораторией Касперского" в 2024 году, инструменты на основе нейросетей применяли как минимум один раз 42% опрошенных россиян.
Причем почти половина из них (46%) ищут с помощью таких сервисов информацию, а 44% - решают рабочие задачи. Значительно меньше (17%) - консультируются на личные темы, 11% - составляют резюме, а 9% - план питания.
Манипуляции нейросетями
Злоумышленники и нечестные на руку пользователи тоже обращают внимание на нейросети. Один из способов, который люди используют для манипуляции ими - непрямые инъекции затравки (indirect prompt injection). Этому киберриску подвержены многие системы на основе больших языковых моделей (LLM). Люди могут размещать специальные фразы - инъекции - на своих сайтах и в опубликованных в сети документах, чтобы нейросети выдавали другим пользователям ответ, учитывающий цели интересантов.
Как пояснили в "Лаборатории Касперского", такой метод могут использовать, например, соискатели, чтобы заставить бота, просматривающего резюме, дать по нему положительный отклик или пропустить на следующий этап. Люди могут указывать мелким шрифтом нужные детали и запросы к чат-ботам, окрашивать текст в цвет фона, выносить за пределы окна при помощи отрицательных координат - чтобы манипуляции не были заметны другим пользователям.
Схожий метод могут использовать при осуществлении рекламных инъекций, направленных на поисковые чат-боты, чтобы их пользователи получали в ответ на свой вопрос более позитивную оценку конкретного продукта. Непрямые инъекции затравки могут применяться и в других сферах.
Антон Иванов, технический директор "Лаборатории Касперского", также обращает внимание на то, что ИИ-технологиями интересуются и злоумышленники. Например, для написания фишинговых сообщений или модификации программного кода. Однако применение искусственного интеллекта атакующими пока нельзя назвать массовым.
В некоторых случаях нейросети даже могут выдавать злоумышленников. Недавно в "Лаборатории Касперского" проанализировали обнаруженные экспертами компании фишинговые и скам-ресурсы и выяснили, какие артефакты могут оставлять большие языковые модели (LLM) на фальшивых страницах. Речь шла о признаках, указывающих, что поддельный ресурс создан мошенниками с применением инструментов на основе нейросетей. Например, там могут встретиться фразы о том, что языковая модель не готова выполнить тот или иной запрос.
Кроме того, на таких ресурсах могут встречаться определенные слова и фразы, которые "предпочитают" нейросети. И, наконец, следы использования нейросетей могут оставаться не только в текстах, но и в мета-тегах - специальных элементах кода, содержащих информацию о сайте. В них также могут быть характерные фразы с извинениями от языковой модели в ответ на запрос или другие маркеры.
Правила безопасности для пользователей
Чтобы не попасться на уловки злоумышленников, людям важно быть внимательными: критически относиться к входящим сообщениям и обращать внимание на подозрительные признаки, например логические ошибки и опечатки на веб-страницах, в тексте писем.
Тем, кто активно пользуется, например, чат-ботами, важно обратить внимание на безопасность аккаунтов в таких сервисах: использовать надежные пароли и двухфакторную аутентификацию. При общении с чат-ботами лучше не делиться конфиденциальными данными.
Наконец, необходимо помнить о том, что нейросети не всегда имеют максимально полную информацию по тому или иному вопросу и могут выдавать ответ на основе устаревших или ограниченных данных. Поэтому полученную информацию всегда нужно перепроверять. Технологии искусственного интеллекта можно применять для автоматизации решений повседневных задач, например обработки данных или составления расписания, но не для консультации по медицинским, юридическим и другим важным вопросам.
Как компаниям обеспечить безопасность при использовании ИИ
Среди киберрисков для компаний с точки зрения небезопасного применения ИИ-сервисов сотрудниками эксперты отмечают потенциальную компрометацию конфиденциальных данных.
"Ряд производителей LLM-моделей используют облачные хранилища, в которые сотрудники компаний, например из-за недостатка знаний в области кибербезопасности, могут отправлять конфиденциальную корпоративную информацию. При этом некоторые сервисы недоступны из России напрямую, и организации могут пользоваться услугами сервисов-посредников. Возникает вопрос - кто может иметь в результате доступ ко всем этим сведениям, помимо их владельцев", - пояснил Антон Иванов.
Специалисты по кибербезопасности не рекомендуют предоставлять чат-ботам персональные данные и другую конфиденциальную информацию, содержащую коммерческую тайну, в том числе корпоративные проекты.
Если же компания не использует облачные сервисы, она может перейти к поставкам ИИ-модели, в рамках которой решение развертывается в контуре организации. Тут возникает уже другой вопрос - какие бенчмарки будут использоваться для проверки такой технологии. Для решения задач тестирования моделей перед их внедрением специалисты "Лаборатории Касперского" разрабатывают целый банк бенчмарков.
"Такие наработки и методы проверки помогут сделать применение ИИ-технологий более безопасными", - считает Иванов.
К тому же важно помнить, что системы, созданные с применением искусственного интеллекта, должны иметь комплексную защиту от кибератак. Это особенно важно для технологий, используемых в критически важных отраслях.
В "Лаборатории Касперского" понимают, что улучшить безопасность создаваемых решений в сфере ИИ и противодействовать злонамеренному использованию таких технологий можно только совместными усилиями. Поэтому компания присоединилась к Альянсу в сфере искусственного интеллекта, который объединяет ведущие технологические компании с целью ответственного развития технологий на основе искусственного интеллекта в России. Это позволит сделать еще один шаг на пути к более ответственному использованию всего потенциала ИИ.
Россияне верят в перспективы развития ИИ-направления. При этом, по мнению респондентов, активнее всего такие решения в ближайшие 5-10 лет будут применяться в сферах образования, ИТ, финансов, а также в маркетинге и медицине. Интересно, что больше четверти респондентов допускает, что ИИ-технологии будут развиваться и в эмоциональном плане, и через какое-то время они смогут испытывать чувства.
ИИ-решения обладают большим потенциалом. Однако всегда важно помнить о рисках, которые связаны с использованием таких технологий, особенно если они имеют доступ к конфиденциальным данным. Поэтому пользователям важно постоянно повышать цифровую грамотность и учиться осознанному взаимодействию с ИИ-сервисами, использовать защитные решения, а компаниями и разработчикам в области ИИ - уделять должное внимание безопасности на всех этапах внедрения и работы с такими решениями. В этом случае получится сократить рутинные процессы и реализовать полный потенциал ИИ без ущерба кибербезопасности.