Эксперты предполагают, что в 2025 году возрастет количество преступлений с использованием ИИ

Эксперты по кибербезопасности считают, что в 2025 году в разы увеличится количество преступлений, для которых злоумышленники используют искусственный интеллект (ИИ). С развитием ИИ будут развиваться и преступные методы.

По мнению экспертов, уже в этом году их будут использовать около 90% нелегальных кибергруппировок.

Атаки могут коснуться не только киберпространства, но и других аспектов жизни. Специалисты в качестве примера приводят подрыв автомобиля в Лас-Вегасе, который произошел в начале января – для подготовки этого преступления использовали ChatGPT. Шериф города Лас-Вегас Кевин Макмахилл отмечает, что это первый в истории случай, когда на территории США подготовили преступление с помощью чат-бота.

Руководитель департамента расследований T.Hunter Игорь Бедеров сообщает, что официальные органы не фиксируют, насколько ежегодно растет количество преступлений, совершаемых с помощью ИИ.

Он [прирост] определяется примерно по числу ботов и генерируемого ими контента, – добавляет Игорь Бедеров. – В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом.

Директор АНО «Спортивно-методический центр «Кафедра киберспорта» и эксперт в области высоких технологий Виктория Береснева считает, что мировые показатели преступности с помощью ИИ могут расти из-за автоматизации и новых возможностей по персонализации атак:

Киберпреступники начнут использовать технологию для более изощренных атак, что потребует новых методов защиты и изменений в законодательстве и программном обеспечении для борьбы с этим видом преступности.

Несмотря на то, что ИИ не способен производить атаки без оператора, он легко составляет фишинговые письма. В 2025 году он значительно вырастет, а инструменты с ИИ могут стать повсеместными для злоумышленников. Генеральный директор компании Phishman Алексей Горелкин подчеркивает, что это особенно актуально для тех преступников, которые используют для атак методы социальной инженерии.

Технологии нейросетей и чат-ботов могут взять на вооружение до 90% всех кибергруппировок, которые обогащаются за счет социальной инженерии, – дополняет эксперт. – Однако подсчитать общее количество будет крайне сложно

По словам IT-эксперта Дмитрия Штаненко, основная опасность заключается в том, что пользователи могут узнать чат-бота инструкции по созданию оружия, взрывчатых устройств, химических соединений, чтобы использовать их в террористических целях.

Помимо этого, в 2025 году увеличится количество утечек данных. Это связано с тем, что организации повсеместно используют ИИ. Более трети опрошенных сотрудников признались, что применяют такие инструменты без ведома работодателя.

Напомним, что рынок искусственного интеллекта продолжает развиваться. Так, Т-банк открыл доступ к языковой модели на 32 млрд параметров – T-Pro, а OpenAI анонсировала языковые модели нового поколения o3 и o3-mini. А исследование ВЦИОМ показало, что 94% россиян осведомлены об искусственном интеллекте.

Источник: Известия

(Голосов: 2, Рейтинг: 5)