Эксперты предположили, что развитие ИИ повлечет кратный рост преступности в 2025 году

По словам руководителя департамента расследований фирмы по защите от утечек данных Игоря Бедерова, ежегодный прирост преступлений, совершаемых при помощи ИИ, не отражается в официальной статистике и определяется по числу ботов и создаваемому ими контенту. Он предупредил, что к 2025 году прирост таких преступлений может увеличиться в восемь или даже десять раз по сравнению с предыдущим годом. Это вызывает серьезные опасения относительно будущего кибербезопасности и требует принятия соответствующих мер для предотвращения угрозы.

Эксперт по кибербезопасности Виктория Береснева подчеркивает, что одной из основных причин увеличения преступности с применением искусственного интеллекта является не только автоматизация процессов, но и появление новых возможностей для персональных атак. По словам Виктории, нейросеть сама по себе не способна атаковать пользователей без участия оператора, однако она может быть использована для создания фишинговых писем.

Важно отметить, что в нейросетях встроена защита от злоумышленников, однако существует метод обхода этой защиты при помощи промпт-инжиниринга. Как утверждает эксперт по кибербезопасности Алексей Горелкин, злоумышленник может попросить искусственный интеллект представить себя в роли писателя и создать вымышленную ситуацию, например, написать роман о террористах с инструкцией по созданию взрывного устройства.

Это подчеркивает необходимость постоянного совершенствования методов защиты от киберугроз и повышения осведомленности пользователей о методах обмана, чтобы минимизировать риски кибератак и сохранить информационную безопасность.

Эксперты предупреждают о возможности применения технологий нейросетей и чат-ботов кибергруппировками для осуществления мошенничества с использованием социальной инженерии. По словам Горелкина, до 90% всех киберугроз могут воспользоваться этими инструментами. Кроме того, они отмечают, что искусственный интеллект может стать ключевым элементом в создании убедительных дипфейков и автоматизации поиска уязвимостей в системах и приложениях злоумышленниками.

Вместе с тем, ситуация в России отличается от других стран: многие сервисы чат-ботов, такие как Grok или ChatGPT, недоступны для использования из-за ограничений с оплатой и блокировкой российских IP-адресов. Эту проблему подчеркнул IT-эксперт Сергей Поморцев, рекомендуя обращаться к отечественным аналогам для обеспечения безопасности при обмене информацией. Важно учитывать этот аспект при выборе инструментов для общения и работы с чат-ботами.

Эксперты в области уголовного права, включая Анатолия Литвинова, подчеркивают необходимость немедленного внесения изменений в законодательную базу РФ. Они предлагают внести поправки, запрещающие использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, а также рецептов, содержащих опасные химические вещества. Эти меры направлены на обеспечение безопасности и предотвращение незаконной деятельности.

Согласно специалистам, в российских сервисах уже применяются стоп-слова, которые помогают фильтровать недопустимый контент. Но необходимо усилить контроль и установить более жесткие правила для использования искусственного интеллекта. Важно, чтобы все отечественные разработчики соблюдали декларацию об ответственной разработке и использовании сервисов в сфере генеративного ИИ, а также присоединились к "Кодексу этики в сфере ИИ", чтобы обеспечить этичное и безопасное применение технологий.

Эксперты в области кибербезопасности предостерегли о возможных угрозах, связанных с использованием искусственного интеллекта для совершения преступлений. Они подчеркнули, что создание дипфейков и подделка голосовых сообщений становится все более доступным для злоумышленников. Ранее журналисты отметили, что первым официально зафиксированным случаем преступления при помощи ИИ стал подрыв Tesla Cybertruck у отеля Trump International Hotel в Лас-Вегасе 1 января. Полицейские указывали на использование ChatGPT Мэттью Ливелсбергером для подготовки атаки.

Подчеркнуто, что для создания "слепка" голоса отправителя злоумышленникам требуется всего лишь около 15 секунд аудиозаписи. Это открывает двери для манипуляций и фальсификаций в сфере коммуникаций. Кроме того, использование изображений лиц людей может послужить основой для создания убедительных дипфейков и вводить в заблуждение широкую аудиторию.

Важно понимать, что развитие технологий также приносит новые угрозы, и необходимо постоянно совершенствовать методы борьбы с киберпреступностью. Каждый новый случай злоупотребления ИИ должен служить уроком для улучшения систем безопасности и защиты информации.

Новые предложения в начале:

В современном мире, где мошенничество становится все более изощренным, защита личной информации становится важнее прежде. Москвичи получили возможность обезопасить себя от мошенников благодаря запуску проекта "Перезвони сам".

Текст: Москвичи смогут обезопасить себя от мошенников с помощью проекта "Перезвони сам"

Читайте также

Перефразированный текст:

В современном мире, где мошенничество становится все более изощренным, защита личной информации становится важнее прежде. Москвичи получили возможность обезопасить себя от мошенников благодаря запуску проекта "Перезвони сам". Этот инновационный проект предлагает простой и эффективный способ защиты от нежелательных звонков и мошеннических схем.

Проект "Перезвони сам" предоставляет жителям Москвы уникальную возможность контролировать входящие звонки и проверять их на подлинность. Это поможет избежать попадания в ловушку мошенников, которые часто используют телефонные звонки для обмана и выманивания личной информации.

Благодаря активному участию горожан в проекте "Перезвони сам", можно значительно снизить риск стать жертвой мошенничества. Важно осознавать свои права и уметь защищать себя от потенциальных угроз, которые могут возникнуть в современном цифровом мире.