Опубликовано 29.05.2025 15:30. Мошенники могут начать активно применять искусственный интеллект для организации фальшивых благотворительных акций. Специалисты по кибербезопасности прогнозируют, что первые подобные случаи могут появиться уже в ближайшее время. По данным РБК, автоматизированные системы на основе продвинутых языковых моделей способны самостоятельно собирать средства, анализировать информацию и принимать решения. Успешный эксперимент в США подтвердил их потенциал: ИИ-агенты некоммерческой организации Sage собрали две тысячи долларов всего за месяц. Главную опасность представляет способность искусственного интеллекта создавать качественные подделки и автоматизировать мошеннические схемы. Роман Хазеев, директор по цифровым технологиям «Ростелекома», отмечает, что основная угроза заключается в быстром создании и распространении контента, привлекающего внимание широкой аудитории. Кроме того, ИИ может сканировать социальные сети, выявляя эмоционально уязвимых людей, которые станут мишенью для мошенников. Эксперты разделились во мнениях: одни считают массовое использование ИИ маловероятным из-за встроенных защитных механизмов, другие предупреждают о возрастающих рисках. Хотя крупных инцидентов пока не зарегистрировано, уже известны случаи применения нейросетей для создания поддельных голосовых сообщений в телефонных аферах. Российские благотворительные фонды пока воздерживаются от использования ИИ для сбора пожертвований, предпочитая традиционные методы работы с донорами. Некоммерческие организации применяют искусственный интеллект только для оптимизации внутренних процессов, сохраняя личное общение с благотворителями. В России в скором времени может быть представлен законопроект о регулировании ИИ, который сейчас обсуждается рабочей группой экспертов и представителей рынка.