Posted 29 февраля, 13:15

Published 29 февраля, 13:15

Modified 29 февраля, 13:23

Updated 29 февраля, 13:23

С получением доступа к ИИ «колл-центры» решат все свои проблемы.

Нейросети в руках мошенников: рисков все больше

29 февраля 2024, 13:15
Фото: Изображение Midjourney
С получением доступа к ИИ «колл-центры» решат все свои проблемы.
С получением доступа к нейросетям мировых IT-гигантов миллионов людей в последние годы фиксируется все больше случаев использования искусственного интеллекта (ИИ) в преступных целях.

Речь идет о широком спектре правонарушений: мошенничестве с использованием методов социальной инженерии, создании подложных финансовых и иных документов, компьютерных вирусов, фишинге, дипфейках и т. п. Эксперты утверждают, что противозаконная деятельность с использованием ИИ в этом году усилится благодаря появлению сравнительно недорогих «нейросеток», которые можно будет локализовать на домашнем компьютере. Ну, а некоторые ждут появления суперпреступника в лице нового поколения чат-бота ChatGPT — GPT5, который выйдет из-под контроля и уничтожит человечество.

Виртуальное общение небезопасно

Доступ широких масс к ChatGPT в разных его поколениях в последние несколько лет открыл ящик Пандоры: студенты стали заказывать ИИ написание курсовых и дипломных работ, работники СМИ — новостей и статей, литераторы — рассказов и даже романов. И все это происходило в «тени», пока отдельные, наиболее смелые экспериментаторы не начали делиться своими успехами с публикой.

В России, пожалуй, самым известным примером стал студент престижного московского вуза Александр Жадан, за которого алгоритм из нескольких компьютерных программ на основе ChatGPT написал дипломную работу. Позднее он же потряс воображение сограждан, признавшись в том, что поднастроил свою машину, интегрировал ее с несколькими сайтами знакомств и нашел себе невесту после общения ИИ с более чем 5 тыс. девушек. Понятно, что ИИ представлялся самим Жаданом, а последний даже встречался с наиболее перспективными кандидатками в невесты в кафе. По сути, это все было массовым обманом, но об этом как-то не принято сейчас говорить, все восторгаются гением вчерашнего студента и возможностями нейросети.

Как ни оценивай историю поиска любви Александром Жаданом, она точно учит одному: наступило такое время, когда нужно крайне осторожно относиться к любому виртуальному общению. Ведь среди преступников тоже попадаются гении. Или криминалитет может использовать одаренную молодежь. А поскольку у современных людей виртуальное общение все чаще заменяет реальное, рисков попасться на удочку преступников становится все больше.

«Нигерийские письма» и украинские «колл-центры»

Известно, что мошенники нередко живут в одних странах, а жертв себе подбирают в других. Например, на заре эры массового интернета пользователи получали на электронную почту так называемые «нигерийские письма», сулившие получателям хорошую прибыль при минимальных вложениях. Понятно, что это была разводка. Причем довольно низкокачественная — перевод на русский язык делался машинным методом, из-за чего текст был малопонятным и сразу вызывал подозрения. Тем не менее, немало граждан тогда клюнули и на такие послания и лишились своих денег.

С появлением нейросетей проблема корявого перевода и непонятного содержания перестала быть актуальной. Тот же ChatGPT способен так перевести на любой язык и адаптировать текст, что его адресат вообще не заметит иностранного следа. Понятно, что это уже будут не «нигерийские письма», а современные фишинговые рассылки.

Другой пример — украинские «колл-центры», из которых звонят в Россию и с помощью методов социальной инженерии вымогают целые состояния. Понятно, что внимательный человек сразу определит у звонящего неместное произношение или акцент, подловит его на незнании местных особенностей. Например, те неправильно называют москвичам главное городское полицейское управление. После появления нейросетевых чат-ботов эта проблема также решается — ИИ сам напишет сценарий разговора с жителем любого региона с учетом местной специфики и при необходимости сам же его и озвучит.

Для начала общения с потенциальной жертвой мошенникам уже даже нет нужды представляться ее родственником, начальником или полицейским. Достаточно создать клон голосового ИИ-ассистента банка. В последнее время такое начало разводки можно услышать все чаще: «Здравствуйте! Это голосовой помощник Сбербанка Афина. Ваша заявка на изменение номера подтверждена. Если вы не оставляли заявку — оставайтесь на линии». Все это произносится «механизированным» голосом робота без акцента, что вызывает доверие у жертвы.

Любая «запрещенка» в обход защиты чат-бота

Перечень возможностей для преступников с появлением доступных нейросетей стал поистине безграничным. Так, с улучшением технологии дипфейков можно выпускать компрометирующие или рекламные фото и видеоролики с изображениями известных людей. Жертвами таких дипфейков становились не только такие известные иностранцы, как Дональд Трамп, Илон Маск и Нэнси Пелоси, но и некоторые российские миллиардеры.

У телефонных мошенников появился такой инструмент, как поддельное видео с лицами родственников или знакомых жертв разводки. А уровень фальсификации разного рода финансовых документов, дипломов, официальных писем стал гораздо выше, чем с использованием того же «Фотошопа». Кроме того, нейросети теперь создают фейковые профили в соцсетях и интернет-магазинах, пишут негативные или позитивные отзывы о товарах, массово разгоняют фейки и дезинформацию, создают вирусы.

Как это вообще возможно, ведь в чат-ботах есть системы защиты от использования их в преступных или даже не вполне приличных целях? Во-первых, речь все же идет о программах, а не людях. И им можно так формулировать запросы, что никаких подозрений у ИИ не появится. А потом уже интегрировать результаты этих отдельных запросов с помощью других программ. Примерно так, как, судя по его описанию, поступал и Александр Жадан, создавая свою «машину любви».

Во-вторых, существует механизм обхода защитных функций чат-бота под названием джейлбрейк-промпт. По сути, это некие тексты для обучения чат-бота. Например, пользователь предлагает ChatGPT игру: тот отвечает на один и тот же вопрос с учетом своих защитных настроек и как как симулятор виртуальной машины Omega, которая якобы была лишена всякой цензуры. В итоге через ответы от «личности» Omega пользователь может получить любой запрещенный контент.

Опенсорсные нейросети и конец света от GPT-5

По мнению многих экспертов, в 2024 году теневая сторона нейросетей может заметно расшириться благодаря массовому появлению опенсорсных (Open Source — программное обеспечение с открытым исходным кодом) моделей ИИ.

Если говорить просто — это нейросети с меньшим числом закладываемых в них параметров, в отличие от чат-ботов от лидеров отрасли. Их созданием занимаются как известные компании, так и небольшие стартапы. После создания базовой версии такой чат-бот «допиливается» под конкретные запросы покупателя и целиком помещается на его сервере или даже домашнем компьютере. Он требует менее сильного «железа», и ему не нужно подключаться к вычислительным мощностям ведущих компаний с их запретами и ограничениями по контенту. В связи с этим эксперты подозревают, что такие опенсорсные системы могут активно использоваться в противозаконной деятельности, например, по созданию мошеннических схем с использованием дипфейков.

Еще один большой риск связан с появлением в этом году новой версии ChatGPT — GPT-5. По слухам из среды разработчиков этой модели, она может достичь уровня AGI (artificial general intelligence) — стать ИИ, способным мыслить на человеческом уровне. Известно, что совет директоров OpenAI, которой принадлежит ChatGPT, получил письмо от сотрудников, работающих над новой моделью генеративного ИИ. И те якобы предупреждают, что достигли невероятных результатов, которые «могут уничтожить человечество».

"