Шахраї засмічують сайти знайомств фотографіями, згенерованими ШІ
Дослідження, надані ексклюзивно Bloomberg News, показують, що підроблені профілі знайомств на сайтах, зокрема Tinder, Hinge і Bumble, створюються за допомогою великих інструментів мовної моделі, таких як ChatGPT і Google Gemini, новий генеративний AI-продукт компанії. Це найновіша тактика у світі схем розрізання свиней, що постійно розвивається, коли шахраї під фальшивими приводами змушують жертв надіслати їм криптовалюту.
І це працює.
Згідно з висновками Сатнама Наранга, старшого штатного інженера кіберфірми Tenable, шахраї використовують зображення, створені штучним інтелектом, для створення унікальних профілів знайомств . В одному випадку Наранг натрапив на профіль Бамбла для привабливої 36-річної брюнетки на ім’я «Меган» із привабливими карими очима та м’якою усмішкою. Після перегляду фотографії на веб-сайті виявлення штучного інтелекту він виявив, що Меган, ймовірно, підробка.
Tinder, Hinge і Bumble не відповіли на запити про коментарі.
Оскільки будь-хто може запустити простий пошук, щоб знайти дублікати зображення в Інтернеті, використання зображення, створеного штучним інтелектом, допомагає шахраям уникнути скепсису з боку шукачів романтики, які проявляють певний ступінь належної обачності.
Як тільки жертва потрапила на оманливу зовнішність, шахраї швидко перейшли до WhatsApp, Telegram або SMS-повідомлень, щоб налагодити особисті стосунки зі своєю жертвою, використовуючи набір складних тактик, щоб завоювати її довіру та прихильність.
«Вони дуже, дуже добре вміють не відставати від вас і бути в курсі інформації», — сказав мені Наранг. «Вони знають ваш часовий пояс, вони бажають вам доброго ранку, вони надсилають вам свої фотографії. Вони також часто запитують вас про їжу».
За словами Наранга, шахраї часто запитують про їжу, щоб продемонструвати, що вони піклуються про потенційних жертв.
Шахраї використовують низку різних фіктивних інвестиційних схем, як-от фіктивні веб-сайти та додатки з криптовалютою, щоб виманити у жертв якомога більше грошей. За даними Федеральної торгової комісії, у 2022 році жертви романтичних шахраїв у США повідомили про збитки у 1,3 мільярда доларів. Reddit та інші веб-сайти соціальних мереж також містять навчальні матеріали, які демонструють способи використання LLM, щоб зробити фейкові профілі знайомств більш правдивими.
Ці типи романтичних шахрайств часто досягають піку в День Святого Валентина, коли самотні люди звертаються до додатків і веб-сайтів для знайомств, щоб знайти друзів.
За словами Наранга, використання штучного інтелекту в романтичних шахрайствах ще не набуло широкого поширення, імовірно, більше груп засвоять цю технологію, щоб зробити свої шахрайства більш реалістичними. Шахраї також можуть скористатися перевагами широкомовних моделей, як-от ChatGPT, щоб покращити вміст своїх профілів, щоб вони виглядали більш привабливими та привабливими.
«Кожна мережа різання свиней має різний ступінь складності», — сказав Наранг.
Протягом останніх кількох тижнів влада Індонезії, Таїланду та Канади здійснила серію арештів шахраїв, що займаються любовними стосунками, що свідчить про міжнародні зусилля з боротьби з цими злочинцями. Самі платформи знайомств також можуть намагатися видалити профілі, особливо якщо на них позначили жертви, сказав Наранг.
Що ми навчилися цього тижня
Російські, північнокорейські, іранські та підтримувані Китаєм хакери використовували інструменти штучного інтелекту для посилення своїх кібероперацій, йдеться у звіті Microsoft, опублікованому в середу. Відповідно до висновків, відомі шпигунські групи з кожної країни використовували загальнодоступні великі мовні моделі, такі як ChatGPT, для покращення фішингових електронних листів, збору інформації про вразливості та розв’язання технічних проблем.
Експерти з безпеки попереджають, що така еволюція допоможе групам кібершпигунства збирати більше розвідувальних даних, підвищить довіру до них у спробах обдурити цілі та прискорить зломи мереж жертв. У середу компанія OpenAI заявила, що закрила облікові записи, пов’язані з групами, спонсорованими державою.
«Актори загроз, як і захисники, дивляться на штучний інтелект, включаючи LLMs, щоб підвищити свою продуктивність і скористатися перевагами доступних платформ, які могли б вдосконалити їхні цілі та методи атак», — йдеться у звіті Microsoft.