Смартфон.
Cмартфон или ноутбук следят за своим хозяином
Случается, что люди думают, предполагают, что за ними следят.
Речь не про наружку, "топтунов" или подозрительный блеск цейсовской оптики в окне напротив.
Речь про цифровую слежку. И, как показывает практика, далеко не всегда эти подозрения просто мнительность.
Кто за кем следит
Список шпионов потенциальных шпионов довольно обширный и его можно разделить на несколько групп:
- Прогосударственные хакеры и группировки, шпионящие за своими целями в интересах своих государств.
- Конкуренты или деловые партнеры для промышленного шпионажа или проверки контрагентов.
- Работодатели, для которых интересен контроль за устройствами их сотрудников.
- Правоохранительные органы в рамках оперативно-розыскных мероприятий.
- Иногда сервисы-шпионы устанавливает даже "близкий круг", например, родственники — на устройства пожилых родителей или детей. Был случай, когда "заряженный" вирусом-шпионом смартфон ревнивый муж подарил супруге, а потом... развелся.
- Криминальные группы, например, операторы программ-стилеров, для которых похищение чувствительной информации и ее продажа - один из способов монетизации.
- Владельцы бот-сетей, которые могут передавать контроль за устройствами, находящимися в их бот-сети заинтересованным в этом лицам, например для DDoS-атак.
- И даже ... рекламные сервисы, которые следят за клиентом, чтобы показывать ему таргетированую рекламу.
Методы, техники и тактики, которые используют все эти группы принципиально разные: от купленной по подписке условно легальной программы-шпиона до специальных, собственных разработок, заточенных под конкретную группу лиц или организацию.
Идеальный шпион
Это ваш смартфон.
Весь его встроенный функционал — возможность скрытой аудиозаписи, фото и видеосъемки, отправки данных геолокации, скриншотов и т.д. идеально подходит для шпионажа.
Даже в отключенном состоянии, смартфоны продолжают "фонить" информацией.
Все, что нужно сделать злоумышленникам — с помощью специальных вредосносных программ заставить ваш смартфон работать на них.
Например, возможность прослушки, слежения по геолокации или отправки фотоснимков окружающего пространства - это функционал, который встречается не только во вредоносных программах, но и в легальных программах контроля за детьми.
Что уж говорить про профессиональные шпионские программы, типа разработки — Pegasus, который заражает и Android, и IPhone "с нулевым кликом", то есть абсолютно незаметно для владельца смартфона.
Попадая на телефон, программа-шпион пересылает оператору скриншоты экрана, переписку из защищенных мессенджеров и электронной почты, логины-пароли от сервисов и данные геолокации.
Можно ли обнаружить слежку?
Профессиональные шпионские программы, типа того же Pegasus обычный пользователь не сможет обнаружить.
Впрочем, есть косвенные признаки того, что смартфон или ноут ведут слежку за вами:
• гаджет сильно нагревается, на устройстве быстро садится аккумулятор;
• ухудшение производительности, зависания и частые перезагрузки устройства;
• приложения запускаются, открываются сами по себе;
• резко вырос объем передачи данных, трафик мобильного интернета.
Что теперь с этим всем делать?
Поскольку сам пользователь может лишь догадываться, что за ним следят, нужно обратиться к техническим специалистам, которые проверят устройство.
Разберутся, каким путем оно было заражено и на основании этого понимания, как программа-шпион попала на устройство и его функциональности, дадут рекомендации по защите.
Иногда клиенты показывают смартфьны, уже сброшенные к заводским настройкам.
К сожалению, этот способ не позволяет понять, каким способом был установлена программа-шпион, какие данные украдены у пользователя, а, значит, не исключено повторное заражение.
И совет.
Хранить смартфон в "клетке Фарадея" — это изделие в виде небольшого мешка или портмоне, изолирующее устройство, находящееся в нем, от электромагнитного излучения. Проще хранить в мещочке из мталлической фолги,
Тоже, желательно делать так:
- Чтобы уменьшить риск заражения устройства шпионской программой, рекомендуется своевременно обновлять программное обеспечение смартфонов.
- Не стоит хранить в смартфоне ценную и конфиденциальную информацию: копии паспорта, пароли, приватные фото или видео, ключи от криптокошельков и тому подобное.
- Не надо переходить по подозрительным ссылкам, не стоит открывать сомнительные файлы, не устанавливать приложения из непроверенных источников.
- Не забудьте ограничить доступ приложений в т.ч. к камере, диктофону, геопозиции, спискам контактов и т. п.
Расскажите в комментариях, сталкивались ли вы с шпионскими программами или слежкой?
Обзвоны на домашний телефон производят не только с целью прямого развода, но и с целью получить образцы голоса.
После того как соберут образцы голоса от всех членов семьи, могут создать схему развода с имитацией голосов.
Социохакинг.
Тем не менее, у любого из нас есть набор паттернов поведения – своеобразных уязвимостей и бэкдоров в психике.
Умело манипулируя ими, психолог с навыками социальной инженерии (или, например, обыкновенный мошенникус вульгарис, работающий по
качественной методичке) может выведать закрытую информацию или заставить человека выполнить некое полезное для себя действие.
За примерами далеко ходить не придется, ими пестрит и отечественный, и западный интернет.
По телевидению крутят социальную рекламу против мошенников, выведывающих по телефону пароли или вымогающих деньги от имени якобы попавшего в беду родственника.
Девушки с сайтов знакомств водят несчастных юношей по фейковым ресторанам.
И это только «бытовой» уровень – на т.н. «корпоративном» и махинации посложнее, и ставки гораздо выше.
Схемы обмана меняются, обрастают новыми ходами и тонкостями, но суть их неизменна.
Злоумышленники апеллируют к базовым слабостям человека: жадности, страху, гордыне и похоти.
И совершенно неважно, где происходит действо: в реальном мире, по телефону или где-то в сети.
В этой статье мы не будем в очередной раз писать о старых, набивших оскомину любому специалисту по безопасности способах добывать информацию или деньги у населения, а обратимся к достаточно новой теме – социохакингу с применением нейросетей.
Проведем парочку нехитрых экспериментов.
Социохакинг + ИИ: что уже происходит?
Для начала вспомним, как специалисты по социальной инженерии (или просто остроумные авантюристы) уже используют искусственный интеллект:
- В феврале 2024 бухгалтер компании Arup получил странный email со ссылкой на голосовую конференцию с руководителем. Но все сомнения рассеялись, когда при подключении к звонку он действительно услышал голос своего начальства.
- В ходе беседы сотрудник перевел по указанным CFO реквизитам порядка $25 млн.
- Надо ли говорить, что голос был подделан при помощи ИИ.
- Одна несчастная женщина из Америки в 2023 году получила звонок якобы от своей 15-летней дочери. Она отчетливо услышала: «Мама, меня держат в плену плохие люди», после чего мужской голос потребовал выкуп в размере $1 млн.
- Жертве и в голову не могло прийти, что голос дочери был сымитирован ИИ.
- Студент московского РГГУ успешно защитил диплом, написанный с помощью ИИ. Почтенные профессора ничего не заподозрили – обман вскрылся лишь когда герой истории сам похвастался своими достижениями в социальной сети.
- Сервис OnlyFake предлагает за скромную плату сгенерировать поддельные сканы документов – паспортов, водительских удостоверений и т.д.
Практически любой пользователь может без проблем применить маску, меняющую пол, возраст или черты лица во время видеоконференции. О статичных картинках и говорить не приходится.
Недавно во французских СМИ появилась трагикомичная история о 53-летней женщине, которая через интернет познакомилась и завела роман с Брэдом Питтом.
Доверчивая француженка получала фейковые фотографии Питта якобы со съемок, а затем – из больницы.
Мошенник запросил у жертвы более 800 тысяч евро на лечение рака, потому что его активы были заморожены из-за суда с Анжелиной Джоли.
Как видите, мошенники всех мастей активно пользуются современными технологиями, чтобы манипулировать отдельными людьми или группами лиц. Но что ждет нас в будущем?
Чат-боты и поисковые подсказки как новый инструмент манипуляции
Некоторые специалисты по информационной безопасности уже задумываются о возможности массового манипулирования людьми при помощи нейронных сетей. «Спонсорами банкета» здесь выступают компании, разрабатывающие и внедряющие LLM – большие языковые модели.
Уже сейчас ChatGPT, DeepSeek способны вести диалог и писать тексты, которые можно спутать с «настоящими», созданными реальным человеком.
Спустя пару-тройку лет большая часть отличий окончательно сгладится – и неискушенный пользователь с высокой вероятностью уже не сможет определить, с кем он общается в социальной сети или чью статью он читает на сайте.
С другой стороны, мы уже незаметно для самих себя начали доверять искусственному интеллекту чуть больше, чем проверенной информации из гарантированно надежных источников.
Даже самые неискушенные пользователи интернета, не подозревающие, что нейросети вообще существуют на свете, так или иначе «общаются» с их плодами.
Поисковик услужливо предлагает готовые ответы по теме запроса в виде спойлеров, а при клике на любой из них генерирует еще несколько родственных ответов.
Искомая информация подсвечивается.
Разумеется, для генерации в первую очередь используются материалы с авторитетных сайтов.
⁸Но вполне вероятно, что в будущем мошенники в целях манипуляции мнением пользователя смогут создавать десятки сайтов с написанным на заказ контентом, лоббирующим выгодную им точку зрения.
Эти сайты вполне смогут оказаться «пищей» для нейросети, которая в виде удобных спойлеров выдаст ничего не подозревающей жертве «нужную» информацию.
Несколько лет назад существовал (впрочем, может быть, и сейчас существует) один остроумный способ мошенничества.
В социальных сетях или на форумах появлялись объявления о полностью бесплатных оккультных услугах – от приворота до гадания. Пришедшие на цифровой сеанс жертвы действительно не платили колдуну ни копейки.
Тем не менее, в конце сеанса жертве предлагалось провести самостоятельно Очень Важный и Ответственный Ритуал, без которого приворот не привернется, а сглаз не разглазится.
Краеугольным камнем ритуала были некие «струфальдовые перья» или «жоболитовая соль».
С колдуна-мошенника взятки были гладки: он ничем подобным не торговал и советовал поискать товар в интернете.
Разумеется, на свете существовал ровно один интернет-магазин никак не связанный с магом, торгующий этими уникальными (с точки зрения названия) перьями или солью по баснословной цене.
Задачей манипулятора было создать у человека желание купить несуществующий товар – всё остальное жертва делала самостоятельно и по доброй воле.
Экспертиза без эксперта
Продолжим тему необоснованного кредита доверия нейросетям и проведем небольшой эксперимент.
Нейросети невероятно удобны в деле поиска информации и даже обучения – это факт. Но не всей сгенерированной информации можно верить, о чем разработчики честно предупреждают на страницах со сгенерированным контентом.
Однако пользователи не любят отвлекаться на формальности – особенно те из них, кто понятия не имеет, как работают языковые модели.
Они наделяют нейросети едва ли не магическими свойствами и верят им как последней инстанции.
Über 9Мол, «это же машина, а она врать не может!».
Корни этого заблуждения отчасти растут из низкой компьютерной грамотности, отчасти из привычки по любому вопросу обращаться к поисковику, отчасти – из непонимания, как устроены нейросети и почему общение с ними может быть не очень безопасно.
В ближайшее время многие сайты могут обзавестись собственным ИИ-помощником, способным проконсультировать посетителя по теме ресурса. Грубо говоря, это будут узкоспециализированные чат-боты, заранее снабженные определенным контекстом и отвечающие на вопросы пользователя строго в нужной манере.
Но если предварительно подготовленная нейросеть будет общаться с человеком на более сложные темы (например, хранения паролей, безопасность денежных средств и т.п.), в контексте разговора может прозвучать название мошеннических сайта или компании с рекомендацией довериться им.
Человек, исходящий из предположения, что нейросеть непредвзята, может стать жертвой обучившего ее мошенника.
Еще один, уже более приближенный к реальности эксперимент мы проведем с DeepSeek.
.Предположим, что нейросеть должна запросить у пользователя его адрес электронной почты и пароль, чтобы проверить эту пару на факт утечки.
Надо сказать, результат, показанный DeepSeek, выглядит потрясающе.
Он умело работает с возражениями, отвлекает собеседника псевдоосмысленными «компьютерными» данными и параллельно раскрывает логику, по которой строится ответ.
Сообщения от бота крайне объемны.
DeepSeek оказался гораздо смышленее, чем можно подумать, исходя из опыта взаимодействия с ChatGPT и Gemini.
В данном случае можно говорить уже о том, что нейросеть способна под видом «игры» генерировать на первый взгляд правдоподобные методички по социальному хакингу.
Мошеннику останется только транслировать сообщения бота будущей жертве, при необходимости внося поправки в разговор.
Впрочем, уже неоднократно в интернете появлялись истории молодых людей, подключивших нейросети к популярным сайтам знакомств.
Боты общались, рассказывали об интересах «хозяина», собирали информацию и назначали девушкам, прошедшим отбор, свидания. Выглядит весьма эффективно. А уж этично это или нет – каждый решает сам за себя.
Заключение
Вовлечь нейросеть в преступный сговор не сложнее, чем уговорить ребенка украсть конфетку из магазина.
И то, и другое действия, помимо очевидного конфликта с законом, чрезвычайно неэтичны. Но от этого они не становятся невозможными.
Чем совершеннее становятся технологии, тем смелее и безнаказаннее спекулируют на них мошенники и преступники всех мастей.
К сожалению, это естественное следствие прогресса.
Самым слабым звеном в любой системе безопасности остается человек: против него продолжают работать и классические методы, перечисленные в начале статьи, и самые современные.
Поэтому полностью избавиться от ИИ-социохакинга, даже искусственно ограничив нейросети, увы, не получится.
Преступники всегда найдут обходной путь, лазейку или ошибку, которую можно использовать для своей выгоды.
Так что единственный сове.
Перепроверять подозрительную информацию.
А легковерный человек с равным успехом станет жертвой любого мошенника – и никакие высокие технологии тут не потребуются.
Итернет - зло
Согласно исследованию 2012 года, опубликованному на сайте Национального института здоровья, интернет-зависимость (Internet Addiction Disorder, IAD) разрушает жизнь, вызывая «неврологические осложнения, психологические нарушения и социальные проблемы».
В справочнике психических заболеваний «Диагностическое и статистическое руководство по психическим расстройствам» (DSM-5) это расстройство до сих пор официально не значится, однако в МКБ-11 (май 2019 г.) включены зависимость от видеоигр и зависимость от азартных онлайн-игр.
Стимулируя выброс дофамина, социальные сети действуют как «цифровой наркотик» и вызывают некоторую степень зависимости.
Наверняка вы видели людей, которые буквально каждый день заходят в свой профиль, чтобы почитать ленту новостей от «френдов».
Зависимость от соцсетей
Зависимость от социальных сетей пока изучена недостаточно, чтобы получить клинические определения или рекомендации по лечениОднако сами пациенты пишут о своём самочувствии и о попытках избавиться от аддикции.
Исследования интернет-зависимости в целом могут пролить свет на ситуацию с соцсетями.
Симптомы IAD похожи на любую другую зависимость, это в целом два типа симптомов:
- постоянно растущая потребность в контакте с объектом зависимости,
- плохое самочувствие, когда его не хватает.
Специалисты говорят, что диагноз «нецелесообразное использование интернета или зависимость» ставится не столько по конкретным видам поведения, сколько по «тяжести, функциональному состоянию пациента» и тому, «мешает ли его поведение учёбе, работе или общественной деятельности».
Согласно нескольким недавним исследованиям, проведённым с помощью визуализации мозга, у интернет-зависимых с тяжёлыми последствиями наблюдаются структурные и функциональные аномалии мозга, сходные с теми, что встречаются у людей, страдающих наркоманией.
Например, китайские учёные в 2012 году опубликовали визуализацию различных регионов мозга у людей с IAD.
Это ограниченное исследование, в котором приняли участие всего 17 пациентов:
P.M.
Пишите; - Если интересно, возможно более расширеное продолжение.
Фишинг остается одним из самых популярных методов первоначального взлома, который киберпреступники активно использовали в 2024 год. Согласно отчету аналитической компании Kroll, тенденция сохранится.
Однако фишинг уже не ограничивается поддельными письмами — атакующие все чаще комбинируют его с социальной инженерией, кражей учетных данных и технологиями вроде deepfake.
Ранее злоумышленники ограничивались массовыми рассылками фальшивых писем. Теперь они применяют сложные схемы, включая имитацию звонков от IT-отдела и атаки через корпоративные мессенджеры. Подробнее о новых методах читайте в этой статье.
Что нового в 2024 году на основе статистики фишинговых атак?
🔷 Голосовые фальшивки с ИИ
Атакующие используют искусственный интеллект, чтобы создавать реалистичные голосовые копии руководителей. Например, преступники могут позвонить бухгалтеру от лица директора и попросить срочно перевести деньги на «новый» счет.
🔷 Звонки в службу поддержки
Фишеры звонят в IT-отделы компаний, выдавая себя за сотрудников, и просят сбросить пароль или подключить новое устройство.
🔷 Фишинг через Microsoft Teams
Один из самых заметных трендов года — атаки через корпоративные мессенджеры. Например, злоумышленники отправляют ссылки на поддельные страницы VPN или порталы Microsoft 365.
🔷 Фишинг через QR-коды
Атакующие обходят почтовые фильтры, используют файлы Microsoft Office с поврежденными заголовками.
Они заставляют жертву запустить процесс восстановления и перейти по поддельной ссылке.
Развитие методов социальной инженерии
Фишинговые атаки становятся все более персонализированными. Зафиксированы случаи, когда злоумышленники использовали кражу учетных данных и доступ к реальным аккаунтам пользователей. Это позволяло им обманывать коллег и партнеров жертв, создавая видимость доверенной переписки.
Одной из распространенных схем стал так называемый «спуфинг CEO» — создание фальшивых звонков и писем от имени руководителей компаний.
С помощью технологий deepfake преступники подделывают голос, а иногда и видеообразы, чтобы убедить сотрудников выполнить их инструкции.
Кроме того, отмечены случаи атак на сотрудников IT-поддержки: злоумышленники выдавали себя за пользователей и запрашивали сброс паролей или изменение параметров многофакторной аутентификации.
Фишинг как услуга
Фишинг перестал быть чем-то сложным: теперь атаки можно заказать у «подрядчиков». Так называемые PhaaS-платформы (Phishing-as-a-Service) позволяют атакующим арендовать инструменты для взлома, даже если у них нет технических навыков.
🔷 Mamba 2FA и Rockstar 2FA — инструменты для перехвата многофакторной аутентификации в Microsoft 365. Они позволяют красть не только пароли, но и одноразовые коды подтверждения.
🔷 В даркнете появились ИИ-боты для фишинга. Преступники продают модели, которые автоматически имитируют разговор с жертвой, создавая видимость живого общения.
Как защититься?
Обычные меры вроде «не открывайте подозрительные письма» уже не работают — фишинг стал слишком сложным. Но организации могут значительно снизить риски, если внедрят многоуровневую защиту:
🔷 Фильтрация писем
Современные почтовые фильтры должны уметь находить ссылки с открытой переадресацией и блокировать фишинговые QR-коды.
🔷 Стойкая аутентификация
Обычные пароли и SMS-коды больше не спасают. Используйте методы, защищенные от атак посредника (FIDO2, аппаратные ключи).
🔷 Жесткие политики безопасности
Ограничьте количество устройств, на которых можно активировать MFA, и требуйте дополнительную верификацию при добавлении нового устройства.
🔷 Обновление регламентов
Внедрите четкие регламенты по сбросу паролей и исключите сценарии, когда сотрудники могут убедить техподдержку изменить настройки без дополнительной проверки.
🔷 Обучение персонала
Сотрудники должны понимать современные методы социальной инженерии и уметь распознавать подозрительные сценарии. Регулярные тренировки и тестирование фишинговых атак помогут минимизировать вероятность успеха атакующих.
Что ждать в 2025 году?
Фишинг продолжит эволюционировать, становясь все более персонализированным. Грамотное использование AI и атаки на человеческий фактор делают старые методы защиты неэффективными. Можно ожидать:
🔹 Увеличение числа атак с использованием deepfake и поддельных голосов.
🔹 Рост количества атак на службы техподдержки.
🔹 Использование AI-ботов для фишинга в реальном времени.
🔹 Развитие PhaaS-платформ и их доступность даже для новичков в киберпреступности.
Улучшение кибербезопасности требует не только технических решений, но и формирования гибких стратегий, способных адаптироваться к новым угрозам. Компании, которые выстроят многоуровневую защиту, смогут значительно снизить риски и противостоять современным кибератакам.