На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

ГТРК Татарстан

22 подписчика

Свежие комментарии

  • Татьяна Бутова
    Наверное мало покоя  и много показухи. Курицам - на марафон!!!!Минниханов пригла...
  • Владислав Петряев
    Интересно, как КНР воспринимает этот визит и укрепление (развитие) наших отношений с Индией?Моди обсудит с Пу...

В Татарстане женщина получила звонок от имени покойной матери

Мошенники научились подделывать голоса умерших родственников  — в Татарстане женщина получила звонок от имени покойной матери, за разговор просили десятки тысяч рублей. И это не единственный случай в России. С помощью нейросети подделали голос погибшей матери жертвы, объяснили, что якобы тибетские монахи научили связывать миры — наш и потусторонний, но сеанс платный, продолжить разговор стоит 20 тысяч рублей.

Подобный звонок от умершего сына получила и пенсионерка из Курганской области, чтобы продлить его мошенники потребовали 100 тысяч рублей. За основу берут голосовые сообщения в мэссенджерах, учитывают тембр, интонацию, речевые особенности, добавляют даже фоновый звук – улицы, телевизора, кипящего чайника, давят психологически, играют на чувствах жертвы.

«Голосовому гипнозу обычно подвергаются обычно малозащищенные люди, такие как дети, женщины, пожилые. Они находясь, в состоянии потери слыша голос умершего верят во все это, критическое мышление пропадает, включается магическое мышления и они делают, что говорят мошенники» — рассказала врач-психотерапевт, психолог, психиатр, кандидат психологических наук Фарида Волгина

В группе особо риска – дети. Им могут поступать звонки от имени родственников, мошенники голосом мамы или папы просят детей выйти из дома, школы, сделать что-то непоправимое. Достаточно всего минутной записи голоса, чтобы подделать его, считают эксперты. Мы провели эксперимент, на экране приветствие Вестей от имени нейросети, сделанное всего за минуту

Прогнозы неутешительные – всего через год искусственный интеллект с помощью одной фотографии и голосовой записи сможет создавать видео, а к базе номеров телефонов мошенников, могут добавиться базы голосов и фотографий.

«Если приходит  сообщения, оно может прийти даже в видео-кружочке, нет такого, что если это голосовое сообщение или кружочек, то это точно реальный человек» — объяснила эксперт по искусственному интеллекту Дания Поникарова

Специалисты по нейросетям и психологи советуют придумать кодовое слово, которое будете знать только Вы и угадать его невозможно. И если звонок от мошенников все-таки поступил, кодовое слово поможет понять кто на другом конце провода.

Ссылка на первоисточник

Картина дня

наверх