Пока мы продолжаем осваивать чудеса искусственного интеллекта (ИИ), мошенники нашли новый способ использования этой технологии. Количество мошеннических звонков с использованием голосов, генерируемых искусственным интеллектом, растет, и тысячи людей уже стали жертвами этого вида мошенничества.

По данным Android Authority, мошенники используют искусственный интеллект, чтобы имитировать голоса друзей или родственников жертвы, чтобы обманом заставить их раздать конфиденциальную информацию или деньги. Этот тип мошенничества стал вторым по популярности видом мошенничества : только в 2022 году было зарегистрировано более 36 000 случаев. К сожалению, более 5000 из этих жертв потеряли деньги по телефону, что в сумме привело к экономическим потерям в размере 11 миллионов долларов.

Пожилые люди — самые уязвимые

Пожилые люди наиболее уязвимы для этих мошенников, так как они с большей вероятностью будут обмануты фальшивыми звонками. На самом деле, одна особенно шокирующая история связана с пожилой парой, которая отправила 15 000 долларов через биткойн-терминал мошеннику, полагая, что разговаривает со своим сыном. Сгенерированный ИИ голос убедил их, что у их сына проблемы с законом после убийства американского дипломата в автокатастрофе.

Ответственность за ущерб пока неясна

К сожалению, суды еще не решили, могут ли компании нести ответственность за ущерб, причиненный этими мошенничествами. Это вызывает беспокойство, поскольку мошенники продолжают эксплуатировать уязвимых лиц, используя ИИ в качестве своего новейшего оружия.

Поскольку мы продолжаем наблюдать стремительное развитие технологии искусственного интеллекта, важно сохранять бдительность и быть в курсе возможных мошеннических действий. Не забывайте всегда проверять личность человека на другом конце линии и никогда не делитесь конфиденциальной информацией и не переводите деньги, не проверив законность запроса.

Добавить комментарий