В «Лаборатории Касперского» рассказали, как вычислить дипфейк
. Эксперты призвали обращать внимание на качество звука«Лаборатория Касперского»: голосовой дипфейк выдает неестественная монотонность речи
Голосовой дипфейк выдает неестественная монотонность речи. Именно эта особенность может помочь распознать звонок или сообщение от мошенников, рассказали эксперты «Лаборатории Касперского».
Технология искусственного интеллекта под названием deepfake (от deep learning, «глубинное обучение», + fake, «подделка») позволяет с использованием машинного обучения создавать подделки изображений, видео- или аудиоданных.
Также маркером, на который стоит обратить внимание, может стать качество звучания. Если во время звонка или голосового сообщения пользователь заметил неразборчивость речи или странные шумы, следует насторожиться.
«Риск столкнуться с подобным мошенничеством мал, но есть, поэтому про подобные виды обмана стоит знать и помнить. Если вам поступает необычный звонок, обращайте внимание на качество звучания, неестественную монотонность голоса, неразборчивость речи, шумы. Помните, что эффект неожиданности — это оружие злоумышленников, которые рассчитывают вызвать у вас панику», — отметили эксперты.
Технология дипфейков безвредна, однако в руках мошенников она может стать опасным инструментом для обмана и дезинформации, отмечают специалисты. В «Лаборатории Касперского» привели в пример случай, который произошел в 2019 году. Тогда мошенники при помощи голосового дипфейка ограбили британскую энергетическую компанию.
«В телефонном разговоре злоумышленник притворился генеральным директором головного немецкого подразделения компании и потребовал срочно перевести €220 000 ($243 000) на счета некоей компании-поставщика. После того как платеж был отправлен, мошенник звонил еще дважды: первый раз — чтобы усыпить бдительность сотрудников британского офиса и сообщить, что головной офис уже отправил возмещение этой суммы, а второй — чтобы затребовать еще один перевод», — рассказали специалисты.
Эксперты посоветовали не доверять подозрительным звонкам, не сообщать личную информацию. Для серьезных случаев можно придумать кодовые слова, которые помогут понять, кто находится на другом конце провода — дипфейк или знакомый человек.
Ранее в «Лаборатории Касперского» сообщили, что мошенники стали активнее использовать в своих схемах ChatGPT. При помощи нейросети они создают в том числе голосовые дипфейки. Специалисты объяснили, что использование искусственного интеллекта позволяет злоумышленникам упростить и ускорить их «работу». Популярны также видеодипфейки. Чаще всего используют лица знаменитостей, которые предлагают пользователям вложиться в «выгодные» инвестиционные схемы.