PixaBay.com
StockSnap

Изнудвачи използват AI за генериране на фалшиви голи снимки

За основа могат да се взимат изображения от социалните медии

Александър Главчев

PixaBay.com

© StockSnap


Федералното бюро за разследване (ФБР) на САЩ излезе с предупреждение за нарастваща тенденция за използване на на т.нар. дийпфейкове (deepfakes) с цел сексуално изнудване. В много случаи компрометиращото съдържание не е действително, като измамниците само се преструват, че имат достъп до лични снимки на жертвите си или създават такива чрез системи с изкуствен интелект, използвайки като основа реални изображения от социални медии.

Въпреки че произведените изображения или видеоклипове не са истински, те изглеждат реални и могат да служат за изнудвания. Изпращането на подобни материали например до семейството на жертвата, до нейни колеги и т.н. може да причини голяма лична вреда и увреди нейната репутация.

"Към април 2023 г. ФБР забелязва ръст при жертвите на сексуално изнудване (sextortion), съобщаващи за използването на фалшиви изображения или видеоклипове, създадени от съдържание, публикувано на техните сайтове в социални медии или публикации в мрежата, предоставени на измамника при поискване или заснети по време на видеочатове", гласи предупреждението, публикувано от ФБР.

"Въз основа на скорошни оплаквания на жертви зловредните участници обикновено изискват: 1. Плащане (например пари, карти за подаръци), съпроводено със заплахи за споделяне на изображения или видеоклипове с членове на семейството или приятели в социалните медии, ако средствата не бъдат получени; или 2. Жертвата да изпрати реални изображения или видеоклипове на сексуална тема."

Според ФБР създателите на такова съдържание понякога изобщо не изнудват, а публикуват създадените видеоклипове направо в порнографски уебсайтове, излагайки жертвите на голяма аудитория без тяхно знание или съгласие.

В някои случаи сексуалните изнудвачи използват такива вече публикувани материали, за да увеличат натиска върху жертвата, като изискват плащане за премахване на публикуваните изображения/видеоклипове.

Как да се предпазим?

В препоръките си ФБР призовава да не се плащат каквито и да е откупи, тъй като това не гарантира, че престъпниците така или иначе няма да публикуват фалшивите изображения.

Експертите също така съветват потребителите да бъдат внимателни при споделяне на лична информация и съдържание онлайн, включително чрез използване на функции за поверителност като правене на акаунти частни, наблюдение на онлайн активността на децата и наблюдение за необичайно поведение от страна хора, с които даденият човек е взаимодействал в миналото.

Освен това родителите е добре да извършват периодични онлайн търсения, за да определят степента на излагане на децата си онлайн и да предприемат действия за превантивно премахване на съдържание.

При откриване на фалшиво съдържание например на порнографски сайтове, съветът е да се подават сигнали до властите, както и до хостинг платформата за премахването на въпросните снимки или видеа.

Федералното бюро за разследване (ФБР) на САЩ излезе с предупреждение за нарастваща тенденция за използване на на т.нар. дийпфейкове (deepfakes) с цел сексуално изнудване. В много случаи компрометиращото съдържание не е действително, като измамниците само се преструват, че имат достъп до лични снимки на жертвите си или създават такива чрез системи с изкуствен интелект, използвайки като основа реални изображения от социални медии.

Въпреки че произведените изображения или видеоклипове не са истински, те изглеждат реални и могат да служат за изнудвания. Изпращането на подобни материали например до семейството на жертвата, до нейни колеги и т.н. може да причини голяма лична вреда и увреди нейната репутация.

Най-новото

5 начина да се защити облачният бекъп

5 начина да се защити облачният бекъп

  • 0


И ЦРУ разработва генеративен чатбот

И ЦРУ разработва генеративен чатбот

  • 0



ЕС блокира сливането на Booking.com и eTravel

ЕС блокира сливането на Booking.com и eTravel

  • 1

Джон Кармак: Изкуствен интелект на човешко ниво - около 2030 г.

Джон Кармак: Изкуствен интелект на човешко ниво - около 2030 г.

  • 0

Как ще се оформи цифровото бъдеще на Европа според GSMA

Как ще се оформи цифровото бъдеще на Европа според GSMA

  • 0


Още от Digitalk ›
С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК