Głos Dawida Podsiadły wykorzystywany przez oszustów! Ostrzeżenie

Cyberprzestępcy stale rozwijają i zmieniają swoje metody, aby unikać wykrycia i skuteczniej oszukiwać swoje ofiary. Niestety, sztuczna inteligencja odgrywa w tym coraz większą rolę.
Jedną z metod jest deepfake audio, w ramach której AI podrabia głos innych ludzi. Z jej zastosowaniem możliwe jest używanie fałszywego głosu znanych osób, np. Dawida Podsiadły.
Zobacz też: Scarlett Johansson idzie na wojnę z OpenAI! Bezprawnie użyli jej głosu?
Oszuści ukradli głos Dawida Podsiadły
CSIRT KNF – Zespół Reagowania na Incydenty Bezpieczeństwa Komputerowego polskiego sektora finansowego wystosował apel do wszystkich użytkowników internetu w związku z używaniem fałszywego głosu znanych osób w celu pozyskania danych i namówienia do fałszywych inwestycji.
Reklama ta pojawia się na Facebooku. Widoczne na niej jest zdjęcie piosenkarza Dawida Podsiadły, którego głos został wykorzystany do wypowiedzenia zdania: „Pilnie usuń wywiad, który nagraliśmy wczoraj. To kwestia życia i śmierci”. Zainteresowane osoby po kliknięciu w reklamę zostają przekierowane do strony zachęcającej do pozostawienia swoich danych kontaktowych, które następnie służą przestępcom do kontaktu z ofiarami w celu wyłudzenia od nich środków pieniężnych.
Uwaga na nowy wariant oszustwa! Cyberprzestępcy przy użyciu narzędzi sztucznej inteligencji tworzą nagrania, w których wykorzystują pozyskaną próbkę głosu. Oszuści podszywają się pod osoby znane medialnie i próbują namówić do fałszywych inwestycji.
Posłuchajcie!
Zobacz też: Mark Zuckerberg pokazuje przyszłość. Używa Ray-Banów ze sztuczną inteligencją do zrobienia córce warkocza!