Deepfake głosowy. Rośnie zagrożenie klonowaniem głosu

Eksperci cyberbezpieczeństwa ostrzegają przed rosnącym zagrożeniem klonowaniem głosu i traktowanie tego przez oszustów jako usługę (ang. voice cloning-as-a-service), którą sprzedają lub do której uzyskują dostęp – za niewielką opłatą. Celem takiego działania jest oszukanie ofiary i prawdopodobnie żądanie okupu. Sztuczna inteligencja oraz programy oparte na uczeniu maszynowym sprawiają, że rodzą się właściwie nieograniczone możliwości tworzenia deepfake’ów – zarówno w formie wideo, jak i audio, kiedy twórca fałszywego materiału stworzy własną wypowiedź z użyciem cudzego głosu lub/i wizerunku, podszywając się pod kogoś – np. bliską nam osobę. Tego typu zagrywki były już stosowane np. w USA w stanie Arizona, gdzie matka 15-letniej dziewczynki usłyszała w słuchawce zapłakany głos córki, a następnie żądanie okupu za jej rzekome „uwolnienie”. Szybko okazało się, że doszło do sklonowania głosu córki, a sama przebywa… bezpiecznie w swoim pokoju.

/więcej/