Deep fake audio jest już w zasięgu ręki każdego. Uruchomili serwis, gdzie można załadować próbkę głosu i generować dowolną wypowiedzianą nim frazę
31 stycznia 2023, deep-fake-audio-juz-w-zasiegu-reki
Oczywiście wymagane jest odznaczenie potwierdzenia, że mamy prawo do używania danego głosu, ale część osób niezbyt się przejmuje tego typu checkboxami. Engadget donosi np. o przypadkach klonowania głosów celebrytów, którzy następnie „wypowiadali” rozmaite kompromitujące frazy.
Inny przykład niedobrego zastosowania tej technologii to zaawansowany vishing – tego typu jak np. ten.
Regularni czytelnicy sekuraka pamiętają pewnie niedawnego newsa o podobnym projekcie Microsoftu, gdzie do sklonowania głosu wystarczyło raptem parę sekund nagrania (ale nie udostępniono prostego interfejsu umożliwiającego upload dowolnego głosu). Microsoft zastrzega:
Since VALL-E could synthesize speech that maintains speaker identity, it may carry potential risks in misuse of the model, such as spoofing voice identification or impersonating a specific speaker. We conducted the experiments under the assumption that the user agree to be the target speaker in speech synthesis. If the model is generalized to unseen speakers in the real world, it should include a protocol to ensure that the speaker approves the use of their voice and a synthesized speech detection model.
Dla Polaków jest też dobra informacja – zobaczcie dopisek na pierwszym zrzucie: „currently works best on US-English accent”.