Der Einsatz künstlicher Intelligenz hat sowohl positive als auch negative Auswirkungen. Eine bemerkenswerte Anwendung dieser Technologie sind sogenannte Deepfakes. Dabei werden Personen oder Charaktere durch KI in Audio- und Videoinhalten täuschend echt imitiert. Leider wird diese Technologie häufig missbraucht, um Betrug oder die Verbreitung von Fake-News zu fördern.
Wie funktionieren Audio-Deepfakes?
Anhand von großen Mengen von Sprachdaten einer Person kann mithilfe einer KI ein Audio-Deepfake erstellt werden. Dabei werden die Sprachdaten transkribiert und zu sogenannten Text-Sprachpaaren verarbeitet. Anhand dieser Paare kann die KI die Nachahmung lernen.
Bei Audio-Deepfakes werden grundsätzlich 2 Arten unterschieden:
Text-to-Speech-Modelle | Voice-Conversion-Modelle |
---|---|
Wandelt geschriebenen Text in gesprochene Sprache um. | Ändert sie Stimme einer Person, indem sie andere Sprachcharakteristika anwendet. |
Welche Gefahren verbergen sich hinter Audio-Deepfakes?
Die Nutzung von Audio-Deepfakes kann in der Filmindustrie und bei Sprachrekonstruktionen äußerst wirkungsvoll sein. Leider wird die Deep Learning Technologie jedoch häufig für Betrugsversuche und die Verbreitung von Falschinformationen missbraucht.
Oft werden dabei Tonaufnahmen verwendet, um Politiker*innen oder große Unternehmen täuschend echt nachzuahmen. Ziel ist es, die Personen oder Unternehmen ins schlechte Licht zu stellen oder Falschinformationen zu verbreiten.
Betrüger*innen können aber auch mit einer künstlich generierten Stimme Anrufe tätigen, Sprachmemos aufnehmen oder reale Videoaufnahmen sprachlich verändern. Der sogenannte „Enkeltrick“ ist dabei eine sehr häufige Betrugsmasche:
Dabei geben sich die Betrüger*innen als Angehörige des Opfers aus und bitten um Geld. Oft genügen schon wenige aus sozialen Medien kopierte Audioaufnahmen, um die Stimme einer Person realistisch genug nachzuahmen. Social Media wird von den Kriminellen außerdem genutzt, um die Identität des Opfers beziehungsweise der Angehörigen zu recherchieren.
3 Tipps, um sich vor dem Missbrauch von Audio-Deepfakes zu schützen
- Prüfen Sie die Quelle einer Aussage, bevor Sie ihr Glauben schenken
Stellen Sie sicher, dass die Informationen tatsächlich der Wahrheit entsprechen, indem Sie eine Quelle im Internet dazu suchen. - Vorsicht bei fremden Telefonnummern
Fremde Nummern oder Telefonnummern aus dem Ausland werden meist für solche Betrugsmaschen herangezogen. Nutzen Sie Online-Tools, um die ausgehende Gefahr der jeweiligen Telefonnummer zu überprüfen. - Stellen Sie keine Audio-Inhalte von Ihrer Stimme auf Social Media
Bereits mit geringen Daten Ihrer Stimme können Audio-Deepfakes erstellt werden. Sollten Sie dem entgegenwirken wollen, sollten Sie keine Audio-Inhalte von Ihrer Stimme online stellen.
Sicher am Telefon mit benefit!
Wir von Benefit bieten ein externes Sekretariat für Unternehmen an. Sie können Ihre eingehenden Anrufe einfach an uns weiterleiten, und wir nehmen diese in Ihrem Namen entgegen. Betrügerische und Spam-Anrufe werden von uns im Vorfeld gefiltert.
Unser Team besteht aus professionell geschulten Mitarbeiter*innen, die genau wissen, worauf es bei Telefongesprächen ankommt. Ihre Anrufer*innen werden bei uns individuell begrüßt und umfassend am Telefon beraten. Falls erforderlich, leiten wir sie direkt an den/die zuständige*n Ansprechpartner*in weiter. Auf Wunsch übernehmen wir auch die Terminkoordination in Ihrem Online-Kalender.
Interessieren Sie sich für unseren Telefonservice? Dann buchen Sie gerne direkt online oder vereinbaren Sie ein unverbindliches Beratungsgespräch mit einem*r unserer Mitarbeiter*innen.
Wir freuen uns auf Ihre Anfrage!