Das sollten Sie über Audio-Deepfakes wissen!

Die Anwendung künstlicher Intelligenz bringt eine Menge positiver und negativer Auswirkungen mit sich. Eine der KI zahlreichen Anwendungen sind sogenannte Deepfakes. Dabei werden mittels KI, Personen oder Figuren in Form von Audio und Video täuschend echt nachgeahmt. Dies wird jedoch oft mit negativer Absicht eingesetzt, um Betrugsmaschen oder Fake-News zu verbreiten.

Wie funktionieren Audio-Deepfakes?

Anhand von großen Mengen von Sprachdaten einer Person kann mithilfe einer KI ein Audio-Deepfake erstellt werden. Dabei werden die Sprachdaten transkribiert und zu sogenannten Text-Sprachpaaren verarbeitet. Anhand dieser Paare kann die KI die Nachahmung lernen.

Bei Audio-Deepfakes werden grundsätzlich 2 Arten unterschieden:

Text-to-Speech-ModelleVoice-Conversion-Modelle
Wandelt geschriebenen Text in gesprochene Sprache um.Ändert sie Stimme einer Person, indem sie andere Sprachcharakteristika anwendet.

Welche Gefahren verbergen sich hinter Audio-Deepfakes?

Die Anwendung von Audio-Deepfakes ist grundsätzlich sehr effektiv in der Filmindustrie oder für Sprachrekonstruktionen. Leider wird die Deep Learning Technik jedoch meist für Betrugsmaschen oder zur Verbreitung von Fake News verwendet.

Oft werden dabei Tonaufnahmen verwendet, um Politiker*innen oder große Unternehmen täuschend echt nachzuahmen. Ziel ist es, die Personen oder Unternehmen ins schlechte Licht zu stellen oder Falschinformationen zu verbreiten.

Betrüger*innen können aber auch mit einer künstlich generierten Stimme Anrufe tätigen, Sprachmemos aufnehmen oder reale Videoaufnahmen sprachlich verändern. Der sogenannte „Enkeltrick“ ist dabei eine sehr häufige Betrugsmasche:

Dabei geben sich die Betrüger*innen als Angehörige des Opfers aus und bitten um Geld. Oft genügen schon wenige aus sozialen Medien kopierte Audioaufnahmen, um die Stimme einer Person realistisch genug nachzuahmen. Social Media wird von den Kriminellen außerdem genutzt, um die Identität des Opfers beziehungsweise der Angehörigen zu recherchieren.

3 Tipps, um sich vor dem Missbrauch von Audio-Deepfakes zu schützen

  1. Prüfen Sie die Quelle einer Aussage, bevor Sie ihr Glauben schenken
    Stellen Sie sicher, dass die Informationen tatsächlich der Wahrheit entsprechen, indem Sie eine Quelle im Internet dazu suchen.
  2. Vorsicht bei fremden Telefonnummern
    Fremde Nummern oder Telefonnummern aus dem Ausland werden meist für solche Betrugsmaschen herangezogen. Nutzen Sie Online-Tools, um die ausgehende Gefahr der jeweiligen Telefonnummer zu überprüfen.
  3. Stellen Sie keine Audio-Inhalte von Ihrer Stimme auf Social Media
    Bereits mit geringen Daten Ihrer Stimme können Audio-Deepfakes erstellt werden. Sollten Sie dem entgegenwirken wollen, sollten Sie keine Audio-Inhalte von Ihrer Stimme online stellen.

Sicher am Telefon mit benefit!

Wir von benefit sind ein externes Sekretariat für Unternehmen. Dabei leiten Sie einfach Ihre eingehenden Anrufe an uns um und wir nehmen Ihre Anrufe in Ihrem Namen entgegen. Betrüger*innen und Spam-Anrufe werden dabei von uns vorab aufgefangen.

Unsere Team besteht aus professionell geschulten Mitarbeiter*innen, die genau wissen worauf es bei Telefongesprächen ankommt. Ihre Anrufer*innen werden bei uns mit einer individuellen Begrüßung empfangen und ausführlich direkt am Telefon beraten und ggf. auch direkt an den jeweiligen Ansprechpartner weitergeleitet. Auf Anfrage übernehmen wir auch Ihre Terminkoordination direkt in Ihrem Online-Terminkalender.

Sie haben Interesse an einem Telefonservice von benefit? Dann buchen Sie gerne direkt online oder vereinbaren Sie sich ein unverbindliches Beratungsgespräch mit eine*r unserer Mitarbeiter*innen.

Wir freuen uns auf Ihre Anfrage!

Telefonservice für alle Branchen und Größen
Benefit Büroservice GmbH hat 4,89 von 5 Sternen 359 Bewertungen auf ProvenExpert.com