Scroll Top

Audio Deep Fake: Wie schützen wir uns vor Missbrauch?

20221130_SM_ESPESY_CR_Statement_1_EN_LK

Deep Fake ist eine faszinierende Technologie. Doch wie schützen wir uns vor Missbrauch?

Wie professionell Deep Fake-Technologie heute bereits arbeitet, hören wir an unserer eigenen KI. Mit wenigen Original-Sprachaufnahmen der ehemaligen Deutschen Bundeskanzlerin Angela Merkel ist es uns gelungen, einen verblüffend echt-klingenden Clone ihrer Stimme zu produzieren. Siehe ESPESY Deep Fake Artikel.

Wie also soll unsere Gesellschaft mit Technologien wie dieser in Zukunft umgehen?

Lasst uns dazu kurz zurückblicken. Denn das Thema Fake ist vermutlich so alt wie die Sprache. Schon vor Jahrhunderten konnte man Lügen erzählen, die Unterschrift anderer Personen fälschen oder falsche Zitate verbreiten. Heute besitzt jeder die Möglichkeit Fotos oder Audioaufnahmen mit dem Smartphone zu machen, zu verändern und weltweit zu verbreiten. Und auch der Enkel-Trick funktioniert bereits ohne Sprachsynthese.

Daher ist es weniger eine Frage der Technologie, als eine gesellschaftliche. Die Technologie selbst ist nur ein Werkzeug.

Es braucht einen gesellschaftlichen Diskurs, bei dem vor allem Ethiker*innen, Politiker*innen und Jurist*innen gefragt sind.

Es braucht klare Regeln, Gesetze und Kontrollmechanismen, um z.B. das Persönlichkeitsrecht des Individuum zu wahren. Im Grunde verhält es sich wie mit jeder anderen Technologie auch.

WESOUND