15 Sekunden Sprachaufnahme reichen – dann soll das KI-Programm „Voice Engine“ eine Stimme klonen können. ChatGPT-Entwickler OpenAI stellte die Technik nun vor. Auch wegen des Wahljahres will er sie vorerst aber nicht freigeben.
Die Entwicklerfirma hinter ChatGPT hat eine Technologie zum Klonen echter Stimmen enthüllt. Das Programm könne eine menschliche Stimme binnen 15 Sekunden nach einer Sprachaufnahme imitieren, teilte OpenAI mit.
Demnach trägt das neue Tool den Namen „Voice Engine“. Erst kürzlich hatte das Unternehmen die Technologie als Marke angemeldet.
Gefahr des Missbrauchs
Wegen Sicherheitsbedenken soll „Voice Engine“ aber zunächst nicht auf den Markt geworfen werden. Geplant sei, das Produkt mit Vortestern zu prüfen, doch sei eine breite Freigabe dieser Technologie wegen der Gefahr des Missbrauchs aktuell nicht vorgesehen.
„Wir sind uns bewusst, dass die Erzeugung von Stimmen, die denen von Menschen ähneln, ernsthafte Risiken birgt“, so das Unternehmen. Diese seien in einem Wahljahr besonders zu beachten. Man arbeite mit Partnern unter anderem aus den Bereichen Politik, Medien, Unterhaltung, Bildung und Zivilgesellschaft zusammen, ihr Feedback werde bei der Entwicklung berücksichtigt.
Click here to preview your posts with PRO themes ››
Fachleute fürchten einen Missbrauch von Anwendungen, die Künstliche Intelligenz (KI) nutzen. In diesem Jahr finden unter anderem Europawahlen und die US-Präsidentschaftswahl statt. Es gibt immer mehr Programme zum Klonen von Stimmen, die billig, einfach zu nutzen und schwer zu verfolgen sind.
„Vorsichtiger“ Ansatz für breitere Freigabe
OpenAI erklärte, sich dieser Probleme bewusst zu sein. Aufgrund des Potenzials für den Missbrauch synthetischer Stimmen habe sich das Unternehmen für einen „vorsichtigen“ Ansatz für eine breitere Freigabe entschieden. Partner, die „Voice Engine“ testeten, hätten Regeln zugestimmt. Diese sehen demnach unter anderem die ausdrückliche Zustimmung jedes Menschen vor, dessen Stimme mit dem Programm dupliziert wird. Außerdem müsse den Hörern deutlich gemacht werden, dass die Stimmen, die sie hören, von KI generiert wurden.
Im US-Staat New Hampshire ermitteln die Behörden etwa zu von einer künstlichen Intelligenz generierten Anrufen, bei denen die Stimme von Präsident Joe Biden imitiert wurde, um Menschen von der Stimmabgabe bei der dortigen Vorwahl im Januar abzuhalten.