Tencent und Hume transformieren KI-Stimme und Sound mit EzAudio und EVI 2 - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – Der Bereich der Künstlichen Intelligenz entwickelt sich rasant weiter, insbesondere im Bereich der Audio- und Sprachtechnologie. Zwei innovative Lösungen stehen derzeit an der Spitze dieses Rennens: Tencents EzAudio und Hume AIs EVI 2. Während beide Technologien bahnbrechende Fortschritte bei der Erzeugung lebensechter Töne und Stimmen bieten, tragen sie jeweils einzigartige Beiträge zur wachsenden KI-Audiolandschaft bei. Diese Entwicklungen unterstreichen die zunehmende Nachfrage nach hochwertigen, anpassbaren Audio- und Sprachlösungen, werfen jedoch auch neue Fragen zu Ethik, Zugänglichkeit und potenziellem Missbrauch auf.



Tencents EzAudio AI, entwickelt von Forschern der Johns Hopkins University und des Tencent AI Lab, stellt ein neues Text-zu-Audio (T2A) Generationsmodell vor, das überlegene Klangeffekte aus Textvorgaben liefert. Das EzAudio-System arbeitet im latenten Raum von Audiowellenformen, eine Technik, die sich von herkömmlichen spektrogrammbasierten Methoden unterscheidet, was zu einer verbesserten zeitlichen Auflösung führt und die Notwendigkeit neuraler Vocoder überflüssig macht.

Das Herzstück dieser Technologie liegt in ihrer Architektur, EzAudio-DiT (Diffusion Transformer), das Innovationen wie adaptive Layer-Normalisierung (AdaLN-SOLA) und Long-Skip-Verbindungen nutzt, um Leistung und Effizienz zu steigern. Das Modell hat sich in verschiedenen Metriken, wie Frechet Distance (FD) und Inception Score (IS), als überlegen gegenüber bestehenden Open-Source-Audiogenerationsmodellen erwiesen.

Die Veröffentlichung von EzAudio erfolgt zu einem Zeitpunkt, in dem der KI-Audiomarkt an Fahrt aufnimmt. Mit Spielern wie ElevenLabs, die neue Apps starten, und Tech-Giganten wie Microsoft und Google, die in die Stimmensimulation investieren, steigt die Nachfrage nach hochwertigen Audiogenerationslösungen. Experten prognostizieren, dass bis 2027 40% der generativen KI-Technologien Text-, Bild- und Audiofähigkeiten integrieren werden, ein Trend, bei dem EzAudio eine entscheidende Rolle spielen könnte.

Neben diesen Fortschritten werden jedoch auch ethische Bedenken hinsichtlich KI-generierter Audioinhalte, wie der Missbrauch von Deepfakes und unerlaubter Stimmklonung, immer präsenter. Die Open-Source-Natur von EzAudio mit verfügbarer Codebasis, Datensätzen und Modell-Checkpoints zielt darauf ab, Transparenz und Zusammenarbeit in der KI-Community zu fördern, was diese Risiken möglicherweise mindern könnte.

Während Tencent die Grenzen der Klangerzeugung erweitert, revolutioniert Hume AI die Sprachtechnologie mit der Einführung seiner Empathischen Sprachschnittstelle 2 (EVI 2). Entwickelt von Alan Cowen und seinem Team bei Hume, baut EVI 2 auf dem ursprünglichen Modell auf, indem es verbesserte Natürlichkeit, emotionale Reaktionsfähigkeit und Anpassungsoptionen für Entwickler und Unternehmen bietet.

EVI 2 ermöglicht Echtzeit-Interaktionen mit emotionaler Intelligenz, dank einer Kombination aus fortschrittlichen Sprachmodulationstechniken und schnelleren Reaktionszeiten, mit einer 40%igen Reduzierung der Latenz im Vergleich zu seinem Vorgänger. Das Modell ist so konzipiert, dass es auf die emotionalen Hinweise eines Benutzers eingeht und es ideal für Anwendungen wie Kundenservice-Bots und virtuelle Assistenten macht. Entwickler können nun Sprachparameter wie Tonhöhe und Geschlecht ändern, ohne die Risiken der Stimmklonung einzugehen.

Hume’s EVI 2 sticht in einem wettbewerbsintensiven Bereich hervor, in dem Tech-Giganten wie OpenAI und Anthropic ebenfalls Fortschritte in der Sprachtechnologie machen. OpenAIs ChatGPT Advanced Voice Mode beispielsweise operiert noch auf Basis einer Warteliste, während Hume’s EVI 2 bereits über API integriert werden kann. EVI 2s Fähigkeit, nahtlos mit großen Sprachmodellen zu interagieren und Websuchwerkzeuge zu nutzen, erweitert seine Vielseitigkeit weiter.

Neben EVI 2 bietet Hume AI eine Expression Measurement API und eine Custom Models API an, die Entwicklern Werkzeuge zur Erstellung emotional ansprechender und anpassbarer KI-Anwendungen bieten. In naher Zukunft plant Hume, die Sprachunterstützung von EVI 2 zu erweitern und seine Fähigkeit, komplexe, natürliche Sprachinteraktionen zu führen, weiter zu verfeinern.

Mit den Fortschritten in der KI-gestützten Audio- und Sprachtechnologie markiert die Konvergenz von Lösungen wie Tencent’s EzAudio und Hume’s EVI 2 eine neue Ära der Klanginnovation. Beide Modelle bieten beispiellose Qualität und Flexibilität und transformieren Branchen von Unterhaltung und Medien bis hin zu Kundenservice und virtuellen Assistenten. Diese rasanten Entwicklungen heben jedoch auch die Bedeutung hervor, ethische Bedenken zu adressieren und sicherzustellen, dass diese leistungsstarken Technologien verantwortungsvoll eingesetzt werden.

Die Zukunft des Sounds ist zweifellos da — doch die Herausforderung besteht darin, sein Potenzial zu nutzen, während die Risiken minimiert werden.

Tencent und Hume transformieren KI-Stimme und Sound mit EzAudio und EVI 2
Tencent und Hume transformieren KI-Stimme und Sound mit EzAudio und EVI 2 (Foto: DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.