CAMBRIDGE / MÜNCHEN (IT BOLTWISE) – Forscher des MIT haben ein KI-Modell entwickelt, das in der Lage ist, menschliche Lautimitationen nachzuahmen, ohne jemals zuvor eine menschliche Stimme gehört zu haben.
- Unsere KI-News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- KI-Meldungen bequem via Telegram oder per Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren und abonnieren!
- RSS-Feed 2.0 von IT Boltwise® für KI-News speichern!
Die Entwicklung von Künstlicher Intelligenz (KI) hat einen neuen Meilenstein erreicht, indem Forscher des MIT ein Modell entwickelt haben, das menschliche Lautimitationen nachahmen kann. Diese Technologie könnte die Art und Weise, wie wir mit Maschinen interagieren, revolutionieren, indem sie neue Möglichkeiten für Klangschnittstellen in Unterhaltung und Bildung eröffnet. Die Forscher ließen sich von der menschlichen Anatomie inspirieren, insbesondere vom Vokaltrakt, um ein System zu schaffen, das Geräusche auf ähnliche Weise wie Menschen erzeugen und verstehen kann.
Das Modell simuliert die Vibrationen des Kehlkopfes und deren Formung durch Rachen, Zunge und Lippen. Ein kognitiv inspiriertes KI-Algorithmus steuert dieses Modell, um Imitationen zu erzeugen, die den kontextabhängigen Kommunikationsweisen der Menschen entsprechen. Diese Fähigkeit, Geräusche wie das Rauschen von Blättern oder das Zischen einer Schlange nachzuahmen, könnte in Zukunft zu intuitiveren Schnittstellen für Klangdesigner und realistischeren KI-Charakteren in virtuellen Welten führen.
Ein bemerkenswerter Aspekt des Modells ist seine Fähigkeit, Geräusche aus menschlichen Imitationen zu erraten, ähnlich wie einige Computer-Vision-Systeme Bilder aus Skizzen rekonstruieren können. Diese Funktion könnte in der Sprachentwicklung, beim Erlernen neuer Sprachen und sogar bei der Untersuchung von Imitationsverhalten in der Tierwelt Anwendung finden.
Die Forscher entwickelten drei Versionen des Modells, um es mit menschlichen Imitationen zu vergleichen. Die erste Version zielte darauf ab, Geräusche so realistisch wie möglich zu imitieren, entsprach jedoch nicht dem menschlichen Verhalten. Die zweite Version berücksichtigte, was für einen Zuhörer an einem Geräusch besonders auffällig ist, und die dritte Version fügte eine Ebene der Überlegung hinzu, wie viel Aufwand in die Imitation investiert wird.
In Experimenten bevorzugten menschliche Richter die von der KI erzeugten Imitationen in einigen Fällen gegenüber menschlichen Imitationen, was das Potenzial dieser Technologie unterstreicht. Die Forscher sehen Anwendungen in der Musik- und Filmindustrie, wo Künstler und Filmemacher von der Fähigkeit profitieren könnten, kontextbezogene Geräusche zu erzeugen.
Obwohl das Modell noch Herausforderungen bei der Imitation bestimmter Konsonanten hat, zeigt es bereits vielversprechende Ansätze für die Zukunft der KI-gestützten Klangverarbeitung. Die Forscher arbeiten daran, die Technologie weiter zu verfeinern und ihre Anwendungsmöglichkeiten zu erweitern.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Bitte vergiss nicht in deiner eMail die Artikel-Headline zu nennen: "KI-Modell ahmt menschliche Lautimitationen nach".
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "KI-Modell ahmt menschliche Lautimitationen nach" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.