MÜNCHEN (IT BOLTWISE) – OpenAI verschiebt die Integration der erweiterten Sprachfunktion in ChatGPT, die eine natürliche Sprachkommunikation mit dem Chatbot ermöglichen soll.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Das KI-Unternehmen OpenAI hat die Veröffentlichung der erweiterten Sprachfunktion für ChatGPT verschoben. Das teilte OpenAI in einem Post auf Discord am Dienstag mit. Ende Juni sollte die Funktion für erste zahlende ChatGPT-Nutzer verfügbar sein, nun soll sie erst im Juli kommen. OpenAI benötige noch einen weiteren Monat, heißt es. Für alle Nutzer soll der Advanced Voice Mode erst deutlich später eingeführt werden.
OpenAI spricht von anhaltenden Problemen, die für Verzögerungen gesorgt hätten, den erweiterten Sprachmodus rechtzeitig im Juni starten zu können. Zunächst soll die Alpha-Version der erweiterten Sprachfunktion einer kleinen Gruppe von Nutzern zur Verfügung gestellt werden. Es gelte, Feedback und auf dieser Grundlage neue Erkenntnisse zu sammeln. Diese sollen dann in das Produkt einfließen, bevor es einer breiteren Nutzerschaft zur Verfügung gestellt wird.
„Wir verbessern zum Beispiel die Fähigkeit des Modells, bestimmte Inhalte zu erkennen und abzulehnen“, schreibt OpenAI auf Discord. „Wir arbeiten auch an der Verbesserung der Nutzererfahrung und bereiten unsere Infrastruktur darauf vor, auf Millionen von Nutzern zu skalieren und dabei Echtzeit-Reaktionen zu gewährleisten.“
Bis der Advanced Voice Mode für alle ChatGPT-Plus-Kundinnen und -Kunden verfügbar ist, kann es laut OpenAI aber noch eine Weile dauern. Frühestens im Herbst wird es so weit sein. Dies hänge davon ab, wie gut der Sprachmodus interne Sicherheits- und Zuverlässigkeitstests erfüllt.
Nicht davon berührt sind die neuen Video- und Bildschirmfreigabeoptionen, die OpenAI im Frühjahr angekündigt hatte. Mit ihnen ist es etwa möglich, Mathematikaufgaben anhand eines Bildes der Aufgabe zu lösen. Auch könne diese Funktion dazu genutzt werden, um etwa Einstellungsmenüs verschiedener Geräte zu erklären. Die Nutzung ist dann auf iPhones und Android Smartphones verfügbar sowie auf Desktop PCs mit Windows und neu auch auf macOS.
Der erweiterte Sprachmodus von ChatGPT soll Emotionen der Nutzer erkennen und nonverbale Hinweise verstehen und darauf reagieren können, verspricht OpenAI. Das soll in Echtzeit geschehen und so eine natürliche Sprachkommunikation mit dem KI-Chatbot ermöglichen.
Als Stimme des Chatbots kam auch eine zum Einsatz, die der Schauspielerin Scarlett Johansson im Film „Her“ ähnelte. OpenAI hatte zuvor versucht, Johannsons Stimme zu lizensieren, was diese aber ablehnte. Inzwischen erwägt die Schauspielerin eine Klage. OpenAI teilte mit, die Stimme sei nicht an die von Johansson angelehnt gewesen. Trotzdem entfernte das KI-Unternehmen dann die Stimme aus der erweiterten Sprachfunktion.
UPDATE 26.06.2024, 09:52 Uhr: OpenAI hat nun auch die offizielle macOS-Desktop-App für alle Nutzer freigegeben – ohne den neuen Sprachmodus. Die Anwendung war zuvor nur für Plus-Mitglieder nutzbar.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.