MÜNCHEN (IT BOLTWISE) – Microsofts KI Copilot könnte bald lokal auf PCs laufen und so Performance und Datensicherheit verbessern.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Microsofts ambitionierter KI Copilot, bekannt für seine Cloud-basierte Verarbeitung, steht möglicherweise vor einem bedeutenden Paradigmenwechsel hin zur lokalen Ausführung direkt auf PCs. Diese Innovation, die vorrangig von Intel in Aussicht gestellt wurde, verspricht nicht nur eine signifikante Steigerung der Performance, sondern auch eine Verbesserung der Datensicherheit durch die Vermeidung von Cloud-basiertem Datentransfer.
Aktuelle KI-Prozessoren in Verbraucher-PCs, egal ob von Intel oder AMD, erreichen noch nicht die benötigte Leistungsschwelle. Für die lokale Verarbeitung von Copilot-Aufgaben sind Prozessoren mit Neural Processing Units (NPUs) erforderlich, die mehr als 40 Billionen Operationen pro Sekunde (40 TOPS) durchführen können – eine Performance, die aktuell im Consumer-Segment nicht verfügbar ist.
Die Diskussion um Onboard-KI für Copilot wurde durch jüngste Hardware-Entwicklungen angeregt, insbesondere durch die Integration von NPUs in die neuesten Chip-Generationen. Diese dedizierten, stromsparenden Komponenten sollen die Ausführung generativer KI-Modelle vereinfachen und die Effizienz der KI-Verarbeitung steigern. Zukünftige PCs könnten so konzipiert werden, dass sie KI-Aufgaben nahtlos im Hintergrund ausführen, selbst im Akkubetrieb.
Trotz des Potenzials dieser Technologie sind zur Verarbeitung anspruchsvollerer KI-Modelle derzeit leistungsfähige PCs mit Highspeed-Grafikprozessoren erforderlich. Ein Beispiel für die Anwendung von KI in der Gerätesteuerung ist eine von MSI entwickelte KI-Engine, die Laptop-Aktivitäten erkennt und Einstellungen automatisch anpasst.
Der Trend zur lokalen KI beschränkt sich nicht auf PCs. Google-Smartphones, wie das Pixel 8 und Pixel 8 Pro, sind mit dem Tensor G3-Chip ausgestattet, der On-Device-KI-Funktionen unterstützt. Diese Fortschritte zeigen das Potenzial für eine umfangreichere lokale KI-Verarbeitung, auch wenn die aktuelle Hardware noch Einschränkungen aufweist.
Ein weiterer Vorteil der lokalen KI-Verarbeitung ist die Verbesserung der Cybersicherheit, da sensible Daten nicht über das Internet übertragen werden müssen. Kritische Stimmen warnen jedoch vor einer Überbewertung der Onboard-KI als Marketingstrategie der Chiphersteller, um den Verkauf neuer CPUs zu fördern, obwohl viele bestehende Prozessoren bereits ausreichende Leistung bieten.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.