Neue Methode beschleunigt das Training universeller Roboter durch gemeinsame Datenbasis
MÜNCHEN (IT BOLTWISE) – Forscher des MIT haben eine Methode entwickelt, die das Training von Allzweck-Robotern durch die Nutzung vielfältiger Datenquellen optimiert und so die Adaptionsfähigkeit der Roboter deutlich verbessert. In der beliebten Zeichentrickserie „Die Jetsons“ erledigt der Roboter Rosie mit Leichtigkeit verschiedenste Aufgaben, von Hausarbeit bis zur Essenszubereitung. Doch im realen Leben ist das […]
Künstliche Intelligenz im Wandel: Die neuen Grenzen der Large Language Models
MÜNCHEN (IT BOLTWISE) – Trotz beeindruckender Fortschritte stoßen Large Language Models (LLMs) an ihre Grenzen, und neue Forschungsansätze wie neurosymbolische KI könnten das nächste Kapitel in der KI-Revolution einläuten. Apple hat kürzlich ein Papier veröffentlicht, das andeutet, was viele in der KI-Community bereits vermuten: Die Fortschritte bei LLMs wie GPT-4 nähern sich einem Plateau. Diese […]
Cyberkriminalität mit KI: Large Language Models in den Händen von Hackern
MÜNCHEN (IT BOLTWISE) – Forschende aus den USA haben erstmals systematisch untersucht, wie Cyberkriminelle große Sprachmodelle nutzen und wie gefährlich generative Technologie in diesem Bereich ist. Die Studie beleuchtet die zunehmende Bedrohung durch sogenannte „Malicious LLM Applications“ oder kurz „Malla“, die von Cyberkriminellen genutzt werden, um schädliche Aktivitäten durchzuführen. Diese Anwendungen greifen auf die Fähigkeiten […]
Apple-Studie zeigt Schwächen in der „Denkfähigkeit“ großer KI-Modelle auf
NEW YORK / MÜNCHEN (IT BOLTWISE) – Eine neue Studie von Apple-Ingenieuren offenbart tiefgreifende Schwächen in den nachgesagten „Denkfähigkeiten“ großer Sprachmodelle, insbesondere bei mathematischen Aufgaben. Seit einiger Zeit präsentieren Unternehmen wie OpenAI und Google die fortgeschrittenen „Denkfähigkeiten“ ihrer Künstlichen Intelligenz als nächste große Entwicklung. Eine neue Studie von sechs Apple-Ingenieuren zeigt jedoch, dass diese mathematischen […]
Künstliche Intelligenz: LLMs als Erweiterung unseres inneren Monologs
MÜNCHEN (IT BOLTWISE) – Large Language Models (LLMs) verändern die Art und Weise, wie wir denken und Informationen verarbeiten. Sie erweitern unsere kognitiven Fähigkeiten, indem sie eine Form des iterativen inneren Dialogs schaffen, der unsere Introspektion und Kommunikation bereichert. Stellen Sie sich vor, Sie hätten in stillen Momenten der Nachdenklichkeit und inneren Introspektion einen Gesprächspartner […]
DeepMind präsentiert SCoRe: LLMs korrigieren eigene Fehler mit Reinforcement Learning
MÜNCHEN (IT BOLTWISE) – DeepMind stellt mit SCoRe eine neue Methode vor, die es großen Sprachmodellen (LLMs) ermöglicht, ihre eigenen Fehler zu erkennen und zu korrigieren, ohne auf externe Rückmeldungen angewiesen zu sein. Forscher bei Google DeepMind haben mit Self-Correction via Reinforcement Learning (SCoRe) eine vielversprechende Technik entwickelt, die LLMs befähigt, ihre internen Fehler durch […]
Wie ChatGPT den Rückgang des öffentlichen Wissensaustauschs beschleunigt
MÜNCHEN (IT BOLTWISE) – Eine neue Studie zeigt, dass die Nutzung von ChatGPT mit einem Rückgang des öffentlichen Wissensaustauschs auf Plattformen wie Stack Overflow verbunden ist. Die im PNAS Nexus veröffentlichte Studie deutet darauf hin, dass die weite Verbreitung von Large Language Models (LLMs) wie ChatGPT zu einem signifikanten Rückgang der Aktivitäten auf öffentlichen Wissensplattformen […]
SEA-LION: Sony und AI Singapore verbessern KI für lokale Sprachen
SINGAPUR / MÜNCHEN (IT BOLTWISE) – Sony Research und AI Singapore (AISG) arbeiten gemeinsam an der Entwicklung der SEA-LION Sprachmodelle, die auf die sprachliche Vielfalt Südostasiens abzielen. Sony Research und AI Singapore (AISG) haben eine Zusammenarbeit angekündigt, die sich auf die Forschung an der SEA-LION-Reihe von Large Language Models (LLMs) konzentriert. SEA-LION steht für „Southeast […]
Wie Nous Researchs DisTrO-Optimierer das KI-Training demokratisieren könnte
MÜNCHEN (IT BOLTWISE) – Nous Research hat mit der Veröffentlichung des DisTrO (Distributed Training Over-the-Internet) Optimierers erneut für Aufsehen gesorgt, einem Tool, das die Effizienz beim Training von KI-Modellen drastisch verbessert und neue Möglichkeiten für dezentrales Training über das Internet eröffnet. Mit DisTrO präsentiert das Forschungsunternehmen, das bereits durch seine permissive Open-Source-Version Llama 3.1 Hermes […]