PALO ALTO / TEL AVIV / MÜNCHEN (IT BOLTWISE) – Ilya Sutskever hat sein neues Projekt angekündigt: Safe Superintelligence Inc., ein Unternehmen, das sich auf die Entwicklung sicherer Künstlicher Intelligenz konzentriert.
- Die besten Bücher rund um KI & Robotik
präsentiert von Amazon!
- Unsere täglichen KI-News von IT Boltwise® bei LinkedIn abonnieren!
- KI-Meldungen bequem via Telegram oder per Newsletter erhalten!
- IT Boltwise® bei Facy oder Insta als Fan markieren und abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- RSS-Feed 2.0 von IT Boltwise® für KI-News speichern!
Nach Monaten der Spekulationen um seinen Verbleib hat Ilya Sutskever, Mitbegründer von OpenAI, sein neues Projekt vorgestellt: Safe Superintelligence Inc. Diese neue Unternehmung zielt darauf ab, ein sicheres und mächtiges KI-System zu entwickeln, ohne dass kurzfristige kommerzielle Absichten bestehen. Damit möchte Sutskever seine Arbeit ohne die Ablenkungen fortsetzen, denen Konkurrenten wie OpenAI, Google und Anthropic ausgesetzt sind. „Dieses Unternehmen ist insofern besonders, als dass sein erstes Produkt die sichere Superintelligenz sein wird und es bis dahin nichts anderes tun wird“, erklärt Sutskever in einem exklusiven Interview.
Sutskever hat zwei Mitbegründer: Daniel Gross, ein Investor und ehemaliger KI-Leiter bei Apple Inc., sowie Daniel Levy, der eine starke Reputation für die Ausbildung großer KI-Modelle an der Seite von Sutskever bei OpenAI aufgebaut hat. Safe Superintelligence wird Büros in Palo Alto, Kalifornien, und Tel Aviv haben. Sutskever und Gross wuchsen beide in Israel auf.
Die Priorität des neuen Unternehmens liegt klar auf der Sicherheit von KI. Sutskever hebt hervor, dass das Ziel darin besteht, Sicherheit durch technologische Durchbrüche zu erreichen, anstatt sich auf nachträglich angewendete Sicherheitsvorkehrungen zu verlassen. „Mit ‚sicher‘ meinen wir sicher wie die Nuklearsicherheit im Gegensatz zu ‚Vertrauen und Sicherheit‘“, erklärt Sutskever.
Sutskever bleibt vage über die spezifischen Maßnahmen, die Safe Superintelligence zur Gewährleistung der Sicherheit ergreifen wird. Er betont jedoch, dass tiefgehende technische Lösungen entwickelt werden sollen, um sicherzustellen, dass die KI-Systeme keinen Schaden anrichten können. „Auf der grundlegendsten Ebene sollte sichere Superintelligenz die Eigenschaft haben, dass sie der Menschheit nicht in großem Maßstab schadet“, so Sutskever. „Danach können wir sagen, dass wir möchten, dass sie eine Kraft für das Gute ist.“
Obwohl Sutskever die finanziellen Unterstützer seines neuen Unternehmens nicht nennt, ist klar, dass die Investoren großes Vertrauen in das Projekt haben. „Von all den Problemen, denen wir gegenüberstehen, wird die Kapitalbeschaffung nicht eines davon sein“, sagt Gross.
Safe Superintelligence erinnert in gewisser Weise an das ursprüngliche Konzept von OpenAI: eine Forschungsorganisation, die versucht, eine allgemeine Künstliche Intelligenz zu entwickeln, die den Menschen in vielen Aufgaben gleichkommt und vielleicht sogar übertrifft. Allerdings haben wirtschaftliche Realitäten dazu geführt, dass Unternehmen wie OpenAI Partnerschaften eingehen und umsatzgenerierende Produkte entwickeln mussten. Safe Superintelligence hingegen wird sich ausschließlich auf Forschung konzentrieren.
Das Ziel von Safe Superintelligence ist es, eine KI zu entwickeln, die in einer ganz anderen Liga spielt als die menschlichen AIs, die derzeit von den größten Technologieunternehmen verfolgt werden. Während es in der Branche keine Einigkeit darüber gibt, ob eine solche Superintelligenz überhaupt möglich ist oder wie sie entwickelt werden könnte, sind Sutskever und sein Team entschlossen, dieses Ziel zu erreichen.
Amazon-Trendangebote der letzten 24 Stunden mit bis zu 78% Rabatt (Sponsored)
- NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.
- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Superintelligence Inc.: OpenAI-Mitbegründer Ilya Sutskever plant neues KI-Forschungslabor" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.