CARTAGENA / MÜNCHEN (IT BOLTWISE) – Die Entdeckung eines mathematischen Fehlers in einer Studie über schwarze Plastik-Kochutensilien hat die Wissenschaftswelt aufgerüttelt und zur Entwicklung von KI-gestützten Projekten geführt, die Fehler in wissenschaftlichen Arbeiten aufdecken sollen.
Die Entdeckung eines mathematischen Fehlers in einer Studie über schwarze Plastik-Kochutensilien hat die Wissenschaftswelt aufgerüttelt. Ein Fehler in der Berechnung führte zu der Annahme, dass ein bestimmter chemischer Stoff die Sicherheitsgrenze überschritt, obwohl er tatsächlich zehnmal niedriger lag. Diese Enthüllung hat zwei bedeutende KI-Projekte ins Leben gerufen, die darauf abzielen, Fehler in wissenschaftlichen Arbeiten zu identifizieren.
Das Black Spatula Project ist ein Open-Source-KI-Tool, das bereits rund 500 wissenschaftliche Arbeiten auf Fehler analysiert hat. Die Entwicklergruppe, die aus etwa acht aktiven Entwicklern und Hunderten von freiwilligen Beratern besteht, hat die entdeckten Fehler bisher nicht öffentlich gemacht. Stattdessen werden die betroffenen Autoren direkt kontaktiert, wie Joaquin Gulloso, ein unabhängiger KI-Forscher aus Cartagena, Kolumbien, erklärt.
Ein weiteres Projekt, YesNoError, wurde vom Black Spatula Project inspiriert und von dem KI-Unternehmer Matt Schlicht gegründet. Dieses Projekt wird durch eine eigene Kryptowährung finanziert und hat bereits über 37.000 Arbeiten analysiert. Die Website von YesNoError kennzeichnet Arbeiten, in denen Fehler gefunden wurden, obwohl viele dieser Fehler noch nicht von Menschen überprüft wurden.
Beide Projekte hoffen, dass Forscher ihre Tools vor der Einreichung von Arbeiten bei Fachzeitschriften nutzen und dass die Zeitschriften diese vor der Veröffentlichung verwenden, um Fehler und Betrug in der wissenschaftlichen Literatur zu vermeiden. Diese Initiativen haben die Unterstützung von akademischen Detektiven, die sich mit der Integrität von Forschung befassen, aber es gibt auch Bedenken hinsichtlich der potenziellen Risiken.
Ein Hauptanliegen ist die Rate der Fehlalarme, also Fälle, in denen die KI einen Fehler meldet, wo keiner existiert. Aktuell liegt die Fehlerrate des Black Spatula Projects bei etwa 10 %, was bedeutet, dass jeder gemeldete Fehler von Experten überprüft werden muss. Dies stellt eine erhebliche Herausforderung dar, da die Suche nach Experten der größte Engpass des Projekts ist.
Schlichts YesNoError-Team hat die Fehlalarme nur bei etwa 100 mathematischen Fehlern quantifiziert, die die KI in einer ersten Charge von 10.000 Arbeiten gefunden hat. Von den 90 % der Autoren, die auf Schlichts Anfragen reagierten, stimmten alle bis auf einen zu, dass der erkannte Fehler gültig war.
Die Projekte stehen noch am Anfang, aber sie könnten die Art und Weise, wie wissenschaftliche Arbeiten überprüft werden, grundlegend verändern. Durch den Einsatz von KI zur Vorprüfung könnten Fehler schneller erkannt und behoben werden, bevor sie veröffentlicht werden. Dies könnte nicht nur die Qualität der wissenschaftlichen Literatur verbessern, sondern auch das Vertrauen in die Forschung stärken.
- NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote
MLOps Engineer für unsere KI Plattform (m/w/d)
Produktmanager (m|w|d) Schwerpunkt KI Software
Praktikant (m/w/d) in der Entwicklung - Automatisierung mit Hilfe von KI und Python Scripts
Vorausentwickler Signalverarbeitung Sonar-System: Künstliche Intelligenz - Maschinelles Lernen (m/w/d)
- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI-Tools entdecken Fehler in wissenschaftlichen Arbeiten" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "KI-Tools entdecken Fehler in wissenschaftlichen Arbeiten" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die deutsche Google-Suchmaschine für eine weitere Themenrecherche: »KI-Tools entdecken Fehler in wissenschaftlichen Arbeiten« bei Google Deutschland suchen und bei Google News recherchieren!