MÜNCHEN (IT BOLTWISE) – Forscher an der Universität Reading haben ihre eigenen Professoren getäuscht, indem sie heimlich KI-generierte Prüfungsantworten einreichten, die unentdeckt blieben und bessere Noten erhielten als die echten Studenten.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Forscher an der Universität Reading haben ihre eigenen Professoren getäuscht, indem sie heimlich KI-generierte Prüfungsantworten einreichten, die unentdeckt blieben und bessere Noten erhielten als die echten Studenten.
Das Projekt erstellte gefälschte Studentenidentitäten, um unbearbeitete Antworten von ChatGPT-4 in Online-Tests für Bachelor-Kurse einzureichen. Die Prüfer der Universität, die nichts von dem Projekt wussten, kennzeichneten nur eine der 33 Einreichungen, wobei die restlichen KI-Antworten höhere als durchschnittliche Noten erhielten.
Die Autoren erklärten, dass ihre Ergebnisse zeigten, dass KI-Prozessoren wie ChatGPT nun den „Turing-Test“ bestehen – benannt nach dem Computerpionier Alan Turing – und von erfahrenen Prüfern nicht erkannt werden.
Die Studie, die als „größte und robusteste Blindstudie ihrer Art“ bezeichnet wird, um zu untersuchen, ob menschliche Pädagogen KI-generierte Antworten erkennen können, warnt vor erheblichen Auswirkungen auf die Art und Weise, wie Universitäten Studenten bewerten.
„Unsere Forschung zeigt, dass es von internationaler Bedeutung ist, zu verstehen, wie KI die Integrität von Bildungsbewertungen beeinflussen wird“, sagte Dr. Peter Scarfe, einer der Autoren und Associate Professor an der School of Psychology and Clinical Language Sciences in Reading. „Wir werden nicht unbedingt vollständig zu handgeschriebenen Prüfungen zurückkehren, aber der globale Bildungssektor wird sich angesichts der KI weiterentwickeln müssen.“
Die Studie schlussfolgerte: „Basierend auf aktuellen Trends wird die Fähigkeit der KI, abstrakteres Denken zu zeigen, zunehmen und ihre Erkennbarkeit abnehmen, was bedeutet, dass das Problem der akademischen Integrität schlimmer werden wird.“
Experten, die die Studie überprüften, sagten, dies sei ein Todesstoß für Heimprüfungen oder unbeaufsichtigte Hausarbeiten.
Prof. Karen Yeung, Fellow für Recht, Ethik und Informatik an der Universität Birmingham, sagte: „Die Veröffentlichung dieses Qualitätssicherungstests in der realen Welt zeigt sehr deutlich, dass die frei und offen verfügbaren generativen KI-Tools es den Studenten ermöglichen, Heimprüfungen ohne Schwierigkeiten zu bestehen, um bessere Noten zu erzielen, während ein solches Schummeln praktisch nicht nachweisbar ist.“
Die Studie schlägt vor, dass Universitäten KI-Material, das von Studenten generiert wurde, in die Bewertungen einbeziehen könnten. Prof. Etienne Roesch, ein weiterer Autor, sagte: „Als Sektor müssen wir uns darauf einigen, wie wir von Studenten erwarten, dass sie KI in ihrer Arbeit nutzen und anerkennen. Dasselbe gilt für den breiteren Einsatz von KI in anderen Lebensbereichen, um eine Vertrauenskrise in der Gesellschaft zu verhindern.“
Prof. Elizabeth McCrum, Pro-Vizekanzlerin für Bildung in Reading, sagte, die Universität bewege sich „weg von der Verwendung von Heimprüfungen“ und entwickle Alternativen, die die Anwendung von Wissen in „realen, oft arbeitsplatzbezogenen“ Situationen umfassen.
McCrum sagte: „Einige Bewertungen werden die Studenten dabei unterstützen, KI zu nutzen, sie kritisch und ethisch zu verwenden, ihre KI-Kompetenz zu entwickeln und sie mit den notwendigen Fähigkeiten für den modernen Arbeitsplatz auszustatten. Andere Bewertungen werden ohne den Einsatz von KI durchgeführt.“
Doch Yeung sagte, die Zulassung der Nutzung von KI in Prüfungen an Schulen und Universitäten könne eigene Probleme beim „Entfähigen“ der Studenten schaffen.
„So wie viele von uns sich ohne die Hilfe von Google Maps nicht mehr in unbekannten Gegenden zurechtfinden können, besteht die reale Gefahr, dass die kommende Generation effektiv an diese Maschinen gebunden ist und nicht in der Lage ist, ernsthaftes Denken, Analysieren oder Schreiben ohne ihre Hilfe zu betreiben“, sagte Yeung.
In den Endnoten der Studie deuteten die Autoren an, dass sie möglicherweise KI verwendet haben, um die Forschung vorzubereiten und zu schreiben, und fragten: „Würden Sie es als ‚Schummeln‘ betrachten? Wenn Sie es als ‚Schummeln‘ betrachten würden, wir aber die Verwendung von GPT-4 (oder einer anderen KI) bestreiten würden, wie würden Sie versuchen, zu beweisen, dass wir gelogen haben?“
Ein Sprecher von Reading bestätigte, dass die Studie „definitiv von Menschen durchgeführt wurde“.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.