REFLEX-Studie im Pre-Peer-Review (Allgemein)

H. Lamarr @, München, Montag, 13.04.2026, 17:18 (vor 4 Tagen) @ HPSelk

Touché!

Ich meinte mit meinem Einwand aber nicht die Hintergründe der "Reflex"-Studie, sondern einführende Worte zur Funktionensweise dessen, was Sie "Pre-Peer-Review" nennen. Ihre E-Mail an den Verlag Elsevier (Startposting) gibt dazu nur sehr wenig preis. Soweit ich das überblicke haben Sie mit der KI Claude eine automatisierte Vorprüfung für wissenschaftliche Manuskripte der Bioelektromagnetik geschaffen (ein Algorithmus), welche die Qualität eines Manuskripts anhand von acht Bewertungskriterien prüft und im besten Fall (bestmögliche Qualität) 100 Punkte vergibt.

Prüfkriterien
► physical plausibility
► statistical data integrity
► funding history
► pre-registration compliance
► endpoint quality
► independent replication
► image integrity
► biological plausibility of reported threshold effects

Der Studie von Diem et al., 2005, hat der Algorithmus nur drei von 100 Punkten zuerkannt, was die automatisierte Ablehnung des Manuskripts zur Folge gehabt hätte, wäre diese Pre-Peer-Review seinerzeit angewendet worden.

Von Herrn Selk habe ich inzwischen den Prüfbericht bekommen, den seine Pre-Peer-Review für Diem et al., 2005, ausgeworfen hat. Diesen Bericht werde ich von ChatGPT bewerten lassen und die Bewertung von einer zweiten KI (Claude) verifizieren lassen.

--
Jedes komplexe Problem hat eine Lösung, die einfach, naheliegend, plausibel – und falsch ist.
– Frei nach Henry Louis Mencken (1880–1956) –


gesamter Thread:

 RSS-Feed dieser Diskussion

powered by my little forum