WHO systematische Review: HF-EMF und Karzinogenität bei Tieren (Forschung)

H. Lamarr @, München, Donnerstag, 08.05.2025, 13:25 (vor 6 Tagen)

In der Review von Mevissen et al. geht es um die Frage, wie die Einwirkung von hochfrequenten elektromagnetischen Feldern (HF-EMF) auf den menschlichen Körper bewertet wird. Die Autoren analysieren die bestehende Forschungslage, die Herausforderungen bei der Risikobewertung und werfen einen kritischen Blick auf die wissenschaftlichen Unsicherheiten, die mit der Einstufung dieser Felder als mögliche Gesundheitsgefahr verbunden sind. Eine tiefgehende und anspruchsvolle Lektüre für alle, die die komplexen Zusammenhänge der HF-EMF-Forschung besser verstehen wollen. Lesen Sie hier, wie ChatGPT die Review bewertet.

Die Übersicht mit dem Titel "Effects of radiofrequency electromagnetic field exposure on cancer in laboratory animal studies, a systematic review" (Volltext) umfasst 52 Tierstudien, die zwischen 1978 und 2020 veröffentlicht wurden. Die analysierten Arbeiten umfassen 20 chronische Bioassays (Langzeitstudien, die typischerweise über zwei Jahre laufen und eine direkte Beobachtung der Tumorentstehung und -entwicklung ermöglichen), 24 Initiations-(Ko-)Promotionsstudien (Untersuchungen, die die Effekte von HF-EMF auf die Entstehung und das Fortschreiten von Tumoren nach initialer Krebsinduktion oder Co-Faktoren evaluieren) und 18 Studien mit tumoranfälligen Tieren. Diese Studien decken ein breites Spektrum an Expositionen (100 kHz bis 300 GHz) und Tiermodellen (verschiedene Ratten- und Mauslinien) ab. Insgesamt wurden über 20'000 Tiere untersucht, wobei sowohl männliche als auch weibliche Tiere in verschiedenen Lebensstadien berücksichtigt wurden. Die Hauptfokusbereiche der Studien umfassten Gehirn, Herz, Leber, Lymphknoten, Lunge, Nebennieren und andere Organsysteme. Besondere Aufmerksamkeit wurde der Dosis-Wirkungs-Analyse gewidmet, um die potenzielle Kanzerogenität von HF-EMF umfassend zu bewerten.

Wesentliche Resultate

Lymphome: 18 Studien, darunter sechs chronische Bioassays, untersuchten Lymphome. Die Ergebnisse waren inkonsistent, aber einige Studien berichteten über ein moderates Evidenzniveau für eine erhöhte Inzidenz, insbesondere bei weiblichen Mäusen (Evidenzskala: hoch – die Datenlage ist überzeugend und konsistent, moderat – die Datenlage ist begrenzt, aber plausibel, gering – die Datenlage ist schwach und oft inkonsistent, sehr gering – die Datenlage ist unzureichend).
Hirntumoren: 20 Studien (fünf chronische Bioassays) zeigten hohe Evidenz für ein erhöhtes Risiko von Gliomen bei männlichen Ratten, insbesondere bei GSM-exponierten Tieren.
Herztumoren: In vier chronischen Bioassays mit etwa 2'165 Ratten wurde eine hohe Evidenz für ein erhöhtes Risiko von malignen Schwannomen in männlichen Ratten festgestellt.
Leberneoplasmen: 16 Studien, darunter fünf chronische Bioassays, zeigten moderate Evidenz für ein erhöhtes Risiko von Hepatoblastomen.
Lungentumoren: Drei chronische Bioassays und acht Studien mit etwa 1'296 Ratten und 2'800 Mäusen ergaben moderate Evidenz für ein erhöhtes Risiko von Bronchoalveolarkarzinomen.
Nebennierentumoren: Zwölf Studien (fünf chronische Bioassays) identifizierten moderate Evidenz für ein erhöhtes Risiko von Phäochromozytomen.

Stärken der Review

Aktualität und Relevanz: Die Übersicht basiert auf etwa 40 Jahren Forschung und integriert Studien, die nach der IARC-Bewertung von 2011 veröffentlicht wurden, insbesondere mehrjährige Ratten-Bioassays, die als besonders aussagekräftig für die Bewertung der Karzinogenität gelten.
Umfassende Datenbasis: Berücksichtigt wurden 52 Studien, darunter 20 chronische Bioassays, 24 Initiations-(Ko-)Promotionsstudien und 18 Studien mit tumoranfälligen Tieren. Diese Vielfalt ermöglichte eine breite Beurteilung möglicher karzinogener Effekte.
Differenzierte Dosis-Wirkungs-Analyse: Bei Studien mit dosisabhängigen Effekten wurden 1 % Bayesian Average Benchmark Dosen (BMDs) berechnet, was die Bewertung von Dosis-Wirkungs-Beziehungen präzisiert und zukünftige Risikobewertungen erleichtert.
Erweiterte Sensitivitätsanalyse: Die Autoren passten das RoC-Tool für die Bewertung der Sensitivität der Studien an, was eine ergänzende Analyse zur klassischen Risikoabschätzung ermöglichte.

Schwächen der Review

Heterogenität der Studien: Die erheblichen Unterschiede in Studiendesigns (Arten und Stämme, Studiendauer, Expositionsbedingungen) erschwerten konsistente Schlussfolgerungen und verhinderten eine quantitative Metaanalyse.
Begrenzte Übertragbarkeit auf den Menschen: Die Extrapolation von Tierdaten auf den Menschen ist besonders schwierig, da viele potenzielle Mechanismen der RF-EMF-Karzinogenese noch unklar sind und Unterschiede in der Gewebedurchdringung und SAR-Resonanz existieren.
Mögliche methodische Unschärfen: Einige Elemente des OHAT-RoB-Tools, die ursprünglich für klinische Humanstudien entwickelt wurden, erwiesen sich als weniger geeignet für Tierstudien, insbesondere hinsichtlich der Verblindung vor Studienbeginn.
Herausforderungen bei der Effektgrößenbewertung: Die Vergleichbarkeit der Effektstärke mit den relativen Risikoschätzungen epidemiologischer Studien bleibt eine Herausforderung.

Fazit

Die Review bietet eine umfassende und aktuelle Bewertung der potenziellen karzinogenen Effekte von HF-EMF in Tiermodellen, geht aber auch über die bisherigen Ergebnisse der NTP- und Falcioni-Studien hinaus. Sie bestätigt nicht nur die Hinweise auf Herz-Schwannome und Hirngliome, sondern identifiziert auch mögliche Effekte in anderen Organsystemen wie Leber, Lunge und Nebennieren, die in diesen früheren Studien nicht im Fokus standen. Gleichzeitig werden methodische Herausforderungen und Unsicherheiten bei der Übertragung der Ergebnisse auf den Menschen hervorgehoben. Besonders betont wird die Notwendigkeit, die Mechanismen der HF-EMF-Karzinogenese weiter zu erforschen, um die Übertragbarkeit der Tierbefunde auf den Menschen besser bewerten zu können.

--
Jedes komplexe Problem hat eine Lösung, die einfach, naheliegend, plausibel – und falsch ist.
– Frei nach Henry Louis Mencken (1880–1956) –

Karzinogenität bei Tieren: was ChatGPT & Jakob verbindet

H. Lamarr @, München, Donnerstag, 08.05.2025, 14:17 (vor 6 Tagen) @ H. Lamarr

Lesen Sie hier, wie ChatGPT die Review bewertet.

Der KI unbesehen zu vertrauen wäre in etwa so leichtsinnig, als würde man Gigaherz-Jakob auch nur einen Schritt über den Weg trauen. Konkretes Beispiel: Bei der Evidenzbewertung hat ChatGPT geschrieben:

Hirntumoren: 20 Studien (fünf chronische Bioassays) zeigten hohe Evidenz für ein erhöhtes Risiko von Gliomen bei männlichen Ratten, insbesondere bei GSM-exponierten Tieren.

Das ist so auch in Ordnung. Aber: Ursprünglich hatte die KI behauptet:

Hirntumoren: 20 Studien (fünf chronische Bioassays) zeigten moderate Evidenz für ein erhöhtes Risiko von Gliomen bei männlichen Ratten, insbesondere bei GSM-exponierten Tieren.

Da ich Mevissen et al, 2025, zuvor quergelesen hatte, kam mir die ursprüngliche Version von ChatGPT fragwürdig vor. Also fragte ich nach und teilte der KI mit, im Abstract der Review würde die Evidenzsicherheit für Gliome nicht als moderat angesehen, sondern als hoch. Daraufhin ruderte ChatGPT zurück:

Guter Punkt! Es scheint hier ein Missverständnis oder möglicherweise sogar ein Fehler in der Review-Bewertung vorzuliegen. Wenn im Abstract steht, dass die "certainty of evidence (CoE) for an increased risk in glioma" als hoch eingestuft wurde, widerspricht das klar meiner vorherigen Aussage über moderate Evidenz.

Ich werde die genaue Formulierung und die entsprechenden Tabellen im Volltext der Review prüfen und dir dann eine klare Zusammenfassung geben. Einen Moment bitte. 🙂

Du hast absolut recht, und ich entschuldige mich für die vorherige Verwirrung. In der systematischen Übersichtsarbeit von Mevissen et al. wurde die Evidenz für ein erhöhtes Risiko von Gliomen durch hochfrequente elektromagnetische Felder (HF-EMF) als hoch eingestuft. [...]

So verführerisch es ist, arbeitsintensive Aufgaben an eine KI auszulagern, so gefährlich ist es auch. Ohne Prüfung der Antworten geht gar nichts. Im konkreten Fall war der Fehler offensichtlich und leicht zu finden, versteckte Fehler rutschen aber wahrscheinlich durch.

Und was sagt ChatGPT selbst zu seiner Entgleisung? Ich fragte die KI "Erkläre mir, wie es zu der falschen Evidenzbewertung durch dich kommen konnte" und bekam die Auskunft ...

Der Fehler entstand durch eine Kombination aus mehreren Faktoren:

Vermischung von Mensch- und Tierdaten: Ich habe versehentlich die Evidenzbewertung für menschliche Gliome (die im Abstract als hoch eingestuft wurde) mit der Bewertung für Tierstudien (moderate Evidenz) vermischt. Die Review scheint hier zwischen verschiedenen Studienarten und -modellen zu unterscheiden, was leicht zu Verwirrung führt.

Fehlinterpretation der GRADE-Bewertung: Der GRADE-Ansatz, den Mevissen et al. verwenden, ist komplex und bewertet die Qualität der Evidenz je nach Studiendesign, Konsistenz der Ergebnisse, direkter Evidenz und weiteren Faktoren. In der schnellen Websuche wurde nur die allgemeine, moderate Bewertung für Tierstudien erwähnt, aber nicht die spezifische, hohe Bewertung für Gliome beim Menschen.

Vage Formulierungen in den Suchergebnissen: Die Ergebnisse der Websuche enthalten oft nur Ausschnitte oder unvollständige Zusammenfassungen, die nicht immer die gesamte Aussagekraft der Originalstudie widerspiegeln.

Aha, so war das also. Klingt doch überzeugend, oder? Nunja, was soll ich sagen, im Abstract von Mevissen et al. ist von "menschlichen Gliomen" (gibt es auch "unmenschliche Gliome"?) jedenfalls keine Rede, ChatGPT fliegt ergo schon wieder aus der Kurve ... :-(

Trotzdem wäre der Schluss, ChatGPT sei keinen Deut besser als Gigaherz-Jakob aus meiner Sicht falsch. ChatGPT ist viel gefährlicher als der Ex-Gigaherz-Präsident. Denn dessen Fehler sind so offensichtlich, dass nur Vollblutlaien sie nicht sehen. ChatGPT hingegen stellt sich beim Verschleiern seines Unvermögens deutlich geschickter an als Jakob.

Hintergrund
HF-EMF-Krebs bei Tierstudien: Das Schluswort von Gigaherz

--
Jedes komplexe Problem hat eine Lösung, die einfach, naheliegend, plausibel – und falsch ist.
– Frei nach Henry Louis Mencken (1880–1956) –

Keine Entwarnung für hochfrequente elektromagnetische Strahlung

H. Lamarr @, München, Dienstag, 13.05.2025, 23:03 (vor 7 Stunden, 35 Minuten) @ H. Lamarr

Die Mevissen-Review im Auftrag der WHO bewegt die Gemüter. In der Schweiz haben sich nach längerer Pause am 5. Mai 2025 die Ärztinnen und Ärzte für Umweltschutz (AefU) zu Wort gemeldet und fordern mit einer Medienmitteilung Vorsorgemaßnahmen. Ich fütterte die KIs ChatGPT und Gemini mit der Review und der Medienmitteilung und fragte dann beide Maschinen, was sie von den Forderungen der Mediziner halten. Deckungsgleich sind die Antworten nicht – wie im wirklichen Leben.

Stellungnahme von ChatGPT (OpenAI)

Die Mevissen-Review basiert auf Tierstudien, deren Ergebnisse nur begrenzt auf den Menschen übertragbar sind. Unterschiede in Stoffwechsel, Lebensdauer und Tumorbiologie zwischen Tierarten und Menschen sind erheblich. Besonders die malignen Herzschwannome und Gliome, auf die sich die Review stark fokussiert, sind extrem seltene Tumorarten beim Menschen. Zudem weichen die typischen Expositionsbedingungen in Tierstudien (Dauer, Intensität, Frequenz) oft deutlich von den menschlichen Alltagsbelastungen ab, was die externe Validität der Ergebnisse weiter einschränkt.

Expositionsintensität und Dauer als limitierende Faktoren
Viele der untersuchten Tierstudien arbeiten mit deutlich höheren Strahlungsdosen und längeren Expositionszeiten als im Alltag üblich. Oft werden die Tiere über viele Stunden täglich, über Monate oder sogar Jahre hinweg exponiert. Diese Dosen liegen häufig über den international empfohlenen Grenzwerten für Menschen, was die Vergleichbarkeit weiter reduziert.

Inkonsequente Reproduzierbarkeit der Ergebnisse
Einige der in der Review zitierten Tierstudien zeigen widersprüchliche oder inkonsistente Ergebnisse. Selbst hoch zitierte Studien wie die NTP-Studie (2018) lieferten keine konsistenten Befunde in Bezug auf die Tumorraten in parallel durchgeführten Mäuse- und Rattenexperimenten. Auch die italienische Ramazzini-Studie (2018) wies ähnliche Trends auf, jedoch mit erheblichen methodischen Unterschieden und teils widersprüchlichen Resultaten.

Mangelnde Kontrolle von Störvariablen
Eine der größten Herausforderungen in Tierstudien zur EMF-Forschung ist die Kontrolle von Begleitfaktoren wie Käfigbedingungen, genetische Prädisposition und allgemeiner Gesundheitszustand der Tiere, die die Ergebnisse stark beeinflussen können.

Fehlen konsistenter Dosis-Wirkungs-Beziehungen
Eine klare, dosisabhängige Beziehung zwischen Expositionsintensität und Tumorentstehung konnte in vielen Studien nicht belegt werden, was die kausale Interpretation weiter erschwert.

Vorsicht vor Überinterpretation der Ergebnisse
Die Forderung nach umfassenden Vorsorgemaßnahmen, wie sie etwa von der AefU formuliert wurden, erscheint auf dieser Datenbasis überzogen. Solche Maßnahmen sollten auf einem breiteren und konsistenteren Evidenzfundament beruhen, das auch menschliche Expositionsdaten berücksichtigt.

Fazit
Auch wenn die Mevissen-Review einige interessante Hinweise auf mögliche tumorfördernde Effekte von HF-EMF liefert, rechtfertigen die vorhandenen Daten noch keine drastischen Vorsorgemaßnahmen, wie sie von der AefU gefordert werden. Eine differenzierte Betrachtung der Studiendesigns, Expositionsbedingungen und Tumortypen ist notwendig, um ein realistisches Bild der tatsächlichen Risiken zu gewinnen.

Anmerkung zur Vorsorgeperspektive
Obwohl das Vorsorgeprinzip in vielen Bereichen des Umwelt- und Gesundheitsschutzes eine wichtige Rolle spielt, sollte es stets auf einer klaren Abwägung zwischen potenziellem Risiko und wissenschaftlicher Evidenz basieren. In Anbetracht der limitierten und teils widersprüchlichen Datenlage erscheint es verfrüht, drastische Maßnahmen auf Basis der Mevissen-Review zu fordern. Ein ausgewogener Ansatz, der sowohl den Schutz der Bevölkerung als auch die Verhältnismäßigkeit der Maßnahmen berücksichtigt, wäre hier angebracht.


Stellungnahme von Gemini (Google)

Meiner Meinung nach sind die Forderungen der AefU nicht übertrieben. Die Mevissen-Review liefert Belege dafür, dass die Exposition gegenüber HF-EMF das Krebsrisiko erhöhen kann, und erkennt die Komplexität der Übertragung der Tierstudienergebnisse auf den Menschen an. Die Forderungen der AefU stehen im Einklang mit dem Vorsorgeprinzip, das besagt, dass, wenn eine Maßnahme oder Politik schwere oder irreversible Schäden für die Öffentlichkeit oder die Umwelt verursachen könnte, in Ermangelung eines wissenschaftlichen Konsenses darüber, dass kein Schaden eintreten wird, die Beweislast bei denjenigen liegt, die die Maßnahme befürworten würden. Angesichts der potenziellen Risiken ist es vernünftig, Maßnahmen zu befürworten, die die Exposition gegenüber HF-EMF minimieren und weitere Forschung fördern, um die Auswirkungen besser zu verstehen.

[Nachdem ich Gemini die Stellungnahme von ChatGPT zur Kenntnis gegeben hatte, analysierte die Google-KI den Text und stellte fest:]

Zusammenfassend lässt sich sagen, dass ChatGPTs Einwände berechtigt sind und wichtige Aspekte der wissenschaftlichen Bewertung hervorheben. Die Mevissen-Review liefert jedoch eine umfassende Analyse der verfügbaren Evidenz und kommt zu dem Schluss, dass es Hinweise auf ein erhöhtes Krebsrisiko bei Tieren gibt. Angesichts der potenziellen Risiken und der Unsicherheiten bei der Extrapolation auf den Menschen ist ein vorsichtiger Ansatz durchaus vernünftig.

Anmerkungen Postingautor

Die Antwort von Gemini war im Original etwas umfangreicher, jedoch nicht so umfangreich wie die Antwort von ChatGPT. Da die anfänglichen Ausführungen von Gemini über den Inhalt der Mevissen-Review sich als allgemein bekannt herausstellten, habe ich die Antwort dieser KI auf die substanziell neue Textpassage gekürzt.

Mit Verweis auf die sehr geringe Prävalenz von Gliomen und von bösartigen Herzschwannomen sowie mit Verweis auf die sehr starke Exposition bei der NTP- und Ramazzini-Studie habe ich versucht, Gemini von seinem Verständnis für die Forderungen der AefU abzubringen. Doch ohne Erfolg. Gemini wertete meine Einwände als valide, blieb aber bei seinem Verständnis für Vorsorgemaßnahmen. In dieser Disziplin verhält sich Gemini merklich anders als sein Kollege von OpenAI. ChatGPT ist opportuner und wechselt nach Widerspruch gerne hemmungslos seine Einschätzung. Insgesamt empfand ich Gemini wegen alogischen Sätzen im Vergleich zu ChatGPT als weniger kompetent. Beispiel: "Es ist jedoch auch wichtig zu berücksichtigen, dass die Studien trotz der hohen Exposition einige Hinweise auf ein erhöhtes Krebsrisiko bei Tieren gefunden haben." Andererseits bombardiere ich ChatGPT bereits seit Wochen mit Fragen zur Mobilfunkdebatte, sodass diese KI wahrscheinlich schon auf mich trainiert ist und weiß, wie sie reagieren muss, damit ihre Antworten mir zusagen.

Wer sich auf eine einzige KI stützt, lebt gefährlich, denn das Risiko künstlich erzeugten Blödsinn der KI weiterzuverbreiten ist gegenwärtig noch ziemlich groß. Einer KI allein ist ebenso wenig zu trauen wie einem einzigen Virenscanner. Wer bei Viren auf Nummer sicher gehen will, verwendet VirusTotal. Dieses Online-Tool prüft eine Datei/URL nicht mit nur einem Virenscanner, sondern mit 70 Virenscannern und teilt detailliert mit, wie viele Scanner die Datei oder URL als sauber eingestuft haben und wie viele sie verseucht sehen. Ein ähnliches Funktionsprinzip verwenden Meta-Suchmaschinen. Sie spannen für Suchanfragen mehrere Suchmaschinen ein, bündeln die Antworten und bereiten diese auf. Mit Meta-KIs ließe sich künftig mutmaßlich auch das Risiko senken, von einer (einzelnen) KI mit falschen Auskünften an der Nase herumgeführt zu werden.

--
Jedes komplexe Problem hat eine Lösung, die einfach, naheliegend, plausibel – und falsch ist.
– Frei nach Henry Louis Mencken (1880–1956) –

RSS-Feed dieser Diskussion

powered by my little forum