Forschung hin, Statistik her - Teil2. (Elektrosensibilität)

Siegfried Zwerenz, Sonntag, 09.11.2008, 19:20 (vor 5786 Tagen) @ H. Lamarr

Fortsetzng von Teil1

Auf der anderen Seite kann ein aufmerksamer Elektrosensibler auch schon beim bloßen Anblick einer Sendeantenne in seine Nähe die „Krise“ bekommen (Nocebo-Effekt). Man kann es sich vielleicht so vorstellen, dass einem die Elektroden eines Elektroschockgerätes an den Fingern angeklemmt werden. Selbst wenn niemals ein Elektroschock ausgelöst wird, führt es bei dem Probanden zu einer unangenehmen Stresssituation. Das ist vergleichbar darauf zu warten, dass zum Beispiel aggressive unangenehme Kopfschmerzen auftauchen, die dann auch nicht auf die Schnelle wieder abstellbar sind, auch wenn man sich der Bestrahlung entzieht.

Der Elektroschock dauert nur den Bruchteil einer Sekunde und ist danach vorbei. Die Kopfschmerzen können bis zur nächsten Ruheperiode anhalten und solange ist die Leistungsfähigkeit drastisch eingeschränkt, gefolgt von den oben beschriebenen Auffälligkeiten.


Wissenschaftler:
In Deutschland sind die meisten unabhängigen Wissenschaftler in der Forschung und Lehre der Universitäten eingebunden. Zerlegt man Universitäten in kleinere Einheiten, so werden meist schnell autonom arbeitende Fachbereiche sichtbar. Institutsdenken dominiert das Hochschuldenken. Persönlicher wissenschaftlicher Ehrgeiz dominiert die Lehre.

Die Sachmittelausstattung der Institute entspricht nicht den wissenschaftlichen Ansprüchen. Meist wird die Institutsausstattung mit den Berufungsmitteln eines Kollegen renoviert. Das führt dann zu einer noch ungünstigeren Kostenstruktur, die dann fast ausschließlich nur noch zur Deckung der Personalkosten ausreicht.

Der Ruf an einem Lehrstuhl folgt schon lange nicht mehr den ausgezeichneten Leistungen des Gerufenen in dem am Institut benötigten Fachgebiet und dem Geschick in der Lehre sein Wissen und seine Begeisterung an junge Leute weiterzugeben. Die wissenschaftlichen Topleistungsträger (die wahrscheinlich auch gegen Elektrosmog „immun“ sind) wollen die Konzerne selbst behalten und können das durch entsprechende Besoldung auch beliebig steuern.

Wird jemand im oberen wissenschaftlichen Management der Konzerne auffällig und sein Lebenslauf lässt es zu, so wird er gerne in die Lehre abgeschoben. In Berufungskommissionen, die einen fast schon privaten Charakter haben, werden durch Dienerschaft Einzelner die auffälligen Personen in den Professorenrang erhoben. Die Triebfeder ist meist das Zauberwort „Drittmittel“. Das Ergebnis sind dann Professoren, die nur eingeschränkt in der Lehre und der Forschung einsetzbar sind.

Das Institutsleben wird dann maßgeblich von wissenschaftlichen Mitarbeitern geprägt, von denen viele hauptsächlich an ihrer eigenen Habilitation interessiert sind. Man sucht meist jahrelang nach einem geeigneten Thema, denn viel Unterstützung ist von vielen Professoren nicht mehr zu erwarten. Das Promotionsthema wird später für die Bewerbung benötigt, muss also möglichst nicht anstößig sein und bei der Industrie möglichst opportun sein. Es muss auch neu sein, also los in die komplexe technische Märchenwelt, von der möglichst niemand mehr etwas versteht und die möglichst auch nie eine praktische Anwendung hat! Was mache ich bloß, wenn meine Stelle ausläuft, bevor ich promoviert habe? Lohnt es sich überhaupt noch zu promovieren?

Bei den, sagen wir einmal, aus meiner Sicht suboptimal gelehrten Studenten sind aber noch alle dabei. Bis zum Diplom hat es meist noch keine Auslese gegeben. Da sind auch die künftigen Nobelpreisträger mit den Praktikern, den Theoretikern und auch Humanisten zusammen. Auch sind diese Studenten meist ergebnisoffen und hochmotiviert. Sie bilden bei vielen Projekten das Fußvolk. Auch in der Wissenschaft sind 95% Transpiration und 5% Inspiration.

Bei den Studien bemerkt man deren Tätigkeit meist im Arbeitsteil. Vielfach ist der Projektverlauf ordentlich beschrieben, auch werden vielfach neue Ideen eingebracht und neue Arbeitsansätze werden erarbeitet, und das alles meist mit technischen Mitteln, die an der Grenze der Unbrauchbarkeit stehen. Das Problem, das diese Arbeitsgruppen dann haben, ist, dass jemand, der sich mit der Materie auskennt, frühzeitig Teilergebnisse überprüft und mit den Mitarbeitern zusammen neue tragfähige Konzepte erarbeitet.

Es sollte auch möglich sein, im Projektverlauf von der Aufgabe abweichende Ergebnisse zu dokumentieren und auszuwerten. Die Auswertung sollte von der Gruppe erstellt werden, die auch die Arbeit geleistet hat. Das führt zwar sicher zu einigen Fehlern, aber man könnte sicherlich schnell einen echten Fortschritt erzielen.

Die heutige Realität sieht jedoch anders aus. Die Auswahl des Materials, das für die Dokumentation verwendet wird und auch die Zusammenfassungen, wird von Leuten durchgeführt, die meist keinen Handschlag an dem Projekt getan haben. Sie sind durch ihre Vergangenheit im wissenschaftlichen Betrieb wahre Künstler, wenn es darum geht, Arbeitsdaten in ein Zielkonzept zu pressen.

Viel Arbeit wird ihnen davon durch Statistikprogramme abgenommen. Man muss nur lange genug in eine Richtung die Daten vertauschen, damit irgendwann ein möglichst optimales Ergebnis der Erwartung herauskommt. In der Elektrotechnik kennt man diese Programme als Optimiser. Sie permutieren einfach alle Möglichkeiten der Dimensionierung einer Schaltung durch, bis sie dem vorgegebenen Simulationsergebnis möglichst nahe kommen.

So entsinne ich mich noch an die Zeiten, als ich Vergleichstypen für Transistoren gesucht habe. Wenn man wirklich günstige Transistoren haben wollte, so war es ein Geheimtrick, die damals aufkommenden Simulationsdaten (Spice) zu vergleichen. In ihnen waren die Halbleiterparameter recht gut abschätzbar, wie z.B. Größe der Kristalle, Stromtragfähigkeit und Durchbruchverhalten.

Ich war dann total erstaunt, was Statistik-Automaten aus der Physik gemacht hatten. So gab es Silizium-Transistoren mit Bandabständen (ich glaube Parameter EG) von über zwei Volt oder aber auch mit weit unter einem Volt. Das war technischer Unsinn und beruhte nur auf eine nicht nach Plausibilität gesteuerte statistische Minimalabweichung. Man ersetzte Rechengeschwindigkeit durch Verstand.

Bitte weiterlesen bei Teil3


gesamter Thread:

 RSS-Feed dieser Diskussion

powered by my little forum